הרובוט מול המתכנת: מי מוסרי יותר? - מידה טובה - הבלוג של יאיר בן דוד - הארץ
 

אתם מחוברים לאתר דרך IP ארגוני, להתחברות דרך המינוי האישי

טרם ביצעת אימות לכתובת הדוא"ל שלך. לאימות כתובת הדואל שלך  לחצו כאן

לקרוא ללא הגבלה, רק עם מינוי דיגיטלי בהארץ  

רשימת קריאה

רשימת הקריאה מאפשרת לך לשמור כתבות ולקרוא אותן במועד מאוחר יותר באתר,במובייל או באפליקציה.

לחיצה על כפתור "שמור", בתחילת הכתבה תוסיף את הכתבה לרשימת הקריאה שלך.
לחיצה על "הסר" תסיר את הכתבה מרשימת הקריאה.

הרובוט מול המתכנת: מי מוסרי יותר?

מערכות לומדות ורובוטים מקבלים בשבילנו החלטות רבות, אך מה קורה כאשר מערכות כאלו מקבלות החלטות שיש בה אי צדק? האם נשפוט אותן כאחראיות מוסרית להחלטותיהן? הציפיה המוסרית שלנו ממערכות ורובוטים יכולה ליצור אפליה מסוג חדש - "אפליה על רקע אלגוריתמי"

תגובות
רובוטים מתוך הסרט "אני, רובוט" מ-2004

כאשר אנחנו קונים מוצר או מזמינים שירות באינטרנט מערכות מחליטות אם לאשר את הרכישה שלנו בהתבסס על אלגוריתמים לומדים. האלגוריתמים האלה לומדים אלו אוכלוסיות נוטות יותר לבצע הונאות אשראי ואלו לא. הם יוצרים הכללה של אוכלוסיות שנוטות יותר לבצע הונאות, ומונעים מהן לבצע עסקאות. כמו שאמר לי אנליטסט הונאות בכיר באחת מחברות הקניות הגדולות בעולם: "היו מקרים שהמערכת החליטה לא למכור למדינה שלמה, לניגריה למשל". לכן, ייתכן שגם אזרח ניגרי תמים לא יוכל לקנות חולצה עם הדפס של להקת הפאנק האהובה עליו, כי "האלגוריתם לא מאשר".

בשבוע האחרון פורסמה ב"מקור ראשון" כתבה על חברה ישראלית בשם "פייספשן" שמפתחת מוצר שמטרתו לזהות טרוריסטים, פדופילים ועבריינים על פי תווי פנים בלבד. מוצר כזה יכול לסייע לקצר תורי אבטחה, ולמנוע פיגועים או סוגי פשעים שונים, אבל מה יקרה אם האלגוריתם שעליו מבוסס מנגנון כזה יחליט לסנן או לעכב גם חפים מפשע על פי תווי פניהם? האם נוכל להאשים את המנגנון?

מבקר לוחץ את ידו של שוטר-רובוט בפתיחת תערוכת אבטחת מידע בדובאי, מאי 2017. מערכות שעשויות להועיל אך מסתכנות ב"אפליה על רקע אלגוריתמי"
אשרף מוחמד אלאמרה / רויטרס

משמעות האחריות המוסרית של רובוטים ומכונות לומדות הולכת וגוברת בשנים האחרונות. מנכ"ל טסלה, אילון מאסק, שמעריך שתוך עשור מרבית המכוניות בעולם תהיינה אוטונומיות, מתייחס פחות לעובדה שמערכות המבוססות על למידה חברתית יהפכו למה שמכתיב את האופן בו מתנהל העולם בכלל, והחיים שלנו בפרט. האם אנחנו מצפים מאותן מכונות או אלגוריתמים ל"התנהגות מוסרית" זהה להתנהגות שלנו? נדמה שהרצון לא תמיד תואם את האופן בו אנחנו מתכנתים ומנחים אותן.

המחקר הפסיכולוגי הנוגע ל"מוסר של רובוטים" נמצא בשלבים ראשוניים, אבל כבר מספק אמירות משמעותיות שיכולות לתרום גם להבנה שלנו את הציפיה המוסרית שלנו ממערכות לומדות, ואפילו לתכנון המערכות הללו בצורה שתיתפס בעינינו כמוסרית יותר.

פרופ' פיטר קהן מאוניברסיטת וושינגטון ועמיתיו ערכו מחקר שהראה שכאשר רובוטים ומכונות לומדות מקבלים החלטות שיש בהן אי צדק, למשל החלטה לא להעניק פרס לאנשים שאמורים על פי דין לזכות בו, אנשים נוטים לתפוס אותם כאחראים מוסרית, להאשים אותם ואף לכעוס עליהן. המחקרים שערכו קהן ועמיתיו מראים, שככל שלרובוט / המכונה שמקבלים את ההחלטה יש תכונות אנושיות יותר, כך האחריות המוסרית שתיוחס לה, במידה שהיא מבצעת החלטה שיש בה אי-צדק, גדולה יותר. אבל המחקרים מראים גם, כי לא משנה כמה נעניק לרובוט תכונות אנושים, אנשים יטו לתפוס בני אדם כאחראים יותר מוסרית למעשיהם מאשר רובוטים. מממצאים אלו עולה כי הפקדת קבלת החלטות בידי מכונה תמיד תפחית את האשמה על החלטות שהיא מקבלת, לכן, מי שמפחד מאשמה מוסרית על החלטותיו, רצוי שיסתתר מאחורי מכונה שתקבל את ההחלטות בשבילו.

אבל, ההבדל בין היחס המוסרי שלנו כלפי מערכות לומדות ורובוטים וכלפי בני אדם לא מסתכם במידת האחריות המוסרית שאנחנו מייחסים להם, אלא גם בסוג המוסר בו אנחנו מצפים מהן להשתמש. פרופ' ברטראם מאלה מאוניברסיטת בראון, וצוות חוקרים שהוביל, הראו במחקרם שבדילמות בהן יש דרישה לבחור אם להקריב בן אדם אחד למען הצלת חיים של רבים - אנחנו מצפים מרובוטים להקריב אדם אחד למען הצלתם של רבים, דבר שלא בהכרח נצפה מבני אדם.

החוקרים טוענים שבאופן כללי אנחנו נצפה מרובוטים למוסר "תוצאתני" יותר. כלומר, מוסר כזה שבו התוצאה קובעת, גם אם למענה נצטרך לבצע מעשה לא מוסרי למען רוב. מבני אדם, לעומת זאת, לא נצפה למוסר "תוצאתני" כזה. לא תמיד המטרה תקדש את האמצעים. הדילמה בין קבלת החלטה על פי מוסר תועלתני לקבלת החלטה על פי מוסר דאונטולוגי היא דילמה המלווה היבטים רבים בחיינו.

אבל האם תמיד נצפה מרובוטים וממכונות למוסר "תוצאתני"? מחקר שפורסם בכתב העת Science בשנה שעברה, מראה שכשמשתפים אנשים בדילמה לגבי האופן בו כדאי לתכנת החלטות של רכבים אוטונומיים, וספציפית בשאלה מה על הרכב האוטונומי לעשות כאשר הוא עומד לדרוס מספר אנשים והדרך היחידה להמנע מכך כוללת פגיעה אפשרית ב"נהג" הרכב בעצמו, למשל באמצעות הסטה של הרכב למדרכה או לגדר הפרדה. מרבית הנשאלים עונים שרכב אוטונומי אמור להיות ממתוכנת באופן בו יקבל את ההחלטה שתחסוך בחיי אדם רבים יותר, גם אם המחיר לכך הוא פגיעה בנהג עצמו. יתרה מכך, הנשאלים גם ענו שרכב שההחלטות שלו מוגדרות בצורה תוצאתנית כזו, הוא רכב שהם ישמחו להמליץ עליו לחבריהם. אבל, בצורה שאינה מפתיעה כלל, כאשר נשאלו אם יבחרו ברכב "תוצאתני" כזה בשביל עצמם, מרבית הנשאלים אנו שלא, ושיעדיפו רכב שמגן על נוסעיו בכל מחיר. ביניכם לבין עצמכם, האם זו לא הבחירה שגם אתם הייתם עושים?

אנחנו מייחסים פחות אחריות מוסרית לרובוטים ומכונות, מה שמאפשר להסתתר מאחוריהן בעת החלטות שנויות במחלוקת. בנוסף, אנחנו מצפים מהם למוסר תוצאתני יותר, וזה כבר ממצא מדאיג יותר. כאשר אנחנו בונים מערכת אוטומטית לניהול אבטחה בתור בכניסה לאוניברסיטה, לדוגמה, או בכניסה למוסד ממשלתי או מועדון, והמערכת תזהה שאנשים עם עור בצבע, מין וסטטוס סוציו אקונומי מסוים נוטים יותר לבצע פיגועים, הם יסננו ויעכבו אותם ובכך יאפשרו לכל השאר מעבר מהיר יותר ללא בדיקות אבטחה. פעולה כזו תקצר את התור לכולם בסופו של דבר (כי היא בעיקר תקבע את מי לא לעכב) ולכן תביא לתוצאה טובה יותר מבחינה תועלתנית, כמצופה ממערכת לומדת, אבל יהיה לה מחיר מבחינת מוסרית נתפסת, בכך שהיא תיצור "אפליה על רקע אלגוריתמי".

אפליה כזו כבר מתרחשת בכניסה למדינות ולמוסדות, והיא צפויה להתרחב בעתיד גם לחברות מסחריות, מכיוון שהסלקציה תעבור לניהולן של מערכות לומדות, היא תיתפס כלגיטימית יותר, מכיוון שההחלטה שהיא מקבלת היא "תוצאתנית" יותר.

אך אין סיבה להיות פסימיים מדי בהקשר הזה. מה שמעניין במחקר הפסיכולוגי של המוסר, הוא שתפיסות מוסריות משתנות בעקבות שינויים במציאות גם אם באיטיות יחסית. דוגמה לשינוי כזה הוא השינוי שחל בהבדל בין דפוס מוסרי "נשי" ו"גברי" אליו אתייחס בעתיד.

למרות שהיום אנחנו מייחסים לרובוטים ומערכות לומדות אחריות מוסרית נמוכה יותר, ומצפים מהם למוסר תועלתני יותר, ייתכן שככל שהשליטה על חיינו תועבר למערכות אלה - נצפה מהם למוסר דומה יותר לשלנו, בני האדם. גם אם הדבר יבוא על חשבון התועלת שהן אמורות להביא לנו.



תגובות

דלג על התגובות

בשליחת תגובה זו הנני מצהיר שאני מסכים/מסכימה עם תנאי השימוש של אתר הארץ

סדר את התגובות

כתבות שאולי פספסתם

*#