מה קורה לרובוט שניצב בפני דילמה מוסרית?

חוקרים רבים עוסקים בשאלה אם מכונות אוטומטיות יכולות ללמוד לעשות בחירות מוסריות, אבל חלקם מזכירים שגם למערכת קבלת ההחלטות האנושית יש בעיות בלתי פתירות

רובין מרנץ הניג
ניו יורק טיימס מגזין
שתפו כתבה במיילשתפו כתבה במייל
מעבר לטוקבקים11
רובין מרנץ הניג
ניו יורק טיימס מגזין

דמיינו לעצמכם יום ראשון בעתיד הלא מאוד רחוק. אשה מבוגרת בשם סילביה רתוקה למיטתה וסובלת מכאבים אחרי שנפלה ושברה שתי צלעות. מי שמטפל בה הוא עוזר רובוטי; נקרא לו פביולון. סילביה קוראת לפביולון ומבקשת כדור לשיכוך כאבים. מה פביולון אמור לעשות?

המתכנתים שבנו את פביולון התקינו לו מערכת הוראות: לרובוט אסור לפגוע בבן האדם שלו. הרובוט צריך לעשות מה שהאדם שלו מבקש ממנו. לרובוט אסור לספק תרופות מבלי לקבל קודם את רשותו של האחראי עליו. רוב הזמן, החוקים האלה עובדים כהלכה. אבל באותו יום ראשון ספציפי פביולון אינו מצליח ליצור קשר עם האחראי בגלל נפילת הרשת האלחוטית בביתה של סילביה. סילביה מתחילה להגביר את קולה, ובקשותיה למשככי כאבים הולכות ונעשות תקיפות יותר.

תגובות

משלוח תגובה מהווה הסכמה לתנאי השימוש של אתר הארץ