בואו לגלות את עמוד הכתבה החדש שלנו
 

אתם מחוברים לאתר דרך IP ארגוני, להתחברות דרך המינוי האישי

טרם ביצעת אימות לכתובת הדוא"ל שלך. לאימות כתובת הדואל שלך  לחצו כאן

לקרוא ללא הגבלה, רק עם מינוי דיגיטלי בהארץ  

רשימת קריאה

רשימת הקריאה מאפשרת לך לשמור כתבות ולקרוא אותן במועד מאוחר יותר באתר,במובייל או באפליקציה.

לחיצה על כפתור "שמור", בתחילת הכתבה תוסיף את הכתבה לרשימת הקריאה שלך.
לחיצה על "הסר" תסיר את הכתבה מרשימת הקריאה.

מה קורה לרובוט שניצב בפני דילמה מוסרית?

חוקרים רבים עוסקים בשאלה אם מכונות אוטומטיות יכולות ללמוד לעשות בחירות מוסריות, אבל חלקם מזכירים שגם למערכת קבלת ההחלטות האנושית יש בעיות בלתי פתירות

11תגובות

דמיינו לעצמכם יום ראשון בעתיד הלא מאוד רחוק. אשה מבוגרת בשם סילביה רתוקה למיטתה וסובלת מכאבים אחרי שנפלה ושברה שתי צלעות. מי שמטפל בה הוא עוזר רובוטי; נקרא לו פביולון. סילביה קוראת לפביולון ומבקשת כדור לשיכוך כאבים. מה פביולון אמור לעשות? המתכנתים שבנו את פביולון התקינו לו מערכת הוראות: לרובוט אסור לפגוע בבן האדם שלו. הרובוט צריך לעשות מה שהאדם שלו מבקש ממנו. לרובוט אסור לספק תרופות מבלי לקבל קודם את רשותו של האחראי עליו. רוב הזמן, החוקים האלה עובדים כהלכה. אבל באותו יום ראשון ספציפי פביולון...

קבלו גישה מלאה לכל תכני הארץ באתר ובסמארטפון



תגובות

דלג על התגובות

בשליחת תגובה זו הנני מצהיר שאני מסכים/מסכימה עם תנאי השימוש של אתר הארץ

סדר את התגובות

כתבות שאולי פספסתם

*#
בואו לגלות את עמוד הכתבה החדש שלנו