זה לא פורנו ילדים, זה בסך הכל הסהרה
המשטרה בלונדון החליטה לעשות שימוש במערכות בינה מלאכותית על מנת לאתר חומרים פדופיליים; בינתיים, המערכת מתקשה להבדיל בין מדבריות לעירום

מערכות של בינה מלאכותית הן הדבר החם בכל הקשור לזיהוי, תיוג וסיווג תמונות ברשת. עם זאת, לצד היתרונות נראה שעדיין נדרשת לא מעט עבודה ללמד אותן מערכות לפעול בצורה נבונה. המקרה של משטרת לונדון מוכיח שהדרך לשם עוד ארוכה, בטח יותר ממה שרבים רוצים להאמין.
משטרת לונדון החלה לעשות שימוש במערכות זיהוי תמונות לצרכים שונים, ובחלק מהמקרים המערכת פועלת באופן די טוב. לדוגמה, בזיהוי סמים, כסף ונשק. בפעולות אחרות היא עדיין דורשת שיפור רציני. כחלק מהנסיון לפעול נגד פדופילים ברשת, נעשה שימוש במערכות על מנת לסמן תמונות עירום של ילדים, אך מתברר שבינתיים המערכת לא מצליחה להבדיל בין תמונות עירום לתמונות של מדבריות.
- הסוף ל-"שתפו בכל הכוח" בפייסבוק?
- ברשת, גם המומחים יכולים להתגלות כטיפשים גמורים
- פייסבוק מגייסת בינה מלאכותית למניעת התאבדויות
"לפעמים המערכת מעלה תמונה של מדבר ומזהה אותה כחומר לא הולם או פורנוגרפי", אמר מארק סטרוקס, ראש המחלקה הדיגיטלית לזיהוי פלילי במשטרה. "מסיבה מסוימת, לאנשים רבים יש שומרי מסך של מדבריות והמערכת מזהה אותם כצבע עור".
בשיחה עם הטלגרף הבריטי, אמר סטרוקס כי המשטרה עובדת עם מומחים מעמק הסיליקון, אך גם עם השימוש במומחים ברור כי ישנן לא מעט בעיות במערכות הבינה המלאכותית שטרם נמצא להן פתרון. לפני כחודש דיווחנו במדור כי חוקרים ב-MIT הצליחו לשטות במערכת זיהוי מתקדמת ולגרום לה לזהות תמונה של צב תלת-מימדי כרובה. במקרה אחר, זיהתה מערכת של גוגל תמונה של שתי נשים שחורות כקופים.
אך לצד זיהוי שגוי של תמונות שכל קשר בינן לבין פורנוגרפיה מקרי לחלוטין עד לא קיים, מערכות הבינה המלאכותית גם סובלות מחוסר יכולת להבין דקויות של החברה שבה הם פועלים. כך למשל סימנה המערכת של פייסבוק את תמונת הילדה העירומה ממלחמת וייטנאם כחומר לא הולם, מה שהוביל להסרתה מהאתר. אמנם פייסבוק הודתה בטעות והתמונה שבה להופיע, אך המקרה המחיש את העובדה שעוד יעבור לא מעט זמן עד שבני אדם יוכלו לנוח בשקט בידיעה שמערכות אוטומטיות עושות את העבודה בשבילם כמו שצריך.