متابعة | طارق عامر.
اعتذر موقع Facebook عن حادثة
صنفت فيها أنظمة الذكاء الاصطناعي الخاصة بها خطأً مقطع فيديو للذكور السود على أنه فيديو للقرود ،
ووصف الخطأ بأنه “غير مقبول” ، وقال إنه يعمل على أداة توصية لتجنب حدوثه مرة أخرى.
تلقى المستخدمون الذين شاهدوا فيديو 27 يونيو الذي نشرته صحيفة ديلي ميل البريطانية اليومية رسالة تلقائية تسأل عما إذا كانوا يريدون الاستمرار في مشاهدة لقطات القرود ،
وفقًا لصحيفة نيويورك تايمز.
قامت Facebook بإلغاء تنشيط ميزة توصية الموضوع تمامًا بمجرد فهمها لما كان يجري ،
وفقًا لمتحدث باسم الشركة. نعتذر لأي شخص قد يكون قد أساء لهذه الاقتراحات.
ومضى المسؤول يقول:
“هذا بالتأكيد خطأ لا يغتفر”. يتم التحقيق في سبب السلوك من قبل الشركة لتجنب حدوثه مرة أخرى. وكما ذكرنا سابقًا ،
بينما تحسن الذكاء الاصطناعي لدينا ، فإننا ندرك أنه بعيد عن المثالية. ما زال لدينا طريق طويل لنذهب.
لسنوات ، تعرضت جوجل وأمازون وشركات التكنولوجيا الأخرى لانتقادات بسبب التحيز في أنظمة الذكاء الاصطناعي ،
لا سيما فيما يتعلق بالمخاوف العرقية.
وفقًا للدراسات ، فإن برامج التعرف على الوجه متحيزة تجاه الأفراد من العرق ويصعب التعرف عليهم.
ونتيجة لذلك ، يتعرض السود للتمييز أو الاعتقال نتيجة لخطأ في الكمبيوتر.
في عام 2015 ، اعتذرت Google عن الإبلاغ عن الأشخاص ذوي البشرة السمراء في تطبيق الصور الخاص بها.
أصدر Facebook اعتذارًا عن الفيديو.
يمتلك Facebook أحد أكبر أرشيفات الصور في العالم ، مما يسمح له بتدريب خوارزميات التعرف على الوجه والأشياء.
تسأل الشركة ، التي تصمم المحتوى للمستخدمين بناءً على عاداتهم السابقة في التصفح والمشاهدة ،
أحيانًا ما إذا كانوا يرغبون في رؤية منشورات من فئات مماثلة في المستقبل.
واجهت الشركة تحديات أخرى متعلقة بالعرق وتطبيقها لمشاركة الصور ، Instagram. بعد بطولة أوروبا لكرة القدم في يوليو ،
على سبيل المثال تعرض أعضاء منتخب إنجلترا لكرة القدم لإساءة عنصرية على وسائل التواصل الاجتماعي نتيجة خسارة ركلات الترجيح في مباراة البطولة.
نشأ الخلاف الداخلي في الشركة أيضًا بسبب التوترات العرقية. في مساحة مشتركة في مكاتب الشركة في مينلو بارك في عام 2016 ،
أصدر الرئيس التنفيذي مارك زوكربيرج تعليمات للموظفين بالتوقف عن إزالة عبارة Black Lives Matter واستبدالها بـ All Lives Matter.
في العام الماضي
شن مئات الموظفين إضرابًا افتراضيًا احتجاجًا على معاملة الشركة
لبيان الرئيس دونالد ترامب بشأن مقتل جورج فلويد في مينيابوليس.
في أبريل
أصدرت لجنة التجارة الفيدرالية الأمريكية تحذيرًا
من أن أنظمة الذكاء الاصطناعي التي أظهرت التحيز العنصري أو الجنساني يمكن أن تنتهك قواعد حماية المستهلك.
هذا صحيح إذا تم استخدامه لاتخاذ قرار ائتماني أو إسكان أو توظيف.