هل الذكاء الاصطناعي عنصري ضد النساء

 

العديد من المبادرات تحاول الحد من تحيز الذكاء الاصطناعي من خلال مراقبة الخوارزميات وتصحيح قواعد البيانات بهدف إعادة التوازن لتمثيل الأقليات والإثنيات.

هل الذكاء الاصطناعي مبرمج بطريقة عنصرية أو تمييزية ضد النساء؟ هذا السؤال مردّه النتائج المتحيزة التي تعطيها الأجهزة العاملة بهذه التقنية من خلال نسخ ميول بشرية، غير أن الشركات العاملة في هذه التكنولوجيا الحديثة بدأت تدرك هذا المنحى السلبي مع محاولات لتصحيح الوضع.

تقول سلوى توكو، رئيسة المجلس الوطني للتقنيات الرقمية في فرنسا ردا على سؤال: هل الذكاء الاصطناعي مبرمج بطريقة عنصرية أو تمييزية ضد النساء؟ إن “الخوارزميات ليست سوى تتابع أرقام لذا من غير الممكن تحميلها أي مسؤولية، المشكلة مصدرها بشري وإذا لم نتحلّ باليقظة، يمكن أن نطوّر خوارزميات تنطوي على تمييز”. وتشير إلى أن في الأمر “تحديا متصلا بالمجتمع وبدولة القانون”.

وتطرقت منظمة التنمية والتعاون في الميدان الاقتصادي في تقرير أصدرته في يونيو الماضي إلى “مخاطر إسقاط اتجاهات من العالم التماثلي إلى العالم الرقمي”، مشجعة على استحداث بيئة سليمة للنفاذ إلى البيانات.

ويستند الذكاء الاصطناعي إلى تقنيات تلقين آلي قائمة على بيانات يُدخلها المطوّر لتقوم الآلة بتحليلها. وإذا ما كانت هذه المادة الأولية تنطوي على انحياز، ستكون النتيجة مغلوطة حتما.

ويقول جيروم بيرانجيه، مؤسس مجموعة “أديل” المكونّة من خبراء من مجالات متعدّدة مهمتها تقويم الخوارزميات من الناحية الأخلاقية، “جزء من الذكاء الاصطناعي لا يزال غبيا وشريرا من دون ضمير اصطناعي”.

ومن تطوير الخوارزميات وإقامة قاعدة بيانات وصولا إلى القرارات النهائية للآلة، تؤثر الصور النمطية والاتجاهات البشرية على النتيجة التي يُنظر إليها في الكثير من الأحيان خطأً على أنها من الحلول المعلوماتية الثابتة.

وتوضح آن لور تيولان، المتخصصة في الذكاء الاصطناعي لدى مجموعو “كابجيميني” الفرنسية للخدمات المعلوماتية، أن “عدد الرجال أكبر من النساء بين العاملين على تطوير التقنيات الجديدة، هذا واقع إحصائي. إذا ما أوجدنا خوارزميات انطلاقا من هذه البيانات من دون أي تصحيح، سنحصل على برنامج متحيّز”.

وفي القطاع المصرفي على سبيل المثال، يمكن للخوارزميات أن تدرس ملفات وتقترح مبالغ لقروض. لكن في حال كانت قاعدة البيانات المستخدمة في إعداد هذه المنظومات الحسابية تلحظ أن النساء يستلفن أموالا بدرجة أقل من الرجال، ستعيد الخوارزميات تظهير هذا الوضع كما هو.

وفي الولايات المتحدة، درس موقع “بروبابليكا” المتخصّص في وسائل الإعلام “التقييمات المرتبطة بمخاطر تكرار الجرائم” المعدّة قبل بضع سنوات لمنحرفين عن القانون من جانب خوارزمية في ولاية فلوريدا، مع البحث عمّن أدينوا مجدّدا في وقت لاحق بغية التحقّق من دقة التوقعات. وكانت أخطاء التقدير لناحية خطر معاودة ارتكاب الجرائم أكبر مرتين حيال الأميركيين السود مقارنة مع باقي الفئات.
وتقول تيولان “في كل مرة نريد استخدام الذكاء الاصطناعي لحل مسألة، يجب النظر بشأن ما إذا كان هناك انحياز بشري ما في القضية من شأنه أن يظهر في البيانات”.
ويوضح ريجيس شاتولييه، المكلف الدراسات في قسم الابتكار في هيئة حماية البيانات الفرنسية، “جرى الاكتفاء في السنتين الماضيتين بتشخيص الوضع. الآن بلغنا مرحلة بات من المثير للاهتمام فيها أن نرى ما بدأ الأطراف المعنيون بفعله لمعالجة الوضع”.
وتحاول العديد من المبادرات الحد من مواضع التحيّز هذه، بما يشمل على سبيل المثال مجموعات مراقبة الخوارزميات وقواعد البيانات كـ”أديل”، أو أدوات لتصحيح قواعد البيانات بهدف إعادة التوازن لتمثيل الأقليات والإثنيات.

وفي فرنسا، دعا تقرير لعالم الرياضيات والنائب سيدريك فياني العام الماضي إلى استحداث “هيئة خبراء عامين محلفين”. كما أن هيئة حماية البيانات الفرنسية أعلنت عزمها إقامة “منصة وطنية للتدقيق في الخوارزميات”.

وتتناول العلاجات الأساسية لتفادي تكرار هذه الأخطاء خصوصا مسألة التنوّع بما يشمل إدماج أكبر عدد ممكن من النساء، وإعادة التوازن في التنوع الإثني في قطاع التكنولوجيا، وتشكيل فرق من مجالات مختلفة داخل الشركات بدل إيكال مهمة تطوير الذكاء الاصطناعي حصرا إلى مهندسين.

ومن الأفضل استباق مواضع التحيّز المحتملة قبل حصول إخفاقات خصوصا في القرارات التي تؤثر على يوميات المستخدمين. وهذه الحاجة تبدو أكبر، برأي جيروم بيرانجيه، نظرا إلى أن الذكاء الاصطناعي في المستقبل سيكون بلا تدخّل بشري

التصنيفات : علوم وتكنولوجيا

error: لايمكنك نسخ محتويات هذه الصفحة... حقوق الملكية لموقع صاحبة الجلالة