يتم تعليم الآلات على الإنصاف-يمكن أن تؤدي برامج التعلم الآلي إلى تحيزات قد تضر بالباحثين عن عمل وطالبي القروض وغير ذلك
بقلم ماريا تممينغ--6 سبتمبر 2017
د. سالم موسى القحطاني
من المحتمل أنك واجهت اليوم خوارزمية واحدة على الأقل للتعلم الآلي. تعمل رموز الكمبيوتر الذكية هذه على فرز نتائج محرك البحث، وإزالة رسائل البريد الإلكتروني العشوائية من علب الوارد وتحسين طرق التنقل في الوقت الفعلي. يعهد الناس إلى هذه البرامج بقرارات متزايدة التعقيد - وأحيانًا تغير حياتهم -، مثل تشخيص الأمراض والتنبؤ بالنشاط الإجرامي.
يمكن لخوارزميات التعلم الآلي إجراء هذه المكالمات المعقدة لأنها لا تتبع ببساطة سلسلة من الإرشادات المبرمجة بالطريقة التي تتبعها الخوارزميات التقليدية. بدلاً من ذلك، تدرس هذه البرامج المعززة الأمثلة السابقة لكيفية إكمال مهمة ما، وتمييز الأنماط من خلال الأمثلة، ومن ثم تستخدم تلك المعلومات لاتخاذ قرارات على أساس كل حالة على حدة.
لسوء الحظ، السماح للآلات بهذا الذكاء الاصطناعي- AI، باكتشاف الأشياء بأنفسها لا يجعلها مجرد "مفكرين" جيدين، بل يمنحها أيضًا الفرصة لالتقاط التحيزات.
كشفت التحقيقات في السنوات الأخيرة عن عدة طرق اظهرت الخوارزميات من خلالها التحيزات والعنصرية. في عام 2015 ، أفاد الباحثون أن خدمة إعلانات Google تعرض بشكل تفضيلي منشورات متعلقة بالوظائف ذات الأجور المرتفعة للرجال. وجد تحقيق أجرته شركة ProPublica عام 2016 أن كومباس، وهي أداة تستخدمها العديد من قاعات المحاكم للتنبؤ بما إذا كان المجرم سوف يخالف القانون مرة أخرى ، توقعت خطأً أن المتهمين السود سيعودون للإجرام ما يقرب من ضعف عدد المرات التي توقعوا فيها هذا التنبؤ الخاطئ للبيض. أظهرت مجموعة تحليل بيانات حقوق الإنسان أيضًا أن أداة التنبؤ بالجريمة PredPol قد تقود الشرطة إلى استهداف الأحياء ذات الدخل المنخفض والأقليات بشكل غير عادل (SN Online: 3/8/17). من الواضح أن ذكاء الخوارزميات الذي يبدو كإنسان يمكن أن يأتي بأحكام مسبقة شبيهة بالإنسان.
يقول عالم الكمبيوتر موريتز هاردت من جامعة كاليفورنيا ، بيركلي: "هذه مشكلة شائعة جدًا في التعلم الآلي". حتى إذا صمم المبرمج خوارزمية بدون نية ضارة، "فمن المحتمل جدًا أن ينتهي بك الأمر في موقف سيكون به مشكلات تتعلق بالإنصاف"، كما يقول هاردت. "هذا هو الافتراضي أكثر من الاستثناء."
إن برنامج التعلم الآلي المدرب على بيانات جرائم المخدرات من أوكلاند، كاليفورنيا، سيقدم منظورًا منحرفًا حول المكان الذي يجب إرسال ضباط الشرطة إليه. جاءت جرائم المخدرات المبلغ عنها بشكل رئيسي من الأحياء التي يسكنها "ذوي البشرة السمراء" وذوي الدخل المنخفض في عام 2010. لكن بيانات الصحة العامة لعام 2011 تشير إلى أن تعاطي المخدرات كان أكثر انتشارًا عند البيض.
قد لا يدرك المطورون حتى أن البرنامج قد علم نفسه بعض التحيزات. تعود هذه المشكلة إلى ما يعرف بقضية الصندوق الأسود: كيف تصل الخوارزمية إلى استنتاجاتها بالضبط؟ نظرًا لعدم إخبار خوارزمية التعلم الآلي بكيفية أداء وظيفتها بالضبط ، فغالبًا ما يكون من غير الواضح - حتى لمنشئ الخوارزمية - كيف أو لماذا ينتهي الأمر باستخدام البيانات بالطريقة التي تستخدمها في اتخاذ القرارات.
بدأ العديد من علماء الكمبيوتر والبيانات المهتمين اجتماعيًا مؤخرًا في مواجهة مشكلة تحيز الآلة. ابتكر البعض طرقًا لإضافة متطلبات الإنصاف إلى أنظمة التعلم الآلي. وجد آخرون طرقًا لإلقاء الضوء على مصادر السلوك المتحيز للخوارزميات. لكن طبيعة خوارزميات التعلم الآلي باعتبارها أنظمة ذاتية التعلم تعني أنه لا يوجد حل سهل لجعلها تعمل بشكل عادل.
التعلم من خلال ضرب الامثلة
في معظم الحالات، يعد التعلم الآلي لعبة خوارزمية، كما تفعل الخوارزمية. يقوم المبرمج بتعيين خوارزمية هدفًا - على سبيل المثال، توقع ما إذا كان الناس سيتخلفون عن سداد القروض؟. لكن الآلة لا تحصل على تعليمات صريحة حول كيفية تحقيق هذا الهدف. بدلاً من ذلك، يمنح المبرمج الخوارزمية مجموعة بيانات للتعلم منها، مثل ذاكرة التخزين المؤقت لطلبات القروض السابقة المصنفة بما إذا كان مقدم الطلب قد تخلف عن السداد أم لا.
ثم تختبر الخوارزمية طرقًا مختلفة لدمج سمات طلب القرض للتنبؤ بمن سيتخلف عن السداد. يعمل البرنامج من خلال جميع التطبيقات الموجودة في مجموعة البيانات، حيث يعمل على ضبط إجراءات اتخاذ القرار على طول الطريق. بمجرد التدريب الكامل، يجب أن تكون الخوارزمية قادرة بشكل مثالي على قبول أي طلب قرض جديد وتحديد ما إذا كان هذا الشخص سيتخلف عن السداد أم لا.
تنشأ المشكلة عندما تكون بيانات التدريب مليئة بالتحيزات التي قد تدمجها الخوارزمية في قراراتها. على سبيل المثال، إذا تم تدريب خوارزمية التوظيف في قسم الموارد البشرية على بيانات التوظيف التاريخية من وقت كان فيه الرجال مفضلين على النساء، فقد يوصي بتوظيف الرجال أكثر من النساء. أو، إذا كان هناك عدد أقل من المتقدمات في الماضي، فإن الخوارزمية لديها عدد أقل من الأمثلة على تلك التطبيقات للتعلم منها، ولذا قد لا تكون دقيقة في الحكم على طلبات النساء.
للوهلة الأولى، تبدو الإجابة واضحة: أزل أي سمات حساسة ، مثل العرق أو الجنس ، من بيانات التدريب. تكمن المشكلة في وجود العديد من الجوانب غير الحساسة ظاهريًا لمجموعة البيانات التي يمكن أن تلعب دور الوكيل لبعض الميزات الحساسة. قد يرتبط الرمز البريدي ارتباطًا وثيقًا بالعرق، وإقرار التخصص في الجامعة وفق الجنس او النوع، والصحة بشكل عام بالوضع الاجتماعي والاقتصادي.
وقد يكون من المستحيل معرفة كيفية تأثير أجزاء مختلفة من البيانات - سواء كانت حساسة أو غير ذلك - في أحكام الخوارزمية. تطور العديد من خوارزميات التعلم الآلي عمليات تداول تتضمن آلافًا من الخطوات المعقدة التي يستحيل على الأشخاص مراجعتها.
بقول سايمون ديديو ، العالم المعرفي بجامعة كارنيجي ميلون في بيتسبرج ، إن مبتكري أنظمة التعلم الآلي "اعتادوا أن يكونوا قادرين على النظر إلى الكود المصدري لبرامجنا وفهم كيفية عملها ، لكن تلك الحقبة قد ولت منذ زمن طويل". ويضيف أنه في كثير من الحالات ، لا يهتم مؤلفو الخوارزمية ولا مستخدموها بطريقة عملها، طالما أنها تعمل. "إنه مثل،" لا يهمني كيف صنعت الطعام ؛ طالما ان طعمه لذيذ.' "
ولكن في حالات أخرى، يمكن أن تُحدث الإجراءات الداخلية للخوارزمية فرقًا بين حصول شخص ما على الإفراج المشروط أو منصب تنفيذي أو رهن عقاري أو حتى منحة دراسية. لذلك يبتكر علماء الكمبيوتر والبيانات طرقًا إبداعية للتغلب على حالة الصندوق الأسود لخوارزميات التعلم الآلي.
وضع الخوارزميات في نصابها الصحيح
اقترح بعض الباحثين أنه يمكن تحرير بيانات التدريب قبل إعطائها لبرامج التعلم الآلي بحيث تكون البيانات أقل احتمالية لإضفاء التحيز على الخوارزميات. في عام 2015 ، اقترحت إحدى المجموعات اختبار البيانات بحثًا عن التحيز المحتمل من خلال بناء برنامج كمبيوتر يستخدم ميزات الأشخاص غير الحساسة للتنبؤ بميزاتهم الحساسة ، مثل العرق أو الجنس. وخلص الباحثون إلى أنه إذا تمكن البرنامج من القيام بذلك بدقة معقولة، فإن السمات الحساسة وغير الحساسة لمجموعة البيانات مرتبطة بإحكام. كان هذا الاتصال الوثيق عرضة لتدريب خوارزميات التعلم الآلي العنصرية او التمييزية.
لإصلاح مجموعات البيانات المعرضة للانحياز، اقترح العلماء تغيير قيم العناصر غير الحساسة التي استخدمها برنامج الكمبيوتر الخاص بهم للتنبؤ بالميزات الحساسة. على سبيل المثال ، إذا كان برنامجهم يعتمد بشكل كبير على الرمز البريدي للتنبؤ بالعرق ، يمكن للباحثين تعيين قيم مزيفة لعدد متزايد من الأرقام من الرموز البريدية للأشخاص إلى أن يصبحوا لم يعدوا مؤشرًا مفيدًا للعرق. يمكن استخدام البيانات لتدريب خوارزمية خالية من هذا التحيز - على الرغم من أنه قد يكون هناك مقايضة مقابل مستوى الدقة- أي التنازل عن ميزة ممن أجل الحصول على أخرى اقل قيمه.
على الجانب الآخر ، اقترحت مجموعات بحثية أخرى إلغاء التحيز في مخرجات خوارزميات التعلم الآلي المدربة بالفعل. في عام 2016 في مؤتمر أنظمة معالجة المعلومات العصبية في برشلونة، أوصى هاردت وزملاؤه بمقارنة التنبؤات السابقة لخوارزمية التعلم الآلي بنتائج العالم الحقيقي لمعرفة ما إذا كانت الخوارزمية ترتكب أخطاء بالتساوي بالنسبة لمختلف الديموغرافيات. كان هذا يهدف إلى منع مواقف مثل تلك التي أنشأتها كومباس ، والتي قدمت تنبؤات خاطئة حول المدعى عليهم من السود والبيض بمعدلات مختلفة. من بين المتهمين الذين لم يستمروا في ارتكاب المزيد من الجرائم، تم تصنيف السود من قبل كومباس كمجرمين مستقبليين أكثر من البيض. من بين أولئك الذين انتهكوا القانون مرة أخرى، تم تصنيف البيض في كثير من الأحيان على أنهم أقل خطورة للنشاط الإجرامي في المستقبل.
بالنسبة لخوارزمية التعلم الآلي التي تعرض هذا النوع من التمييز، اقترح فريق هاردت تبديل بعض قرارات البرنامج السابقة حتى تحصل كل فئة ديموغرافية على مخرجات خاطئة بنفس المعدل. بعد ذلك، يمكن تطبيق هذا القدر من التشويش الناتج ، وهو نوع من التصحيح ، على الأحكام المستقبلية لضمان استمرار المساواة. أحد القيود، كما يشير هاردت، هو أنه قد يستغرق بعض الوقت لجمع مخزون كافٍ من النتائج الفعلية للمقارنة مع تنبؤات الخوارزمية.
كتب معسكر ثالث من الباحثين إرشادات الإنصاف في خوارزميات التعلم الآلي نفسها. تكمن الفكرة في أنه عندما يترك الأشخاص خوارزمية ما في مجموعة بيانات تدريبية، فإنهم لا يمنحون البرنامج الهدف المتمثل في اتخاذ قرارات دقيقة. يخبر مبرمجون الخوارزمية أيضًا أن مخرجاتها يجب أن تفي ببعض معايير الإنصاف، لذلك يجب عليها تصميم إجراءات اتخاذ القرار وفقًا لذلك.
في أبريل ، اقترح عالم الكمبيوتر بلال ظفار من معهد ماكس بلانك لأنظمة البرمجيات في كايزرسلاوترن بألمانيا وزملاؤه أن يضيف المطورون تعليمات إلى خوارزميات التعلم الآلي للتأكد من أنهم يوزعون الأخطاء على التركيبة السكانية المختلفة بمعدلات متساوية - نفس النوع من المتطلبات تعيين فريق هاردت. تتطلب هذه التقنية، التي تم تقديمها في بيرث ، أستراليا، في المؤتمر الدولي لشبكة الويب العالمية ، أن تحتوي بيانات التدريب على معلومات حول ما إذا كانت الأمثلة في مجموعة البيانات قرارات جيدة أو سيئة بالفعل. بالنسبة لشيء مثل بيانات التوقف والتفتيش، حيث يُعرف ما إذا كان الشخص الذي تم تفتيشه لديه سلاح بالفعل، فمعنى ذلك ان الطريقة تعمل. يمكن للمطورين إضافة تعليمات برمجية إلى برنامجهم تخبرهم بحساب التوقفات الغير مشروعة السابقة.
اختبر ظفار وزملاؤه أسلوبهم من خلال تصميم خوارزمية للتنبؤ بالجرائم للتعلم الآلي مع تعليمات محددة لعدم التمييز. قام الباحثون بتدريب الخوارزميات الخاصة بهم على مجموعة بيانات تحتوي على ملفات تعريف إجرامية وما إذا كان هؤلاء الأشخاص قد ارتكبوا الإجرام بالفعل. من خلال إجبار الخوارزمية الخاصة بهم على أن تكون أكثر تكافؤًا في صنع الأخطاء، تمكن الباحثون من تقليل الفرق بين عدد المرات التي تم فيها تصنيف السود والبيض الذين لم يلتزموا مرة أخرى على أنهم من المرجح أن يفعلوا ذلك: مثل مجرمي المستقبل حوالي 45 بالمائة للسود و 23 بالمائة للبيض. في الخوارزمية الجديدة للباحثين، انخفض التصنيف الخاطئ للسود إلى 26 بالمائة و 23 بالمائة للبيض.
هذه ليست سوى عدد قليل من الإضافات الأخيرة إلى مجموعة أدوات صغيرة ولكنها موسعة من التقنيات لفرض العدالة على أنظمة التعلم الآلي. لكن كيفية إصلاح هذه الخوارزميات - تكدسها ضد بعضها البعض - هو سؤال مفتوح لأن العديد منهم يستخدمون معايير مختلفة للعدالة. يتطلب البعض خوارزميات لإعطاء أعضاء من مجموعات سكانية مختلفة نتائج معينة بنفس المعدل تقريبًا. يخبر آخرون خوارزمية لتصنيف أو تصنيف مجموعات مختلفة بدقة بنفس المعدل. لا يزال البعض الآخر يعمل مع تعريفات الإنصاف الفردي التي تتطلب خوارزميات لمعاملة الأشخاص المتشابهين باستثناء ميزة حساسة واحدة. ولتعقيد الأمور، أظهرت الأبحاث الحديثة أنه في بعض الحالات، قد يكون من المستحيل تلبية أكثر من معيار للعدالة في وقت واحد.
يقول أنوبام داتا ، عالم الكمبيوتر في جامعة كارنيجي ميلون: "علينا أن نفكر في أشكال الظلم التي قد نرغب في القضاء عليها ، بدلاً من أن نأمل في نظام عادل تمامًا في كل بُعد ممكن".
ومع ذلك ، فإن أولئك الذين لا يرغبون في الالتزام بمعيار واحد للعدالة يمكنهم تنفيذ إجراءات إلغاء التحيز بعد وقوع الحقيقة لمعرفة ما إذا كانت المخرجات تتغير ، كما يقول هاردت ، الأمر الذي قد يكون علامة تحذير على تحيز الخوارزميات.
اظهر عملك
ولكن حتى إذا اكتشف شخص ما أن الخوارزمية لا ترقى إلى مستوى معين من الإنصاف ، فإن هذا لا يعني بالضرورة أن البرنامج بحاجة إلى التغيير ، كما يقول داتا. إنه يتخيل سيناريو قد تعطي فيه خوارزمية التصنيف الائتماني نتائج إيجابية لبعض الأجناس أكثر من غيرها. إذا استندت الخوارزمية في قراراتها إلى العرق أو بعض المتغيرات المتعلقة بالعرق مثل الرمز البريدي الذي لا ينبغي أن يؤثر على تسجيل الائتمان ، فستكون هذه مشكلة. ولكن ماذا لو اعتمدت نتائج الخوارزمية بشكل كبير على نسبة الدين إلى الدخل ، والتي قد ترتبط أيضًا بالعرق؟ يقول داتا: "قد نرغب في السماح بذلك ، لأن نسبة الدين إلى الدخل هي ميزة مرتبطة مباشرة بالائتمان.
بالطبع ، لا يمكن للمستخدمين بسهولة الحكم على عدالة الخوارزمية في هذه النقاط الدقيقة عندما يكون منطقها عبارة عن صندوق أسود كلي. لذلك يتعين على علماء الكمبيوتر إيجاد طرق غير مباشرة لتمييز أنظمة التعلم الآلي.
إحدى تقنيات استجواب الخوارزميات، التي اقترحها داتا وزملاؤه في عام 2016 في سان خوسيه، كاليفورنيا، في ندوة IEEE حول الأمان والخصوصية، تتضمن تغيير مدخلات الخوارزمية ومراقبة كيفية تأثير ذلك على المخرجات. يقول داتا: "لنفترض أنني مهتم بفهم تأثير عمري على هذا القرار، أو "نوعي" ذكر او انثى على هذا القرار". "إذن قد أكون مهتمًا بالسؤال،" ماذا لو كان لدي نسخة مطابقة لي، لكن الجنس مختلف؟ هل ستكون النتيجة مختلفة أم لا؟ "بهذه الطريقة، يمكن للباحثين تحديد مقدار الميزات الفردية أو مجموعات الميزات التي تؤثر على أحكام الخوارزمية. يمكن للمستخدمين الذين يقومون بهذا النوع من التدقيق أن يقرروا بأنفسهم ما إذا كان استخدام الخوارزمية للبيانات مدعاة للقلق. بالطبع، إذا تم اعتبار سلوك الكود غير مقبول، فلا يزال هناك سؤال حول ما يجب فعله حيال ذلك. لا يوجد "لذا خوارزميتك منحازة، ماذا الآن؟" كتيب التعليمات.
ابتكر عالم الكمبيوتر أنوبام داتا وزملاؤه طريقة لإظهار كيف تؤثر ميزات مجموعة البيانات المختلفة على ناتج الخوارزمية. في الخوارزمية التي تتنبأ باحتمالية ارتكاب الشخص للجرائم، كان للعرق دور ولكنه كان أقل وزنًا من تاريخ تعاطي المخدرات.
لا تزال الجهود المبذولة للحد من تحيز الآلة في مراحلها الأولى. يقول ناثان سريبرو، عالم الكمبيوتر بجامعة شيكاغو: "لست على علم بأي نظام يحدد أو يحل التمييز الذي يتم نشره بنشاط في أي تطبيق". "في الوقت الحالي، تحاول في الغالب اكتشاف الأشياء."
يوافق عالم الكمبيوتر سوريش فينكاتاسوبرامانيان على ذلك. يقول: "يجب أن تمر كل منطقة بحثية بمرحلة الاستكشاف هذه، حيث قد يكون لدينا فقط إجابات أولية ونصف مكتملة، لكن الأسئلة مثيرة للاهتمام".
لا يزال فينكاتاسوبرامانيان ، من جامعة يوتا في سولت ليك سيتي ، متفائلًا بشأن مستقبل هذه الزاوية المهمة لعلوم الكمبيوتر والبيانات. "لبضع سنوات حتى الآن ... سار إيقاع النقاش إلى شيء من هذا القبيل:" الخوارزميات رائعة ، يجب أن نستخدمها في كل مكان. أوه لا ، الخوارزميات ليست رائعة ، ها هي مشاكلهم ". لكن الآن ، على الأقل ، بدأ الناس في اقتراح الحلول ، والموازنة بين الفوائد والقيود المختلفة لتلك الأفكار. لذلك ، كما يقول ، "نحن لا نخاف كثيرًا."
https://www.sciencenews.org/article/machines-are-getting-schooled-fairness
This story appears in the September 16, 2017 issue of Science News with the headline, “Fair-minded machines: A new drive to revamp artificial intelligence may cut down bias.”