English (الإنجليزية) Español (الأسبانية) العربية
لِنتخيَّل هذا السيناريو:
يعملُ زوجان بجدٍّ لعدَّة سنوات، ويستطيعان أخيرًا توفيرَ ما يكفي من المال لإيداعه والحصول على منزلٍ صغير. “أخيرًا، يمكننا الإنتقال من منزلِنا المستأجر إلى منزلٍ نملكه”! تقول الزوجة.
يملأ الزوجان النماذج اللازمة للرهن العقاري ويرسلانها إلى الجهات المختصّة. على مدار أسابيع عديدة، ينتظر الزوجان، وبفارغ الصبر، ساعيَ البريد علَّه يسقط “ظرفَ القبولِ البنيّ” على بساطِهم من خلال فتحة الباب. وأخيرا، يأتي ساعي البريد بالفعل ويسقطُ ظرفًا بنيًّا من خلال فتحة الباب، ولكنَّه ظرف الرفض. ينظر الزوجان الى بعضهما البعض والى الرسالة التي وصلتهم: “لماذا تمَّ رفض طلبنا؟!”. تُجريَ السيِّدة فورا مكالمةً هاتفية سائلةً المقرِض عن سبب الرفض.
وفقًا لِلوائح حماية البيانات في الإتحاد الأوروبي، ينص قانون “الحق في الحصول على تفسير” على وجوب إعطاء الزوجين هذه المعلومات. ولكنَّ المفارقة أنَّ من تلقى اتصال السيّدة لا يعرف سببَ الرفض: لقد تمَّت معالجة طلب الرهن العقاري من قِبل نظام ذكاء إصطناعي قامت الشركة بتثبيته حديثًا وبكلفةٍ عالية ولكنَّه لا يقدِّم أيَّة أدلة أو تفسيرات! يطَّلع التطبيق على البيانات ويعطي الجواب (قبول طلب الرهن العقاري أو رفضه). ولكن، وبما أنَّ القانون ينص على “الحق في الحصول على تفسير”، فإنَّ من واجب المؤسسة معرفة سبب الرفض لتقدِّمَه للعملاء.
تلجأ المؤسسة إلى علماء الحاسوب والبرمجة لتسألَهم عن سبب الرفض. لكن للاسف فقد تعلَّم برنامج الذكاء الإصطناعي من التطبيقات الأخرى واتخذ القرار من تلقاء نفسِه ولكن لا أحد يعلم لماذا اتخذ قرار الرفض دون سواه!
لم يصدَِّق الزوجان ما حصل عندما عاود مدير المؤسسة الإتصال بهما. شعرا بالغضب إذ أنَّ الغاية من أجهزة الحاسوب مساعدة النّاس وليس التحكّم بهم بطرقٍ لم تتم برمجتها عليها انما قد تعلَّمتها من تلقاء نفسِها! هذا النقص في الشفافيّة لا يؤثّر فقط على الصناعات التي تعتمد بشكلٍ كبيرٍ على اتخاذ القرارات المستقلّة بل يمتد تأثيره أيضًا على ثقة النّاس فيضعفُها. ويمكنه كذلك أن يتسرب عامل التحيّزَ المحتملَ في البيانات دون ان يلاحظ أحد.
يعالجُ عملي هذه المشكلة بالضبط: أنا عالِمة كمبيوتر متخصصة في مجال الذكاء الإصطناعي (AI) وأهدفُ إلى زيادة ثقة النّاس بالقرارات التي تتَّخذها الخوارزميّات لهم. وفي سبيل تحقيق ذلك، أعطي خبراء المجال كالمستشارين الماليين، الأدوات التي يمكنهم أن يستخدموها لفهم سبب وكيفيَّة اتخاذ القرار الحاسوبي من قِبل الخوارزميات. ويمكن لهذا الأمر أن يساعدَ أيضًا في تحديد التحيّزات المحتملة potential biases والقضاء عليها.
يوجد عددٌ كبيرٌ من المؤلفات التي تشرحُ العلاقة بين التفسير والثقة: لقد تبيَّن أنَّه كلما كان من الأسهل شرح محصول النظام (القرارات التي يتّخذها مثلًا)، كلما زاد احتمال ثقة النّاس به. ولكننا في الوقت الحاضر لا نستطيع تفسيرَ جميع محصولات هذه الخوارزميات المستخدَمة في اتخاذ القرارات: إنَّ طرائق الصندوق الأسود، على سبيل المثال، ليست شفافة (من طرائق الصندوق الأسود الشبكات العصبية – الشبكات الإصطناعيّة المستوحاة من الدماغ البشري، وهذه الشبكات قادرة على التعلّم من الأمثلة دون أن تتمَّ برمجتها بشكلٍ صريحٍ على القيام بذلك).
أقوم بتطوير طرقٍ للإنتقال من نماذج الصندوق الأسود إلى النماذج الشفّافة، الأمر الذي يسهِّل شرح محاصيل عملية صنع القرار بطريقةٍ “إنسانيَّة”. وأشرحُ في السطورِ القادمة كيف أطوَِّر هذه الطرق.
الإقناع بالحِجَج argumentation:
من المعلوم أنَّ البشر وفي إطار سعيِهم للتوصل إلى اتفاقٍ ما، يتبادلون الحجج لصالح أو ضد قرارٍ معيَّن. إحدى الطرق التي أستخدمُها لتقديم تفكيرٍ شبيه بالتفكير “الإنساني” (تفكير الإنسان) هي تقديم الحجج argumentation: بإمكانِك كمستخدِم أن تنخرطَ في حوارٍ وتتحدَّى القرار أو التوصية من خلال تقديم حِجج ضدها. ولكي تقنعك الخوارزمية، عليها أن تدحضَ حججك بحججٍ مناسبة، وهكذا حتى تنفذَ الحجج من جعبتِك.
لنأخذُ مثالًا: لنفترض أنَّك طبيبة وتستخدمين نظامًا يدعمُ القرارات بهدف الحصول على المشورة بشأن أفضل طريقة لعلاج مصابٍ للسرطان، فتقدّمي لهذا النظام معلوماتٍ متعلّقةً بالمريض، بالإضافةِ إلى بياناته التصويريّة أو السريريّة. في حال أوصى هذا النظام باستخدام العلاج الكيميائي مثلًا، يمكن أن تكون حجتك المضادة: “لماذا لا نستخدم العلاج الإشعاعي؟”، فتكون حجة النظام المضادة عدم فعالية استخدام العلاج الإشعاعي وفق البيانات السريريّة للمريض.
الإقناع باستخدام الرسوم التوضيحيّة diagrams:
بعد العمل على تقديم الشرح بواسطة الحِجج، انضممتُ إلى مجموعة ماتيجا جامنيك Matija Jamnik في مختبر الحاسوب في كامبريدج بهدف العمل على مشروعٍ يدرس القوّة التفسيريّة للرسوم التوضيحيّة. تمثَّل هذه الرسوم التوضيحيّة المفاهيم والأفراد والعلاقات بينهم. يعتمد استخدام الرسوم التوضيحية بهدف الحصول على تفكيرٍ يشبه التفكير الإنساني على علم الأعصاب الذي يوضّح أنَّ النَّاس يجدون أنَّه من الأسهل فهم البرهان حينما يكون مستندًا إلى رسومٍ توضيحيّة. وبالتالي، يمكننا شرح القرارات التي صنعتها الخوارزميات من خلال إنشاء سلسلة من الرسوم التوضيحيّة التي تتوافق مع كلّ خطوةٍ منطقيّة اتخذتها الخوارزميّة.
نأخذ مثالًا شبيهًا بالمثال الأوّل: تستخدمُ الطبيبة نظام دعم يصنع قرارًا باستخدام دواء معيّن. وحينما ترغب الطبيبة في فهم المنطق الذي مرّت به الخوارزميّة لكي توصي باستخدام هذا الدواء دون غيرِه، يمكن لسبب القرار أن يكون بسيطًا كتشابه أعراض المريض مع أعراض مريضٍ آخر استخدم الدواء الموصى به وبالتالي قد أثبتت فعاليّتَه.
هذه هي رحلتي الشخصيّة والمهنيّة الهادفة إلى المطالبة بالسيطرة على الذكاء الإصطناعي والتغيرات التي يحدثها في حياتنا. آمل أن يتمَّ الإعتراف بهذا البحث بدلًا من التركيز فقط على الجوانب السلبيّة للذكاء الإصطناعي، مثل تعزيز التحيّزات الموجودة.
أمامنا طريق طويل لنقطعه ولكنَّ يجب ان تععي امراً مهماً: نحن، صانعي الذكاء الإصطناعي، نهتم بشأن الناس بالفعل !
ترجمة: هنادي نصرالله
No related posts.
Jamy-Lee Bam, Data Scientist, Cape Town
Paarmita Pandey, Physics Masters student, India
Nesibe Feyza Dogan, Highschool student, Netherlands
Una, writer and educator
Radu Toma, Romania
Financier and CEO, USA
Yara, Lebanon
Be the first to know when a new story is told! Delivered once a month.
Comments