انتقل إلى المحتوى

آراء الذكاء الاصطناعي الخفية: ما هو تحيز الذكاء الاصطناعي؟

تطلب من مولد صور يعمل بالذكاء الاصطناعي إنشاء صورة لـ "رئيس تنفيذي ناجح"، فيعرض لك رجالاً يرتدون بدلات فقط. تستخدم أداة توظيف جديدة لفحص السير الذاتية، ويبدو أنها تفضل المتقدمين من أحياء معينة على أخرى.

هذه ليست مجرد مصادفات غريبة؛ إنها أمثلة على تحيز الذكاء الاصطناعي (AI Bias). هذا هو أحد أخطر التحديات في عالم الذكاء الاصطناعي، حيث يمكن للذكاء الاصطناعي اتخاذ قرارات غير عادلة أو متحيزة.

فكر في الذكاء الاصطناعي كطالب يتعلم كل ما يعرفه من مجموعة معينة من الكتب. إذا كانت هذه المجموعة من الكتب مليئة بالأفكار القديمة أو تعرض وجهة نظر واحدة فقط، فستكون معرفة الطالب منحرفة. الذكاء الاصطناعي بنفس الطريقة.

ما هو تحيز الذكاء الاصطناعي؟

تحيز الذكاء الاصطناعي هو عندما ينتج نظام ذكاء اصطناعي نتائج متحيزة باستمرار ضد مجموعات معينة من الناس. ليس الأمر أن الذكاء الاصطناعي "يفكر" بطريقة متحيزة؛ بل هو انعكاس للبيانات التي تم تدريبه عليها.

لا يمتلك الذكاء الاصطناعي آراءه الخاصة، لكنه يمكن أن يردد الآراء الخفية والأنماط غير العادلة الموجودة في بيانات تدريبه.

تشمل الأمثلة الشائعة ما يلي:

  • مولدات الصور: إنشاء صور نمطية عند إعطاء مطالبات محايدة (على سبيل المثال، جميع الممرضات نساء، وجميع عمال البناء رجال).
  • أدوات التوظيف: قد يتعلم الذكاء الاصطناعي المدرب على بيانات التوظيف السابقة لشركة ما معاقبة المتقدمات بشكل غير عادل إذا كانت الشركة توظف تاريخيًا عددًا أكبر من الرجال.
  • الموافقات على القروض: قد يرفض نظام ما منح القروض لأشخاص من رموز بريدية معينة لأن بياناته تظهر أنه تاريخيًا، تمت الموافقة على عدد أقل من القروض هناك.

من أين يأتي التحيز؟

لا يولد الذكاء الاصطناعي بالتحيز. بل يتعلمه. فيما يلي الطرق الرئيسية التي يحدث بها ذلك:

1. البيانات المتحيزة

هذا هو السبب الأكبر. يتعلم الذكاء الاصطناعي من المعلومات التي أنشأها البشر، والمجتمع البشري به تحيزات موجودة. إذا تم تدريب الذكاء الاصطناعي على بيانات تاريخية من عالم به عدم مساواة عرقية أو جنسانية، فسيتعلم نفس الأنماط غير العادلة. القاعدة بسيطة: المدخلات السيئة تؤدي إلى مخرجات سيئة.

2. عدم كفاية البيانات

تخيل أنك تعلم الذكاء الاصطناعي التعرف على الكلاب، لكنك تعرض عليه صورًا لمستردات ذهبية فقط. بعد ذلك، عندما تعرض عليه صورة تشيواوا، قد لا يتعرف عليها على أنها كلب. يحدث نفس الشيء مع الناس. إذا كانت بيانات تدريب الذكاء الاصطناعي تتميز في الغالب بفئة ديموغرافية واحدة، فسيكون أداؤه أسوأ للجميع.

3. الخطأ البشري

يمكن للأشخاص الذين يجمعون ويصنفون البيانات للذكاء الاصطناعي أن يدخلوا عن غير قصد تحيزاتهم اللاواعية في النظام، مما يؤثر على ما يتعلمه الذكاء الاصطناعي في النهاية.

رسم توضيحي يظهر كيف تؤدي البيانات المتحيزة إلى مخرجات ذكاء اصطناعي متحيزة.

لماذا يهم هذا؟

تحيز الذكاء الاصطناعي ليس مجرد خلل تقني؛ بل له عواقب في العالم الحقيقي. يمكن أن يؤدي إلى حرمان الأشخاص بشكل غير عادل من الوظائف أو القروض أو حتى الرعاية الطبية. مع استخدامنا للذكاء الاصطناعي في مجالات أكثر أهمية في حياتنا، يصبح ضمان عدالته وإنصافه أمرًا بالغ الأهمية.

ما الذي يتم عمله؟ يعمل الباحثون والمطورون بجد لحل هذه المشكلة عن طريق:

  • جمع بيانات أكثر تنوعًا وتمثيلاً بعناية.
  • بناء أدوات لاختبار أنظمة الذكاء الاصطناعي بحثًا عن التحيزات غير العادلة قبل إصدارها.
  • تصميم الذكاء الاصطناعي ليكون أكثر شفافية حول كيفية اتخاذه لقراراته.

كمستخدم، مجرد معرفتك بوجود تحيز الذكاء الاصطناعي يجعلك مستهلكًا أكثر ذكاءً للتكنولوجيا. يساعدك على التشكيك في النتائج التي تراها وفهم أنه على الرغم من أن الذكاء الاصطناعي أداة قوية، إلا أنه انعكاس للعالم الذي تعلم منه—بكل عيوبه.