
يونس عاشور – YOUNES ASHOUR
هلوسات الذكاء الاصطناعي: عندما يخترع الروبوت الحقائق
تخيل أن تسأل روبوت دردشة عن نفسك فيعطيك معلومات صادمة وكاذبة، مثل اتهامك بجرائم لم ترتكبها. هذا ما حدث لرجل نرويجي يُدعى أرفي يالمار هولمن، عندما سأل تشات جي بي تي: “من هو أرفي يالمار هولمن؟” فجاء الرد متهمًا إياه بقتل أبنائه، وهو أمر غير صحيح على الإطلاق.
قدم هولمن شكوى لدى هيئة حماية البيانات النروجية ضد شركة أوبن إيه آي المالكة لتشات جي بي تي، مؤكّدًا أن هذه الإجابة تمثل تشهيرًا به وتنتهك قوانين حماية البيانات الأوروبية.
وليس هولمن الحالة الوحيدة؛ ففي يناير/كانون الثاني الماضي، اضطرت أبل إلى تعليق خدمة الأخبار المدعومة بالذكاء الاصطناعي بعد تكرار نشر أخبار خاطئة، بما في ذلك إشاعات غير صحيحة عن انتحار شخص يحمل اسمًا مرتبطًا بشعار بي بي سي. وفي الولايات المتحدة، استخدم محاميان تطبيق تشات جي بي تي لإعداد مستند قانوني، لكنه اختلق أحكامًا وهمية، ما أدى إلى توقيع غرامة عليهما.
هذه الحالات ما هي إلا مثال على ما يُعرف بـ AI hallucinations أو “هلوسات” الذكاء الاصطناعي.
ما هي هلوسات الذكاء الاصطناعي؟
البروفيسور توماس نوفوتني، مدير أبحاث الذكاء الاصطناعي في جامعة ساسكس البريطانية، يوضح أن هذه الظاهرة تحدث عندما تنتج نظم الذكاء الاصطناعي مخرجات غير صحيحة أو مخادعة للواقع. ويفضّل وصفها بـ “اختلاقات” بدل الهلاوس، لأن الذكاء الاصطناعي لا يمتلك وعيًا.
تحدث هذه الاختلاقات في جميع النماذج التوليدية، بما في ذلك النماذج اللغوية الكبيرة مثل تشات جي بي تي، ونماذج توليد الصور، وقد تبدو مقنعة للغاية، مما يصعّب التمييز بين الحقيقة والخيال.
أشكال الهلاوس
- هلاوس واقعية: معلومات غير صحيحة، مثل نسب نظرية النسبية إلى داروين بدل أينشتاين.
- هلاوس في الاستشهادات والمصادر: مصادر وهمية لدعم مزاعم غير صحيحة.
- هلاوس سياقية: تفسير خاطئ للسياق أو اختلاق تفاصيل.
- هلاوس استنتاجية: استنتاج معلومات غير صحيحة من البيانات المقدمة.
- هلاوس توسيع المحتوى: إضافة معلومات غير ضرورية أو بعيدة عن الموضوع.
- هلاوس بصرية: صور غير واقعية أو مشوهة.
- هلاوس ناتجة عن التحيز: الإجابة بطريقة تعكس تحيزات بيانات التدريب.
- هلاوس منطقية: إجابات تتناقض مع المنطق، مثل وجود خمسة أضلاع للمربع.
أسباب الهلاوس
يشرح نوفوتني أن الهلاوس نتيجة طريقة عمل الذكاء الاصطناعي التوليدي: النماذج تعتمد على تقدير احتمالات الكلمات أو البيانات بناءً على أمثلة سابقة، أي أنها تقوم بما يشبه التخمين المحسوب.
ويضيف محمد الجندي، خبير الذكاء الاصطناعي من سان فرانسيسكو، أن النماذج لا تعرف الحقائق، بل تنتج اللغة بناءً على أنماط البيانات التدريبية، وقد تنتج معلومات خاطئة بثقة كبيرة.
كما يمكن أن تحدث الهلاوس نتيجة هجمات حقن الأوامر (prompt injection attacks)، التي تُدخل أوامر خبيثة للنموذج للحصول على معلومات مضللة، وتشكل خطرًا خاصًا في المجالات الحساسة.
لماذا يصعب حل الهلاوس؟
تعتبر النماذج التوليدية “صناديق سوداء”، أي أن طريقة اتخاذها للقرارات غير شفافة، ما يجعل تصحيح الهلاوس صعبًا.
يشير نوفوتني إلى أن الحلول الممكنة تشمل:
- تغيير طريقة التنبؤ الأساسية في النموذج، مع الحفاظ على التوليد العشوائي للأفكار، وإلا يتحول الذكاء الاصطناعي إلى مجرد محرك بحث.
- نظم تدقيق الحقائق مستقلة للتحقق من المعلومات، وهي تقنية لا تزال قيد التطوير.
ويتفق الجندي على أن القضاء التام على الهلاوس يحتاج تطورات جذرية في بنية الذكاء الاصطناعي، رغم التقدم الحالي في تقنيات مثل التوليد المعزز بالاسترجاع (RAG) والتعلم المعزز بملاحظات البشر (RLHF).