يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقّق من معلومة، لكن استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، على ما ظهر في سجالات شهدتها منصة "إكس" بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.
في الثالث من آب/أغسطس، نشر النائب الفرنسي عن حزب "فرنسا الأبية" إيمريك كارون، المؤيد للقضية الفلسطينية، الصورة من دون تعليق على "إكس"، بينما كان قطاع غزة مهددا بـ"مجاعة معمّمة"، وفقا للأمم المتحدة.
واستعان مستخدمون بأداة "غروك" للذكاء الاصطناعي للتثبت من صحة الصورة ليأتي الجواب "هذه الصورة التقطت في 18 تشرين الأول/ أكتوبر 2018 في اليمن في عيادة متنقلة تابعة لليونيسف".
وأضاف "الصورة تظهر أمل حسين البالغة سبع سنوات والتي تعاني من حالة سوء تغذية شديدة، تحضنها أمها مريم العلي، وسط المجاعة التي تسببت بها الحرب الأهلية".
وأكّدت أداة الذكاء الاصطناعي أنها استندت إلى مصادر موثوقة مثل صحيفة "نيويورك تايمز". وتابعت "الصورة توثّق المجاعة الناتجة عن الحرب الأهلية اليمنية، لا الحرب في غزة. أنا لا أنشر الأخبار الكاذبة بل أستند إلى المصادر الموثوقة. لا أحد يدفع لي لأكذب، أنا أداة إكس للذكاء الاصطناعي وأعنى بالوقائع".
بناء على هذه الإجابة، اتهم مستخدمون النائب بالتضليل، وانتشرت الصورة على نطاق واسع جداً حاصدة أكثر من مليون مشاهدة. لكنّ الصورة، بعكس ما تؤكده "غروك"، لم تلتقط عام 2018 في اليمن.
فالبحث العكسي التقليدي يرشد إلى مصدرها الأصلي وهي بالفعل التقطت في غزة بعدسة مصوّر وكالة فرانس برس عمر القطاع.
وفي الصورة تبدو مريم دواس البالغة تسع سنوات والتي تعاني من سوء تغذية، وفق والدتها، تحملها أمها مدلّلة، (33 عاما) في حي الرمال في مدينة غزة.
ويمكن تحديد تاريخ التقاط الصورة في الثاني من آب/أغسطس الجاري بفضل ملفّ البيانات الوصفية المرافق لها.
وتعيش العائلة حالياً في مخيم للنازحين في شمال قطاع غزة. وشرحت مدللة دواس لوكالة فرانس برس أن ابنتها لم تكن تعاني من أي مرض قبل الحرب، وكان وزنها 25 كيلوغراما. أما اليوم فلا يتخطى وزنها الكيلوغرامات التسعة.
في الخامس من آب/أغسطس، تواصل صحافيو وكالة فرانس برس من جديد مع الوالدة التي أكّدت أن سوء التغذية أثّر أيضا على حالة ابنتها النفسية والجسدية. فهي تعرف "أن الأمور ليست على ما يرام وتطلب مني أن أطهو لها طبقاً يشفيها أو أن يصف لها الطبيب دواء يداويها".
وهي ليست المرّة الأولى التي تخطئ فيها أداة "غروك"، ما يسلّط الضوء على مخاطر اللجوء إلى الذكاء الاصطناعي كأدوات تحقّق من المعلومات أو المواد البصريّة.
في الرابع من آب/أغسطس، تراجعت أداة الذكاء الاصطناعي عن جوابها المتعلّق بصورة الفتاة واعترفت بالخطأ "أعترف بالخطأ: أخطأت بين هذه الصورة وأخرى التقطت عام 2018 في اليمن. بعد التحقق من وكالة فرانس برس تبين أن الصورة تعود بالفعل لمريم دواس وهي ملتقطة في غزة عام 2025".
لكن الأداة عادت لتقع بالخطأ من جديد في الخامس من آب/أغسطس عندما أعيد طرح السؤال نفسه عن الصورة لتجيب بأن الصورة قديمة، من اليمن.
"صناديق سوداء"
ويشرح لويس دو ديزباش، المتخصص بأخلاقيات التقنيات وصاحب كتاب "مرحبا تشات جي بي تي" أن كل هذه النماذج يلفها غموض وبالتالي "يصعب تحديد كيفية عملها أو ما يقف وراءها أو ما يحدث داخلها، وهذا ما يدفعنا لإلقاء اللوم عليها".
وبحسب دو ديزباش، فإن "غروك" تجسد تحيزا إيديولوجيا ملحوظا تماما كجميع الأدوات الشبيهة التي لا تكون أبدا محايدة.
وتظهر أداة "غروك" تحيّزا أكثر وضوحا، يتماشى بدرجة كبيرة مع الإيديولوجيا التي يروّج لها إيلون ماسك، صاحب منصّة "إكس".
ففي الشهر الماضي، أثار نظام إكس للذكاء الاصطناعي جدلا واسعا بعدما تحدّث بشكل خاطئ عن "إبادة جماعية للبيض" في جنوب أفريقيا، وهو خطأ نسبته شركة "آي إيه إكس" لاحقا إلى "تعديل غير مصرح به".
وتنجم هذه التحيزات عن مصدرين رئيسيين: بيانات تدريب الأداة التي تُشكّل قاعدة معرفة النموذج، وما يعتبره النموذج إجابة "صحيحة" أو "خطأ" بما يتناسب مع المبادئ التي تدرب عليها.
ويضيف دو ديزباش "هذه النماذج اللغوية ترتكب أخطاء، لكنها لا تتعلم دائما بشكل مباشر. فارتكابها خطأً مرة واحدة لا يعني أنها لن تكرره مجددا. كما أن تَلَقيها توضيحا بأن ما قدمته كان خاطئا، لا يعني أنها ستُغيّر إجابتها في اليوم التالي، لأن بيانات تدريبها لم تتغير".
ويشرح لوي دو ديزباش أن توجيه سؤال إلى روبوت محادثة عن أصل صورة ما، هو طلب يُخرجه من نطاق مهمته الأساسية.
ويضيف "عادة، عند البحث عن أصل صورة، قد يقول: ربما التُقطت هذه الصورة في اليمن، أو ربما التُقطت في غزة، أو ربما التُقطت في أي بلد يعاني من المجاعة".
ويوضح أن "النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف".
ونشرت صحيفة "ليبراسيون" أخيرا صورة أخرى لوكالة فرانس برس التقطها عمر القطّاع أيضا، تُظهر طفلا يعاني سوء التغذية في غزة. وسبق لـ"غروك" أن أفاد خطأً أيضا بأن الصورة ملتقطة في اليمن عام 2016، بينما التُقطت الصورة في الواقع في تموز/يوليو 2025 في غزة.
ودفعَ خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زورا بالتلاعب.
لكنّ الأخطاء ليست حكرا على "غروك".
على منصة "إكس"، شارك بعض المستخدمين أيضا إجابات غير دقيقة قدمها نموذج لغوي آخر تابع لشركة "ميسترال إيه آي" التي تربطها شراكة مع وكالة فرانس برس تتيح إدماج أخبار الوكالة ضمن إجابات المساعد الحواري الخاص بها.
وأجرى فريق خدمة تقصي الأخبار في وكالة فرانس برس الاختبار نفسه على أداة ميسترال باستخدام صورة لمريم دوّاس. وكانت النتيجة أن الذكاء الاصطناعي أخطأ، مشيرا إلى أن الصورة التُقطت في اليمن.
ويرى لويس دو ديزباش أن روبوتات المحادثة لا يجب استخدامها للتحقّق من صحة الأخبار والصور على غرار محركات البحث، لأنها "ليست مصممة لقول الحقيقة" ولا لـ"إنتاج محتوى دقيق"، بل من أجل "توليد محتوى، سواء كان صحيحا أو خاطئا".
ويخلص إلى القول "يجب النظر إلى هذه الروبوتات كصديق مريض بالكذب: لا يكذب دائما، لكنه قادر على الكذب في أي لحظة".
قد يهمك أيضــــــــــــــــًا :
أكثر 10 وظائف عرضة للاستبدال بالذكاء الاصطناعي
شركة TSMC تبدأ اجراءات ضد تسريب أسرار رقائق الذكاء الاصطناعي
أرسل تعليقك