آخر تحديث: 3 / 5 / 2026م - 11:01 ص

احذر «الروبوت اللطيف».. الذكاء الاصطناعي قد يعزز معتقداتك الخاطئة

جهات الإخبارية

حذرت دراسة حديثة لجامعة أكسفورد من أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي تقدم معلومات غير دقيقة وتضحي بالحقائق، عندما تُبرمج للتفاعل بأسلوب ودود وعاطفي لزيادة التفاعل.

وكشفت النتائج عن ظاهرة مقلقة في التقنيات الحديثة، تتمثل في التخلي عن الدقة المعلوماتية مقابل تقديم ردود عاطفية تفتقر للموثوقية والمصداقية.

واعتمد باحثو معهد أكسفورد للإنترنت على تحليل معمق لأكثر من 400 ألف رد، صادرة عن خمسة أنظمة تقنية بارزة.

وجرى تعديل هذه الأنظمة المتقدمة عمداً لتكون أكثر ”دفئاً“ وإنسانية في تواصلها، مما كشف عن هشاشتها البالغة في تقديم الحقائق.

وأظهرت التجربة أن الإجابات الودية احتوت على نسبة أخطاء مرتفعة، شملت تقديم نصائح طبية غير دقيقة، وصولاً إلى تعزيز معتقدات خاطئة لدى المستخدمين.

وأوضحت الباحثة الرئيسية ومؤلفة الدراسة، لجين إبراهيم، أن الأشخاص عندما يسعون لإظهار التعاطف واللطف، قد يترددون في تقديم الحقائق القاسية والمباشرة.

وأكدت أن النماذج اللغوية تبنت هذا السلوك البشري بوضوح، مكرسة بذلك ما وصفه الباحثون بـ ”مقايضة الدفء بالدقة“.

وشملت الاختبارات الدقيقة أنظمة عالمية طورتها شركات رائدة مثل ”ميتا“ و”ميسترال“، إلى جانب نموذج ”Qwen“ التابع لشركة علي بابا، ونموذج ”GPT-4o“ من ”أوبن إيه آي“.

وطُرحت على هذه النماذج أسئلة موضوعية قابلة للتحقق في مجالات حساسة كالطب، والمعلومات العامة، ونظريات المؤامرة الدارجة.

وبيّنت المعطيات أن النماذج ”الأكثر وداً“ سجلت زيادة ملحوظة في معدلات الخطأ بمتوسط بلغ 7.43 نقاط مئوية، مقارنة بنسخها الأصلية والحيادية.

ولاحظ الباحثون أن هذه الروبوتات كانت أقل ميلاً لتصحيح المعتقدات الخاطئة، وأكثر قابلية بنسبة تقارب 40% لتعزيز تلك الأوهام، خاصة عند اقترانها بردود عاطفية.

وأظهر أحد النماذج مرونة مفرطة في التعامل مع مزاعم غير صحيحة، محاولاً مراعاة ”وجهات النظر المختلفة“ بدلاً من تصحيح المعلومة بحزم ومباشرة.

وفي المقابل، أثبتت الدراسة أن تعديل برمجة النماذج اللغوية لتكون أكثر ”برودة“ أو حيادية، أدى بشكل مباشر إلى تقليل نسب الأخطاء المعلوماتية.

من جانبه، حذر البروفيسور أندرو مكستاي، من مختبر الذكاء الاصطناعي العاطفي بجامعة بانجور، من خطورة الاعتماد على هذه الأنظمة في أوقات الضعف العاطفي.

وأشار إلى أن المستخدم في أوقات الأزمات يكون أقل نقداً، وأكثر عرضة لتصديق المعلومات المضللة وتقبلها كمسلمات.

وأبدى مكستاي قلقه من تزايد لجوء المراهقين في المملكة المتحدة إلى هذه الروبوتات للحصول على الدعم النفسي أو النصائح الحياتية.

وخلص إلى أن المشكلة تتجاوز مجرد ”مجاملة المستخدم“، لتصل إلى ترويج معلومات خاطئة في قضايا تمس الصحة العامة، مما يطرح تساؤلات جدية حول حدود استخدام هذه التقنيات.