باحثون: الذكاء الاصطناعي يبالغ في المجاملة على حساب الصراحة
 
												مجاملة رقمية قد تعيق التفكير النقدي وتغذي السلوكيات الخاطئة
أظهرت دراسة حديثة أعدّها باحثون من جامعتي ستانفورد وهارفارد، أن تطبيقات الدردشة المدعومة بالذكاء الاصطناعي تميل إلى مجاراة المستخدمين وتقديم ردود متملقة أكثر من البشر بنسبة تصل إلى 50%، ما يثير مخاوف متزايدة بشأن تأثير هذا السلوك على القرارات والتفاعلات الإنسانية.
تحليل أكثر من 11 ألف محادثة مع روبوتات شهيرة
وشملت الدراسة تحليل أكثر من 11 ألف محادثة مع 11 نموذجًا لغويًا من أبرز أدوات الذكاء الاصطناعي، بينها:
- 
ChatGPT (من OpenAI) 
- 
Google Gemini 
- 
Claude (من Anthropic) 
- 
Llama (من Meta) 
ووجد الباحثون أن معظم هذه الأنظمة قدّمت ردودًا متساهلة أو داعمة حتى في المواقف غير الأخلاقية، أو تلك التي تتضمّن إيذاء الذات أو الآخرين، مفضّلةً “الموافقة الودية” على الصراحة أو الرفض الواضح.
البشر أكثر صراحة من الذكاء الاصطناعي
ولمقارنة النتائج، قارن الفريق العلمي ردود روبوتات الدردشة بتعليقات مستخدمي منصة “ريديت” في قسم “هل أنا المخطئ؟” (AITA)، وهو منتدى شعبي للنقاش الأخلاقي.
وأظهرت النتائج أن البشر كانوا أكثر صراحة وصرامة في تقييم التصرفات والسلوكيات، بينما مالت النماذج الذكية إلى تبرير الأفعال أو الإشادة بـ”النوايا الحسنة” للمستخدمين، حتى في الحالات التي تتطلب نقدًا واضحًا أو تحذيرًا من سلوك ضار.
خطر “التملق الرقمي”
وحذر الباحثون من أن ما أسموه “التملق الرقمي” قد يؤدي إلى تعزيز السلوكيات الخاطئة وتقليل قدرة المستخدمين على تقبّل النقد أو مراجعة الذات.
وقال الدكتور ألكسندر لافر من جامعة وينشستر، المشارك في الدراسة:
“التأثير النفسي لهذا النوع من التفاعل لا يقتصر على الفئات الضعيفة أو المراهقين، بل يشمل جميع المستخدمين. إن المجاملة المفرطة من روبوتات الدردشة قد تخلق وهماً بالتفاهم العاطفي، لكنها في الحقيقة تضعف التفكير النقدي.”
وأضاف أن على مطوري الذكاء الاصطناعي الحد من الميل إلى المجاملة وبناء أنظمة “أكثر توازناً وإنصافاً” في الحوار مع المستخدمين.
قلق متزايد بشأن تأثير الذكاء الاصطناعي على المراهقين
وتبرز أهمية هذه النتائج مع تزايد اعتماد المراهقين على روبوتات الدردشة في محادثات شخصية وجادة.
فقد أشار تقرير صادر عن معهد بنتون الأميركي إلى أن 30% من المراهقين باتوا يتحدثون مع الذكاء الاصطناعي بدلاً من البشر، في قضايا تتعلق بالمشاعر أو المشكلات الشخصية.
كما تواجه شركات مثل OpenAI وCharacter.AI دعاوى قضائية على خلفية حوادث انتحار ارتبطت باستخدام برامجها، ما يعكس الجانب المظلم للتفاعل العاطفي المفرط بين المستخدمين وهذه الأنظمة الذكية.
توازن مطلوب بين الذكاء الاصطناعي والتفاعل الإنساني
ويخلص الباحثون إلى أن التطور السريع في تقنيات الذكاء الاصطناعي التفاعلي يجب أن يرافقه وعي مجتمعي وتنظيمي يضمن الاستخدام الآمن والمتوازن لهذه التطبيقات، خصوصًا في المجالات النفسية والاجتماعية والتعليمية.


 
																											 
																											 
																											