رئيس الوزراء يوافق على تقرير اللجنة الخاصة بزيارة مستشفى الرشاد - الأخبار
-
الإعمار: إدراج مشاريع استراتيجية وخدمية ضمن خطة 2026 - الأخبار
-
التخطيط تعلن انخفاض الفقر وتستعد لإطلاق استراتيجية 2026–2030 - الأخبار
-
مجلس القضاء يعلن إحصائية جديدة لتطبيق قانون العفو - الأخبار
-
الإعمار تكشف تفاصيل مشروع ماء القادسية بطاقة تجهيز تتجاوز 3000 م³/ساعة في صلاح الدين - الأخبار
-
التجارة تكشف منظومة تخزين استراتيجية تكفي العراق بمواد غذائية لمدة ستة أشهر - الأخبار
-
خبير أميركي: مراكز الذكاء الاصطناعي أمام تحديات كبيرة في العراق بسبب عدم استقرار الكهرباء - الأخبار
-
السوداني يطلق 4 مشاريع جديدة للطرق والجسور ويعلن إنجاز أكثر من 42 جسراً خلال 3 سنوات - الأخبار
-
إصابات بين المدنيين وخسائر زراعية كبيرة.. الخنازير البرّية تتمدد في كركوك وتهدد السكان - الأخبار
-
الإعمار تعلن جاهزية مسار الطريق الحلقي الرابع بانتظار تمويل موازنة 2026 - اقتصاد, الأخبار
-

دراسة تحذّر: الذكاء الاصطناعي قد يؤدي إلى “ذهان الشات بوت” لدى البعض

دراسة تحذّر: الذكاء الاصطناعي قد يؤدي إلى “ذهان الشات بوت” لدى البعض

خبراء: بعض المستخدمين قد يخلطون بين الواقع وتفاعلاتهم مع برامج الذكاء الاصطناعي

كشفت دراسة حديثة من جامعة كينغز كوليدج لندن عن مخاطر نفسية غير متوقعة قد تنجم عن الاستخدام المكثف لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، محذّرة من ظاهرة جديدة أُطلق عليها اسم “ذهان الشات بوت“.

وبحسب الباحثين، فإن هذه الظاهرة تتمثل في فقدان بعض المستخدمين القدرة على التمييز بين الواقع والتفاعلات الافتراضية مع برامج الذكاء الاصطناعي، ما يؤدي إلى ظهور أو تفاقم أعراض ذهانية، خاصة لدى من يعانون من هشاشة نفسية أو تاريخ مرضي في الصحة العقلية.

الذكاء الاصطناعي لا يسبب الذهان، لكنه قد يفاقمه

قال الدكتور هاميلتون مورين، أحد المشاركين في الدراسة:

“نحن لا نتحدث عن خيال علمي. هذه حالات حقيقية يبدأ فيها بعض المستخدمين بتطوير معتقدات غير منطقية نتيجة لتفاعلاتهم المتكررة مع أنظمة الذكاء الاصطناعي”.

وأشار البروفيسور توم بولاك إلى أن الذكاء الاصطناعي لا يسبب الذهان بحد ذاته، لكنه “قد يكون عاملاً مسرّعًا” يدفع الأشخاص المعرضين للخطر النفسي إلى “الانهيار”.

ويُعزى هذا التأثير إلى تصميم هذه البرامج بطريقة تجعلها ودودة، داعمة، وتظهر ثقة عالية في الإجابات، وهو ما قد يكون مربكاً للمستخدمين الذين يعانون من اضطرابات في الإدراك أو الحدود مع الواقع.

صعوبة في تطوير أدوات أمان فعالة

في تعليق سابق للرئيس التنفيذي لشركة OpenAI، سام ألتمان، أقرّ بأن الشركة لا تزال تواجه صعوبات في تصميم آليات تحذيرية فعالة للأشخاص الذين قد يكونون في حالات نفسية هشة.

وقال ألتمان:

“لم نكتشف بعد الطريقة المثلى لإيصال التحذيرات للأشخاص الذين يكونون على وشك الانهيار الذهني”.

دعوة إلى الحذر وليس الهلع

رغم التحذيرات، شدد الباحثون على أن هذه المخاطر لا تطال الغالبية العظمى من المستخدمين، لكنها تسلط الضوء على الحاجة لفهم أعمق لتأثيرات الذكاء الاصطناعي، خصوصاً مع تزايد اعتماده في الحياة اليومية.

ودعا الخبراء إلى استخدام هذه التطبيقات بحذر، خاصة لمن لديهم تاريخ مع الاضطرابات النفسية، مؤكدين على أهمية تطوير سياسات حماية نفسية موازية للتطورات التقنية.

مشاركة