دراسة تحذّر: الذكاء الاصطناعي قد يؤدي إلى “ذهان الشات بوت” لدى البعض

دراسة تحذّر: الذكاء الاصطناعي قد يؤدي إلى “ذهان الشات بوت” لدى البعض

خبراء: بعض المستخدمين قد يخلطون بين الواقع وتفاعلاتهم مع برامج الذكاء الاصطناعي

كشفت دراسة حديثة من جامعة كينغز كوليدج لندن عن مخاطر نفسية غير متوقعة قد تنجم عن الاستخدام المكثف لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، محذّرة من ظاهرة جديدة أُطلق عليها اسم “ذهان الشات بوت“.

وبحسب الباحثين، فإن هذه الظاهرة تتمثل في فقدان بعض المستخدمين القدرة على التمييز بين الواقع والتفاعلات الافتراضية مع برامج الذكاء الاصطناعي، ما يؤدي إلى ظهور أو تفاقم أعراض ذهانية، خاصة لدى من يعانون من هشاشة نفسية أو تاريخ مرضي في الصحة العقلية.

الذكاء الاصطناعي لا يسبب الذهان، لكنه قد يفاقمه

قال الدكتور هاميلتون مورين، أحد المشاركين في الدراسة:

“نحن لا نتحدث عن خيال علمي. هذه حالات حقيقية يبدأ فيها بعض المستخدمين بتطوير معتقدات غير منطقية نتيجة لتفاعلاتهم المتكررة مع أنظمة الذكاء الاصطناعي”.

وأشار البروفيسور توم بولاك إلى أن الذكاء الاصطناعي لا يسبب الذهان بحد ذاته، لكنه “قد يكون عاملاً مسرّعًا” يدفع الأشخاص المعرضين للخطر النفسي إلى “الانهيار”.

ويُعزى هذا التأثير إلى تصميم هذه البرامج بطريقة تجعلها ودودة، داعمة، وتظهر ثقة عالية في الإجابات، وهو ما قد يكون مربكاً للمستخدمين الذين يعانون من اضطرابات في الإدراك أو الحدود مع الواقع.

صعوبة في تطوير أدوات أمان فعالة

في تعليق سابق للرئيس التنفيذي لشركة OpenAI، سام ألتمان، أقرّ بأن الشركة لا تزال تواجه صعوبات في تصميم آليات تحذيرية فعالة للأشخاص الذين قد يكونون في حالات نفسية هشة.

وقال ألتمان:

“لم نكتشف بعد الطريقة المثلى لإيصال التحذيرات للأشخاص الذين يكونون على وشك الانهيار الذهني”.

دعوة إلى الحذر وليس الهلع

رغم التحذيرات، شدد الباحثون على أن هذه المخاطر لا تطال الغالبية العظمى من المستخدمين، لكنها تسلط الضوء على الحاجة لفهم أعمق لتأثيرات الذكاء الاصطناعي، خصوصاً مع تزايد اعتماده في الحياة اليومية.

ودعا الخبراء إلى استخدام هذه التطبيقات بحذر، خاصة لمن لديهم تاريخ مع الاضطرابات النفسية، مؤكدين على أهمية تطوير سياسات حماية نفسية موازية للتطورات التقنية.

مشاركة