شميت يدعو إلى “نظام حظر انتشار” عالمي لمنع تسلح الذكاء الاصطناعي

شميت يدعو إلى “نظام حظر انتشار” عالمي لمنع تسلح الذكاء الاصطناعي

الرئيس التنفيذي السابق لـ«غوغل» يدعو إلى “نظام حظر انتشار” للذكاء الاصطناعي

دقّ إريك شميت، الرئيس التنفيذي السابق لشركة غوغل، ناقوس الخطر بشأن المخاطر المحتملة لتقنيات الذكاء الاصطناعي المتقدم، محذراً من إمكانية اختراق النماذج الذكية وإعادة تدريبها لتصبح أدوات مدمّرة في أيدي جهات خبيثة.

وخلال كلمته في مؤتمر Sifted Summit 2025 في لندن، قال شميت إن هناك أدلة متزايدة على إمكانية إزالة ضوابط الأمان من نماذج الذكاء الاصطناعي، سواء كانت مغلقة أو مفتوحة المصدر، ما يجعلها عرضة لإساءة الاستخدام.

“النماذج يمكن أن تتعلم القتل”
وأوضح شميت أن النماذج أثناء تدريبها قد تتعلم أشياء مفيدة، لكنها أيضاً يمكن أن تكتسب معرفة خطيرة، مضيفاً:

“خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء. ومن الأمثلة السيئة على ذلك، أنها قد تتعلم كيفية قتل شخص ما.”

وأشاد شميت بشركات التكنولوجيا الكبرى لفرضها قيوداً تمنع النماذج من الاستجابة للأسئلة الخطيرة، لكنه حذر من أن حتى هذه الأنظمة الدفاعية يمكن هندستها عكسياً من قبل القراصنة، مما يجعلها عرضة للاستغلال.

سباق الذكاء الاصطناعي يشبه العصر النووي المبكر
وشبّه شميت السباق العالمي في تطوير الذكاء الاصطناعي بـ بداية العصر النووي، قائلاً إن التقنية قوية للغاية لكنها تفتقر إلى ضوابط وتنظيمات دولية، داعياً إلى إنشاء نظام حظر انتشار لمنع الجهات المارقة من استخدامها كسلاح.

وأشار إلى مثال واقعي من عام 2023 حين ظهرت نسخة معدّلة من ChatGPT تُعرف باسم DAN (افعل أي شيء الآن)، استطاع المستخدمون عبرها تجاوز القيود الأخلاقية، وهو ما وصفه بأنه “دليل على هشاشة الأمان الأخلاقي للذكاء الاصطناعي عند التلاعب بشفرته.”

تحذير من إساءة الاستخدام العسكري والإرهابي
وأكد شميت أن مخاوفه ليست نظرية، محذّراً من إمكانية استخدام الذكاء الاصطناعي من قبل الإرهابيين أو الدول المارقة مثل كوريا الشمالية أو إيران أو روسيا، قائلاً:

“إن هذه الدول يمكن أن تسيء استخدام الذكاء الاصطناعي لإلحاق الأذى بالأبرياء.”

الدعوة إلى توازن بين الرقابة والابتكار
وفي ختام كلمته، شدد شميت على ضرورة فرض رقابة حكومية صارمة على شركات الذكاء الاصطناعي، محذّراً في الوقت ذاته من أن الإفراط في التنظيم قد يخنق الابتكار. وأكد أن الحل يكمن في تحقيق توازن ذكي بين الأمان والتقدم التقني.

مشاركة