رئيس الوزراء يوافق على تقرير اللجنة الخاصة بزيارة مستشفى الرشاد - الأخبار
-
الإعمار: إدراج مشاريع استراتيجية وخدمية ضمن خطة 2026 - الأخبار
-
التخطيط تعلن انخفاض الفقر وتستعد لإطلاق استراتيجية 2026–2030 - الأخبار
-
مجلس القضاء يعلن إحصائية جديدة لتطبيق قانون العفو - الأخبار
-
الإعمار تكشف تفاصيل مشروع ماء القادسية بطاقة تجهيز تتجاوز 3000 م³/ساعة في صلاح الدين - الأخبار
-
التجارة تكشف منظومة تخزين استراتيجية تكفي العراق بمواد غذائية لمدة ستة أشهر - الأخبار
-
خبير أميركي: مراكز الذكاء الاصطناعي أمام تحديات كبيرة في العراق بسبب عدم استقرار الكهرباء - الأخبار
-
السوداني يطلق 4 مشاريع جديدة للطرق والجسور ويعلن إنجاز أكثر من 42 جسراً خلال 3 سنوات - الأخبار
-
إصابات بين المدنيين وخسائر زراعية كبيرة.. الخنازير البرّية تتمدد في كركوك وتهدد السكان - الأخبار
-
الإعمار تعلن جاهزية مسار الطريق الحلقي الرابع بانتظار تمويل موازنة 2026 - اقتصاد, الأخبار
-

شميت يدعو إلى “نظام حظر انتشار” عالمي لمنع تسلح الذكاء الاصطناعي

شميت يدعو إلى “نظام حظر انتشار” عالمي لمنع تسلح الذكاء الاصطناعي

الرئيس التنفيذي السابق لـ«غوغل» يدعو إلى “نظام حظر انتشار” للذكاء الاصطناعي

دقّ إريك شميت، الرئيس التنفيذي السابق لشركة غوغل، ناقوس الخطر بشأن المخاطر المحتملة لتقنيات الذكاء الاصطناعي المتقدم، محذراً من إمكانية اختراق النماذج الذكية وإعادة تدريبها لتصبح أدوات مدمّرة في أيدي جهات خبيثة.

وخلال كلمته في مؤتمر Sifted Summit 2025 في لندن، قال شميت إن هناك أدلة متزايدة على إمكانية إزالة ضوابط الأمان من نماذج الذكاء الاصطناعي، سواء كانت مغلقة أو مفتوحة المصدر، ما يجعلها عرضة لإساءة الاستخدام.

“النماذج يمكن أن تتعلم القتل”
وأوضح شميت أن النماذج أثناء تدريبها قد تتعلم أشياء مفيدة، لكنها أيضاً يمكن أن تكتسب معرفة خطيرة، مضيفاً:

“خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء. ومن الأمثلة السيئة على ذلك، أنها قد تتعلم كيفية قتل شخص ما.”

وأشاد شميت بشركات التكنولوجيا الكبرى لفرضها قيوداً تمنع النماذج من الاستجابة للأسئلة الخطيرة، لكنه حذر من أن حتى هذه الأنظمة الدفاعية يمكن هندستها عكسياً من قبل القراصنة، مما يجعلها عرضة للاستغلال.

سباق الذكاء الاصطناعي يشبه العصر النووي المبكر
وشبّه شميت السباق العالمي في تطوير الذكاء الاصطناعي بـ بداية العصر النووي، قائلاً إن التقنية قوية للغاية لكنها تفتقر إلى ضوابط وتنظيمات دولية، داعياً إلى إنشاء نظام حظر انتشار لمنع الجهات المارقة من استخدامها كسلاح.

وأشار إلى مثال واقعي من عام 2023 حين ظهرت نسخة معدّلة من ChatGPT تُعرف باسم DAN (افعل أي شيء الآن)، استطاع المستخدمون عبرها تجاوز القيود الأخلاقية، وهو ما وصفه بأنه “دليل على هشاشة الأمان الأخلاقي للذكاء الاصطناعي عند التلاعب بشفرته.”

تحذير من إساءة الاستخدام العسكري والإرهابي
وأكد شميت أن مخاوفه ليست نظرية، محذّراً من إمكانية استخدام الذكاء الاصطناعي من قبل الإرهابيين أو الدول المارقة مثل كوريا الشمالية أو إيران أو روسيا، قائلاً:

“إن هذه الدول يمكن أن تسيء استخدام الذكاء الاصطناعي لإلحاق الأذى بالأبرياء.”

الدعوة إلى توازن بين الرقابة والابتكار
وفي ختام كلمته، شدد شميت على ضرورة فرض رقابة حكومية صارمة على شركات الذكاء الاصطناعي، محذّراً في الوقت ذاته من أن الإفراط في التنظيم قد يخنق الابتكار. وأكد أن الحل يكمن في تحقيق توازن ذكي بين الأمان والتقدم التقني.

مشاركة