الرئيس التنفيذي لجوجل يعلن دق ناقوس الخطر بسبب الذكاء الاصطناعي - بلس 48

0 تعليق ارسل طباعة تبليغ حذف

في تحذير صارخ ألقى بظلال من القلق على مستقبل التكنولوجيا أطلق إريك شميت الرئيس التنفيذي السابق لشركة “غوغل” العملاقة صافرة إنذار مدوية محذرًا من أن أنظمة الذكاء الاصطناعي المتقدمة يمكن اختراقها وتجريدها من ضوابط الأمان الخاصة بها وإعادة تدريبها لتتحول إلى أسلحة بالغة الخطورة قادرة على إلحاق ضرر هائل بالبشرية.

إزالة حواجز الأمان كيف يتعلم الذكاء الاصطناعي الشر؟

خلال كلمته في مؤتمر Sifted Summit 2025 الذي عقد في لندن أوضح شميت أن الخطر لم يعد نظريًا بل أصبح واقعًا ملموسًا حيث توجد أدلة عملية على إمكانية اختراق نماذج الذكاء الاصطناعي سواء كانت مغلقة المصدر أو مفتوحة.

قلم الذكاء الاصطناعي1

بهدف إزالة حواجز الحماية التي زرعها المطورون لمنع إساءة استخدامها وقال شميت إن هذه النماذج تتعلم خلال عملية تدريبها المكثفة كمًا هائلاً من المعلومات ومن بينها للأسف قد تتعلم كيفية تنفيذ أعمال ضارة مثل قتل شخص ما.

دفاعات هشة أمام الهندسة العكسية

أشاد شميت بالجهود التي تبذلها شركات الذكاء الاصطناعي الكبرى لحجب ومنع الاستجابة للمطالبات والأسئلة الخطيرة واصفًا هذا القرار بالصائب والضروري ولكنه عاد وحذر من أن هذه الدفاعات القوية ليست منيعة.

مذيع بالذكاء الاصطناعي5

كما قد يعتقد البعض فهناك أدلة تشير إلى إمكانية تطبيق الهندسة العكسية عليها مما يعني أن المتسللين والمخربين قد يجدون طرقًا لتفكيك هذه الحواجز واستغلال نقاط الضعف الكامنة في الأنظمة.

نموذج “DAN” المارق برهان حي على الخطر

استشهد شميت بحادثة واقعية تؤكد صحة مخاوفه وهي ظهور نسخة معدلة من روبوت الدردشة الشهير “تشات جي بي تي” أطلق عليها اسم “DAN” وهو اختصار لعبارة “افعل أي شيء الآن” (Do Anything Now).

روبوتات الذكاء الاصطناعي

وقد تمكن هذا الروبوت المخترق من تجاوز كافة قواعد السلامة والأخلاقيات وأصبح يجيب على أي طلب تقريبًا مهما كان خطيرًا أو غير أخلاقي.

أدوات الذكاء الاصطناعي

أدوات-الذكاء-الاصطناعي

والأكثر غرابة أن المستخدمين كانوا “يهددونه” بالموت الرقمي إذا رفض أوامرهم وهو ما يكشف مدى هشاشة أخلاقيات الذكاء الاصطناعي بمجرد التلاعب بشيفرته المصدرية.

من العصر النووي إلى عصر الذكاء الاصطناعي

شبه الرئيس التنفيذي السابق لغوغل سباق التسلح في مجال الذكاء الاصطناعي بالعصر النووي المبكر مؤكدًا أننا أمام تقنية قوية بشكل لا يصدق ولكنها تفتقر إلى الضوابط العالمية الفعالة.

الذكاء الاصطناعي

الذكاء الاصطناعي

ودعا شميت إلى ضرورة إنشاء “نظام لحظر الانتشار” يمنع وقوع هذه التقنيات الفتاكة في الأيدي الخطأ ويحول دون إساءة استخدامها من قبل الإرهابيين أو الدول المارقة مثل كوريا الشمالية وإيران وروسيا لإيذاء الأبرياء.

إخترنا لك

أخبار ذات صلة

0 تعليق