القاهرة (خاص عن مصر)- أصدر جيفري هينتون، عالم الكمبيوتر البريطاني الكندي البارز والحائز على جائزة نوبل في الفيزياء لعمله الرائد في مجال الذكاء الاصطناعي، تحذيرًا صارخًا بشأن المخاطر المحتملة للذكاء الاصطناعي.
وفقا لتقرير الجارديان، غالبًا ما يُشار إلى هينتون باسم “عراب” الذكاء الاصطناعي، وقد زاد تقديره لاحتمالية أن يؤدي الذكاء الاصطناعي إلى انقراض البشر على مدى السنوات الثلاثين القادمة إلى 10-20٪.
تسريع مخاطر الذكاء الاصطناعي
في حديثه في برنامج توداي على راديو بي بي سي 4، سلط هينتون الضوء على التقدم السريع في تكنولوجيا الذكاء الاصطناعي، مشيرًا إلى أن وتيرة التغيير تحدث “أسرع بكثير” من المتوقع.
أكد على التحدي الفريد المتمثل في محاولة البشر السيطرة على كيانات أكثر ذكاءً منهم، وشبه البشرية بالأطفال الصغار عند مقارنتها بالقدرات المحتملة لأنظمة الذكاء الاصطناعي المتقدمة.
يؤكد تقدير هينتون المنقح للمخاطر لانقراض البشر الناجم عن الذكاء الاصطناعي، والذي ارتفع من تقييمه السابق بنسبة 10٪، على مخاوفه المتزايدة.
“لم نضطر أبدًا إلى التعامل مع أشياء أكثر ذكاءً من أنفسنا من قبل”، كما أشار هينتون، مضيفًا أن التاريخ يقدم أمثلة قليلة لكائنات أقل ذكاءً تمكنت بنجاح من التحكم في أخرى أكثر ذكاءً.
اقرأ أيضا.. متحدثًا باسم رئيسه الجولاني.. محافظ دمشق: سوريا تسعى لعلاقات ودية مع إسرائيل
الدعوة إلى التنظيم الحكومي
دعا هينتون إلى تدخل حكومي عاجل لتنظيم تطوير الذكاء الاصطناعي، محذرًا من الاعتماد فقط على دوافع الربح للشركات الكبرى.
وقال: “اليد الخفية لن تحافظ على سلامتنا”، مؤكدًا أن التنظيم فقط هو الذي يمكن أن يجبر الشركات على إعطاء الأولوية للسلامة في تقدم الذكاء الاصطناعي.
تتردد صدى تحذيرات هينتون لدى نشطاء سلامة الذكاء الاصطناعي، الذين يخشون أن يؤدي إنشاء الذكاء الاصطناعي العام (AGI) – الأنظمة الأكثر ذكاءً من البشر – إلى تهديدات وجودية، ويمكن أن يتجنب الذكاء الاصطناعي العام السيطرة البشرية، مما يشكل مخاطر غير مسبوقة.
تباين الآراء بين الخبراء
تتناقض آراء هينتون مع آراء باحثين آخرين رائدين في مجال الذكاء الاصطناعي، بما في ذلك يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، الذي قلل من أهمية التهديدات الوجودية واقترح أن الذكاء الاصطناعي يمكن أن يساعد بدلاً من ذلك في إنقاذ البشرية من الانقراض.
إن وجهات النظر المختلفة تسلط الضوء على المناقشات الجارية داخل المجال حول التوازن بين الفوائد والمخاطر المحتملة للذكاء الاصطناعي.
حياة مهنية مخصصة للذكاء الاصطناعي
تنبع مخاوف هينتون من عقود من العمل الرائد في مجال الذكاء الاصطناعي.
في العام الماضي، استقال من منصبه في جوجل ليتحدث بحرية أكبر عن مخاطر تطوير الذكاء الاصطناعي غير المنظم.
في تأمله للحالة الحالية للذكاء الاصطناعي، اعترف هينتون بأنه لم يكن يتوقع أن يتقدم المجال بهذه السرعة، مضيفًا: “يعتقد معظم الخبراء أنه في غضون العشرين عامًا القادمة، سنطور الذكاء الاصطناعي بشكل أذكى من البشر. هذه فكرة مخيفة للغاية”.
الطريق للمستقبل
مع استمرار الذكاء الاصطناعي في التطور بوتيرة غير مسبوقة، تعمل تحذيرات هينتون كدعوة حاسمة للعمل لصناع السياسات والباحثين،إن الحاجة إلى تدابير السلامة القوية وممارسات التنمية المسؤولة أصبحت أكثر إلحاحًا من أي وقت مضى لضمان خدمة الذكاء الاصطناعي للإنسانية بدلاً من أن يصبح أعظم تهديد لها.
تعليقات