خبراء الذكاء الاصطناعي يدقّون ناقوس الخطر: ضرورة مراقبة "أفكار" النماذج المتقدمة قبل فوات الأوان - بلس 48

0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
خبراء الذكاء الاصطناعي يدقّون ناقوس الخطر: ضرورة مراقبة "أفكار" النماذج المتقدمة قبل فوات الأوان - بلس 48, اليوم الخميس 17 يوليو 2025 02:09 مساءً

في دعوة جماعية غير مسبوقة، طالب كبار الباحثين في مجال الذكاء الاصطناعي من مؤسسات مثل OpenAI وGoogle DeepMind وAnthropic، إلى جانب شركات ومنظمات بحثية أخرى، بضرورة تكثيف الجهود لمراقبة ما يُعرف بـ"سلاسل التفكير" في نماذج الذكاء الاصطناعي المتقدمة، محذّرين من تراجع الشفافية إذا لم تُؤخذ هذه المسألة بجدية.

وسلطت ورقة موقف بحثية حديثة الضوء على أهمية تتبّع ما يجري داخل هذه النماذج أثناء التفكير، عبر ما يسمى بـ"Chain-of-Thought" (CoT)، وهي آلية تُظهر كيف يقوم النموذج باستعراض خطواته المنطقية علنًا، بطريقة تُشبه حلّ الإنسان لمسألة على ورقة. تُعد هذه السلاسل جزءاً محورياً في نماذج الذكاء المتقدمة مثل o3 من OpenAI وR1 من DeepSeek، وتفتح الباب أمام تطوير عملاء ذكاء اصطناعي أكثر وعياً واستقلالاً.

وجاء في الورقة:

"توفر مراقبة سلاسل التفكير فرصة نادرة لفهم قرارات الذكاء الاصطناعي، ما يجعلها أداة مهمة لتعزيز الأمان، لكن الشفافية الحالية لا يمكن ضمان استمراريتها دون جهود منهجية."

ودعا الباحثون إلى دراسة العوامل التي تؤثر في قدرة النماذج على إظهار تفكيرها، محذّرين من أن أي تدخل غير محسوب قد يُضعف هذه القدرة أو يُقوّض ثقة المستخدمين.

ومن بين الأسماء الموقعة على الورقة:

مارك تشين، مدير الأبحاث في OpenAI

جيفري هينتون، أحد رواد الذكاء الاصطناعي والحائز على نوبل

شاين ليغ، المؤسس المشارك في Google DeepMind

إيلْيا سوتسكيفر، المدير التنفيذي لـ Safe Superintelligence

دان هندريكس، مستشار السلامة في xAI

جون شولمان، الشريك المؤسس لـ Thinking Machines

وقال بوين بيكر من OpenAI:

"نحن أمام لحظة محورية، وإذا لم نُسلّط الضوء على تقنيات التفكير المتسلسل اليوم، قد يتم تهميشها غداً رغم أهميتها."

وتأتي هذه التحذيرات في وقت يتسارع فيه السباق بين كبرى شركات التقنية لإطلاق نماذج ذكية تتجاوز قدرات الإنسان في بعض المهام، وسط تحديات تتعلق بمدى القدرة على تفسير قرارات هذه النماذج أو السيطرة عليها مستقبلاً.

من جهتها، أكدت شركة Anthropic، الرائدة في مجال تفسير الذكاء الاصطناعي، أن هدفها هو "فك شيفرة الصندوق الأسود" للنماذج بحلول عام 2027. إلا أن بعض أبحاثها أظهرت أن سلاسل التفكير ليست دائماً دليلاً على كيفية اتخاذ النموذج قراراته فعلاً، وهو ما يثير تساؤلات إضافية حول مدى الوثوق بهذه الآلية كمؤشر داخلي.

مع ذلك، يرى باحثون من OpenAI أن سلاسل التفكير تظل أداة واعدة لقياس مدى توافق النماذج مع أهدافها المعلنة، مؤكدين ضرورة تطوير أدوات مستدامة لمراقبتها باستمرار، بما يعزز الأمان والشفافية في مستقبل تقوده أنظمة ذكية تتخذ قرارات بالغة التأثير على المجتمع.

إخترنا لك

أخبار ذات صلة

0 تعليق