كيف تزحزحت “إنفيديا” من عرش الذكاء الاصطناعي بفضل إعلان واحد من “غوغل”؟

شكلت ثورة الذكاء الاصطناعي نقطة تحول في مسيرة ” إنفيديا ” التجارية، ونقلتها من مجرد شركة تصنع بطاقات رسومية للألعاب ومنصاتها المختلفة وربما التعدين أحيانا، إلى إحدى أكبر شركات التقنية في العالم ضمن نادي التريليون دولار.

ولكن يبدو أن معالجات الذكاء الاصطناعي كما كانت سببا في ازدهار “إنفيديا” فإنها ستكون سببا في اندثارها، وذلك بعد التغيرات في قيمة الشركة عقب إعلان ” غوغل ” أن وحدات المعالجة الخاصة بالذكاء الاصطناعي التابعة لها.

منذ انتشار الشائعات عن معالجات “تي بي يو” (TPU) للذكاء الاصطناعي من “غوغل”، خسرت “إنفيديا” من قيمتها أكثر من 4% وشهدت “ألفابيت” المالكة لشركة “غوغل” انتعاشا وصل إلى 12%.

ولكن لماذا هذا الأثر اللحظي من مجرد شائعة صغيرة دون ظهور المعالجات نفسها أو حتى طرحها رسميا في الأسواق؟ وهل يمكن أن تنتهي سطوة “إنفيديا” في هذا القطاع على أسوار “غوغل”.

لماذا حدث كل هذا؟

في الأيام الماضية، طرحت “غوغل” الجيل الجديد من نموذج الذكاء الاصطناعي الخاص بها “جيميناي 3.0” مع مزايا متطورة تتفوق على العديد من النماذج المنافسة.

ولكن كشف “غوغل” عن النموذج الجديد لم يكن معتادا، فبينما ركزت “غوغل” على وصف قدرات وإمكانات النموذج، ذكرت بشكل مبسط أنها استخدمت معالجاتها الخاصة في تدريب النموذج، وهي معالجات ” تي بي يو” التي كشفت عنها “غوغل” سابقا في أبريل/نيسان من هذا العام.



مصدر الصورة
شرائح “آيرون وود” هي أحدث ما أعلنت عنه “غوغل” (موقع الشركة)

وبعد ذلك بأيام، نشر موقع “ذا إنفورميشن” (The Information) تقريرا عن نية ” ميتا ” الاعتماد على معالجات “تي بي يو” من “غوغل” لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وهو الأمر الذي زحزح سطوة “إنفيديا” على هذا القطاع.

ويذكر بأن “ميتا” ليست أول الشركات التي استخدمت معالجات “تي بي يو” من “غوغل” وفق تقرير منفصل نشره موقع “بارونز” (Barrons)، إذ قامت ” آبل ” و”آنثروبيك” بذلك في السابق.

ما هو الفرق بين معالجات “إنفيديا” ومعالجات “غوغل” الجديدة؟

تستطيع كل المعالجات التعامل مع البيانات الكبيرة والمتنوعة بكل كفاءة ويسر، وذلك بفضل تصميمها المختلف والمتميز، ولكن كل نوع من المعالجات يتعامل مع البيانات بشكل مختلف عن الآخر.

ففي حين تعتمد معالجات “إنفيديا” على آلاف أنوية الحوسبة من أجل معالجة كمية كبيرة من البيانات معا في وقت واحد، فإن معالجات “غوغل” تقوم بمعالجة البيانات الكثيرة بشكل متتال، وبدلا من أن تعمل على معالجة كل البيانات معا في وقت واحد، فإنها تعالجها على شكل أجزاء متتابعة ومرتبطة ببعضها البعض.



مصدر الصورة
معالجات “إنفيديا” للذكاء الاصطناعي تستهلك طاقة أكثر من “غوغل” (رويترز)

وينبع هذا الاختلاف من جوهر تصميم كل معالج، فمعالجات “إنفيديا” أو كما تعرف باسم “جي بي يو” (GPU) صنعت خصيصا لمعالجة الصور ومقاطع الفيديو والمشاهد المتحركة ويجبرها ذلك على معالجة حجم كبير من البيانات معا في آن واحد.

ولكن معالجات “تي بي يو” التي تعد اختصارا لمفهوم “تينسور بروسيسنج يونيت” (Tensor Processing Unit) صممت خصيصا للتعامل مع بيانات الذكاء الاصطناعي، لذلك فهي لا تستهلك طاقة أو قوة حاسوبية مثل المعالجات الرسومية من “إنفيديا”.

وتفتقر معالجات “غوغل” لقدرة التكيف المرتفعة التي تمتاز بها معالجات “إنفيديا”، فضلا عن كونها أقل قابلية للتخصيص والتعلم عن معالجات “إنفيديا” الرائدة، وفي المقابل هي أقل سعرا وأقل استهلاكا للطاقة من مثيلاتها الخاصة بشركة “إنفيديا”.

متى ظهرت معالجات ” تي بي يو” للمرة الأولى؟

ظهرت هذه المعالجات للمرة الأولى عام 2013، ثم طرحت للأسواق في عام 2015 واستخدمتها الشركة لتشغيل خوارزميات محرك البحث الخاص بها وجعله أكثر كفاءة وسرعة، ثم بدأت الشركة في عام 2018 بوضع هذه المعالجات في الخوادم السحابية الخاصة بها عام 2018.



مصدر الصورة
شرائح “إنفيديا” تختلف في التصميم عن “غوغل” بشكل جوهري (شترستوك)

وأتاحت “غوغل” الوصول لكل المستخدمين إلى معالجات “تي بي يو” الرائدة طالما كان المستخدم يمتلك وصولا إلى خدمات “غوغل” السحابية، ولاحقا استخدمت وحدة “ديب مايند” هذه الشرائح لتدريب نماذج الذكاء الاصطناعي.

ويدعى الجيل الجديد من شرائح “تي بي يو” باسم “آيرون وود” (Ironwood)، وهو معالج يستخدم التبريد السائل ومصمم خصيصا للتكيف مع أحمال الذكاء الاصطناعي والمهام الخاصة به، ويتوفر في حجمين، إما كبسولة تضم 256 شريحة أو كبسولة تضم 9216 شريحة.

ما الخطر على “إنفيديا” من هذه الشرائح؟

في الوقت الحالي، تعد كلفة بناء مراكز البيانات الخاصة بالذكاء الاصطناعي والتي تعمل على تدريب النموذج وتشغيله هي الأكبر في قطاع الذكاء الاصطناعي.

ويعني هذا أن هذه الكلفة تمثل النفقات الكبرى لشركات تطوير الذكاء الاصطناعي، خاصة مع التطور السريع لشرائح “إنفيديا” ولمتطلبات النماذج الجديدة التي تجبر الشركات على تجديد مراكز البيانات بشكل سريع ومطرد.

لذلك، إن تمكنت الشركات من خفض هذه الكلفة وجعلها أقل نسبيا، فإن هذا يضمن لها أرباحا أعلى واستدامة أكبر في تشغيل وتدريب نماذج الذكاء الاصطناعي.



مصدر الصورة
“آنثروبيك” استخدمت معالجات “غوغل” لتشغيل نموذج الذكاء الاصطناعي الخاص بها (شترستوك)

وتوفر معالجات “غوغل” هذا الأمر عبر خيارين، الأول وهو شراء الشرائح وامتلاكها بشكل مباشر وتركيبها في مراكز البيانات الخاصة بها، ويتوقع أن تتيح “غوغل” هذا الخيار مستقبلا.

ولكن الخيار الأكثر منطقية هو تأجير قدرات وحدات المعالجة مباشرة من خلال خدمات “غوغل” السحابية، وهو ما يمنح شركات الذكاء الاصطناعي وصولا سريعا لأحدث الشرائح وأقواها دون الحاجة لتحمل تكاليف وتركيب وتشغيل الشرائح.

وتشير “بلومبيرغ” في تقرير عن المعالجات الجديدة لكون “غوغل” ليست راغبة في استبدال “إنفيديا” تماما كونها أحد أكبر عملائها، ولكن هذا الأمر قد يتغير مستقبلا وفق تصريحات جاراف جوبتا، محلل في جارتنر.

ويضيف جوبتا لبلومبيرغ قائلا: “وحدات معالجة الرسومات أكثر ملاءمة للتعامل مع نطاق أوسع من أحمال العمل، إنفيديا متقدمة بأجيال عن منافسيها”.

ومن جانبها، أوضحت “إنفيديا” على لسان متحدثها الرسمي إلى “بلومبيرغ” سعادتها بالتطور الذي تمكنت “غوغل” من تحقيقه وأضاف الكثير لقطاع الذكاء الاصطناعي، مؤكدة بأنها تستمر في تزويد “غوغل” بمعالجتها في المستقبل القريب.