انخفض سهم إنفيديا اليوم مع المنافسة المتزايدة من غوغل في سوق شرائح الذكاء الاصطناعي، فيما تتخوف أوبن أي آي من تفوق منصة جيميناي التي تتصدر الأداء حالياً بين المنصات. انخفض سهم إنفيديا اليوم بنسبة تتراوح بين 3% و7% تقريبًا، وذلك حسب نقطة التداول اليومية، حيث أشارت العديد من مصادر السوق المباشرة إلى انخفاض بنسبة تتراوح بين 3.5% و6.5%، وتعليقات تشير إلى أنه كان في مرحلة ما على وشك الانخفاض بنسبة تتراوح بين 6% و7% تقريبًا. وارتفع سهم ألفابت (الشركة الأم لغوغل) بنسبة ضئيلة في ظل تدفق الأخبار نفسه، حيث ذكرت التقارير تحقيق مكاسب “تزيد عن 2%” وامتدادًا لارتفاعه الأخير نحو تقييم سوقي أعلى.
صفقة ميتا وغوغل
وتقارير تفيد بأن ميتا بلاتفورمز تجري محادثات متقدمة لإنفاق مليارات الدولارات على وحدات شرائح غوغل تنسور tensor processing units (TPUs) . يشير اهتمام ميتا باستخدام شرائح الذكاء الاصطناعي من غوغل في مراكز بياناتها بدءًا من عام 2027، بالإضافة إلى احتمال استئجار الشرائح من غوغل كلاود العام المقبل، إلى زخم متزايد لغوغل كمنافس لهيمنة إنفيديا على سوق تسريع أداء منصات الذكاء الاصطناعي. وقد أثار هذا مخاوف المستثمرين بشأن تحدي هيمنة إنفيديا على السوق، مما أدى إلى انخفاض أسهم إنفيديا بنسبة 2.7-3%، بينما شهدت ألفابت، الشركة الأم لغوغل ، مكاسب تراوحت بين 2.7-4.2% استجابةً لذلك.
معالجات غوغل
تكتسب وحدات معالجة غوغل، المصممة خصيصًا لأعباء مهام الذكاء الاصطناعي، زخمًا يتجاوز منتجات غوغل نفسها، حيث تجذب كبار اللاعبين في مجال الذكاء الاصطناعي الذين يبحثون عن بدائل لوحدات معالجة الرسومات من إنفيديا.
قد يصل الإنفاق الرأسمالي المتوقع لشركة ميتا على مراكز بيانات الذكاء الاصطناعي العام المقبل إلى ما بين 40 و50 مليار دولار أمريكي لسعة شرائح الاستدلال، مما قد يُسرّع نموّ غوغل كلاود ونظامها البيئي لأجهزة الذكاء الاصطناعي.
تُثبت صفقاتٌ مثل اتفاقية التوريد بين غوغل وأنثروبيك جدارة وحدات معالجة تنسور (TPU) كخيارٍ موثوق لتسريع أداء الذكاء الاصطناعي. – استفاد أيضًا شركاءٌ ذوو صلة، مثل برودكوم، التي تتعاون مع غوغل في تصميم وحدات معالجة تنسور TPU و لا تزال إنفيديا تُهيمن على سوق وحدات معالجة الرسومات (GPU) لتدريب الذكاء الاصطناعي، لكنّ شرائح الذكاء الاصطناعي المتخصصة الناشئة، مثل وحدات معالجة تنسور (TPU)، تُمثّل تحديًا كبيرًا في مهام الاستدلال. تتمحور القضية الرئيسية حول التنافس المُشتدّ في مجال أجهزة الذكاء الاصطناعي، حيث تُوظّف غوغل تقنية شرائحها المُخصّصة وخدماتها السحابية لمنافسة إنفيديا، مما أثار ردود فعل المستثمرين التي تنعكس في حركة أسهمها اليوم.
ما هي معالجات غوغل تنسور
وحدة معالجة تنسور (TPU) من غوغل هي شريحة متخصصة طُوّرت لتسريع مهام التعلم الآلي (ML)، وخاصةً العمليات الحسابية المعقدة التي ينطوي عليها تدريب الشبكات العصبية وتشغيلها. بخلاف وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) متعددة الأغراض، تُعد وحدات تنسور TPU دوائر متكاملة خاصة بالتطبيقات (ASICs) مُحسّنة لأداء عمليات ضرب المصفوفات واسعة النطاق بكفاءة باستخدام بنية مصفوفة انقباضية. يسمح هذا التصميم لوحدة تنسور بمعالجة العديد من عمليات الضرب والجمع في وقت واحد بسرعة أعلى واستهلاك أقل للطاقة دون هدر لمهام غير مطلوبة,
ركز الجيل الأول من وحدة تنسور بشكل رئيسي على الاستدلال (وضع التوقعات) باستخدام 65,536 وحدة ضرب وجمع تعمل بتردد 700 ميجاهرتز، مما يوفر إنتاجية أعلى بكثير لكل واط مقارنةً بوحدات المعالجة المركزية ووحدات معالجة الرسومات التقليدية. أما الجيل الثاني من وحدة تنسور فقد وسّع قدراته لتشمل كلاً من التدريب والاستدلال، موفرًا أوقات تدريب أسرع بكثير للنماذج – على سبيل المثال، تدريب نموذج ترجمة في ساعات كانت تستغرق يومًا كاملاً مع وحدات معالجة الرسومات. تُتيح غوغل وحدات تنسور عبر منصتها السحابية، مما يسمح للباحثين والشركات بالاستفادة من أجهزة تعلم آلي قوية دون الحاجة إلى استثمارات أولية كبيرة.
من خلال تقليل وقت حساب مهام التعلم الآلي بشكل كبير، تُمكّن وحدات المعالجة الحرارية تطبيقات ذكاء اصطناعي أكثر كفاءة وقابلية للتوسع، وتدعم منتجات مثل بحث غوغل ، والصور، و AlphaGo وتحقق هذه الكفاءة من خلال إعادة استخدام المدخلات في عمليات المصفوفة دون تخزين النتائج الوسيطة في السجلات، مما يقلل من استهلاك الطاقة، ومن خلال التركيز على مهمة محددة ومُحسّنة للغاية بدلاً من الحوسبة العامة. هذا التخصص يجعل وحدات المعالجة الحرارية تقنية رئيسية في تطوير سير عمل الذكاء الاصطناعي وتوسيع نطاق الوصول إلى قدرات التعلم الآلي عالميًا.

