أخبار التقنية

تجمع “Superchip” AI الجديدة من Nvidia بين وحدة المعالجة المركزية ووحدة معالجة الرسومات لتدريب أنظمة الذكاء الاصطناعي الوحشية


تكبير / NVIDIA’s GH200 “Grace Hopper” رقاقة AI فائقة.

نفيديا

في وقت مبكر من الأسبوع الماضي في COMPUTEX ، أعلنت Nvidia أن GH200 Grace Hopper “Superchip” – وحدة المعالجة المركزية ووحدة معالجة الرسومات المدمجة المصممة خصيصًا لتطبيقات الذكاء الاصطناعي واسعة النطاق – قد دخلت مرحلة الإنتاج الكامل. إنه وحش. يحتوي على 528 نواة موتر لوحدة معالجة الرسومات ، ويدعم ما يصل إلى 480 جيجابايت من ذاكرة الوصول العشوائي (CPU) و 96 جيجابايت من ذاكرة الوصول العشوائي (GPU) ، ويتميز بنطاق ترددي لذاكرة GPU يصل إلى 4 تيرابايت في الثانية.

لقد قمنا سابقًا بتغطية شريحة Nvidia H100 Hopper ، والتي تعد حاليًا أقوى وحدة معالجة رسومات لمركز البيانات من Nvidia. إنه يدعم نماذج الذكاء الاصطناعي مثل ChatGPT من OpenAI ، وقد شهد ترقية كبيرة على شريحة A100 لعام 2020 ، والتي دعمت الجولة الأولى من الدورات التدريبية للعديد من روبوتات الدردشة ومولدات الصور التي تصنع الأخبار والتي نتحدث عنها اليوم.

تُترجم وحدات معالجة الرسوميات الأسرع تقريبًا إلى نماذج ذكاء اصطناعي أكثر قوة لأنها تستطيع تشغيل المزيد من مضاعفات المصفوفة بالتوازي (والقيام بذلك بشكل أسرع) ، وهو أمر ضروري حتى تعمل الشبكات العصبية الاصطناعية اليوم.

يأخذ GH200 أساس “Hopper” هذا ويجمعه مع منصة وحدة المعالجة المركزية “Grace” من Nvidia (كلاهما يحمل اسم رائد الكمبيوتر Grace Hopper) ، ويحوله إلى شريحة واحدة من خلال تقنية التوصيل البيني NVLink (C2C) من Nvidia. تتوقع Nvidia أن يعمل هذا المزيج على تسريع تطبيقات الذكاء الاصطناعي والتعلم الآلي بشكل كبير في كل من التدريب (إنشاء نموذج) والاستدلال (تشغيله).

قال إيان باك ، نائب رئيس الحوسبة المتسارعة في Nvidia ، في بيان صحفي: “يعمل الذكاء الاصطناعي التوليدي على إحداث تحول سريع في الأعمال التجارية ، وإطلاق العنان لفرص جديدة ، وتسريع الاكتشاف في مجالات الرعاية الصحية والتمويل وخدمات الأعمال والعديد من الصناعات الأخرى”. “مع إنتاج Grace Hopper Superchips بكامل طاقته ، سيوفر المصنعون في جميع أنحاء العالم قريبًا البنية التحتية المتسارعة التي تحتاجها شركات البنية التحتية لبناء ونشر تطبيقات الذكاء الاصطناعي التوليدية التي تستفيد من بيانات الملكية الفريدة الخاصة بهم.”

وفقًا للشركة ، تشتمل الميزات الرئيسية لجهاز GH200 على واجهة ذاكرة متماسكة (مشتركة) جديدة بسعة 900 جيجابايت / ثانية ، وهي أسرع سبع مرات من PCIe Gen5. يوفر GH200 أيضًا نطاقًا تردديًا لذاكرة النظام الكلي أعلى بـ 30 مرة لوحدة معالجة الرسومات مقارنةً بـ Nvidia DGX A100 المذكورة أعلاه. بالإضافة إلى ذلك ، يمكن لـ GH200 تشغيل جميع منصات برامج Nvidia ، بما في ذلك Nvidia HPC SDK و Nvidia AI و Nvidia Omniverse.

والجدير بالذكر أن Nvidia أعلنت أيضًا أنها ستقوم ببناء شريحة CPU / GPU هذه في كمبيوتر عملاق جديد يسمى DGX GH200 ، والذي يمكنه الاستفادة من الطاقة المجمعة لرقائق 256 GH200 للعمل كوحدة معالجة رسومات واحدة ، مما يوفر 1 exaflop من الأداء و 144 تيرابايت . من الذاكرة المشتركة ، ذاكرة أكثر بحوالي 500 مرة من الجيل السابق Nvidia DGX A100.

سيكون DGX GH200 قادرًا على تدريب نماذج الذكاء الاصطناعي العملاقة من الجيل التالي (GPT-6 ، أي شخص؟) لتطبيقات اللغة التوليدية وأنظمة التوصية وتحليلات البيانات. لم تعلن Nvidia عن أسعار GH200 ، ولكن وفقًا لـ Anandtech ، فإن جهاز كمبيوتر واحد DGX GH200 “سيكلف بسهولة في مكان ما في أقل من 8 أرقام.”

بشكل عام ، من المنطقي أن نقول إنه بفضل التقدم المستمر في الأجهزة من البائعين مثل Nvidia و Cerebras ، من المرجح أن تستمر نماذج الذكاء الاصطناعي السحابية المتطورة في أن تصبح أكثر قدرة بمرور الوقت ، ومعالجة المزيد من البيانات والقيام بذلك بشكل أسرع من ذي قبل. دعونا نأمل فقط ألا يجادلوا صحفيي التكنولوجيا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى