Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التقنية

تقدم شركة Cerebras حاسوبها الفائق 2-Exaflop المزود بالذكاء الاصطناعي


الذكاء الاصطناعي التوليدي يأكل العالم.

هذه هي الطريقة التي بدأ بها أندرو فيلدمان ، الرئيس التنفيذي لشركة Cerebras لصناعة أجهزة الكمبيوتر في Silicon Valley AI ، تقديمه لأحدث إنجاز لشركته: كمبيوتر فائق الذكاء الاصطناعي قادر على 2 مليار عملية في الثانية (2 exaflops). النظام ، المسمى Condor Galaxy 1 ، في طريقه لمضاعفة حجمه في غضون 12 أسبوعًا. في أوائل عام 2024 ، سينضم إليها نظامان آخران بضعف هذا الحجم. تخطط شركة Silicon Valley لمواصلة إضافة تركيبات Condor Galaxy العام المقبل حتى تقوم بتشغيل شبكة من تسعة أجهزة كمبيوتر عملاقة قادرة على 36 exaflops في المجموع.

إذا كانت النماذج ذات اللغات الكبيرة وأنظمة الذكاء الاصطناعي التوليدية الأخرى تأكل العالم ، فإن خطة Cerebras هي مساعدتهم على هضمه. وشركة سيليكون فالي ليست وحدها. يقوم صانعو أجهزة الكمبيوتر الأخرى التي تركز على الذكاء الاصطناعي ببناء أنظمة ضخمة حول إما معالجاتهم المتخصصة أو أحدث وحدة معالجة رسومات من Nvidia ، وهي H100. في حين أنه من الصعب الحكم على حجم وقدرات معظم هذه الأنظمة ، يزعم فيلدمان أن كوندور جالاكسي 1 هو بالفعل من بين الأكبر.

كوندور جالاكسي 1 – تم تجميعه وبدء تشغيله في غضون عشرة أيام فقط – يتكون من 32 جهاز كمبيوتر Cerebras CS-2 ومن المقرر أن يتوسع إلى 64. النظامين التاليين ، اللذين سيتم بناؤهما في أوستن ، تكساس ، وآشفيل ، نورث كارولاينا ، سيضم كل منهما 64 CS-2.

قلب كل CS-2 هو Waferscale Engine-2 ، وهو معالج خاص بالذكاء الاصطناعي مع 2.6 تريليون ترانزستور و 850.000 نواة AI مصنوعة من رقاقة كاملة من السيليكون. الشريحة كبيرة جدًا لدرجة أن حجم الذاكرة وعرض النطاق الترددي وحساب الموارد والأشياء الأخرى في أجهزة الكمبيوتر العملاقة الجديدة سرعان ما يصبح أمرًا سخيفًا بعض الشيء ، كما يظهر الرسم التالي.

في حال لم تجد هذه الأرقام غامرة بما يكفي ، فإليك رقمًا آخر: يوجد ما لا يقل عن 166 تريليون ترانزستور في Condor Galaxy 1.سيريبراس

يقول فيلدمان إن إحدى أكبر مزايا Cerebras في بناء حواسيب عملاقة ذات ذكاء اصطناعي كبير هي قدرته على توسيع نطاق الموارد ببساطة. على سبيل المثال ، يمكن تدريب شبكة مكونة من 40 مليار معلمة في نفس الوقت تقريبًا مثل شبكة ذات مليار متغير إذا خصصت 40 ضعفًا من موارد الأجهزة لها. الأهم من ذلك ، أن مثل هذا النطاق لا يتطلب سطورًا إضافية من التعليمات البرمجية. تاريخياً ، كان إظهار القياس الخطي مزعجًا للغاية ، بسبب صعوبة تقسيم الشبكات العصبية الكبيرة بحيث تعمل بكفاءة. نقيس خطيًا من 1 إلى 32 [CS-2s] بضغطة مفتاح “.

سلسلة Condor Galaxy مملوكة لشركة G42 ومقرها أبو ظبي ، وهي شركة قابضة تضم تسع شركات قائمة على الذكاء الاصطناعي بما في ذلك G42 Cloud ، أحد أكبر مزودي الحوسبة السحابية في الشرق الأوسط. ومع ذلك ، ستقوم Cerebras بتشغيل أجهزة الكمبيوتر العملاقة ويمكنها استئجار الموارد التي لا يستخدمها G42 للعمل الداخلي.

وفقًا لفيلدمان ، ارتفع الطلب على تدريب الشبكات العصبية الكبيرة. يقول إن عدد الشركات التي تدرب نماذج الشبكات العصبية مع 50 مليار أو أكثر من المعلمات ارتفع من 2 في عام 2021 إلى أكثر من 100 هذا العام.

من الواضح أن Cerebras ليس الوحيد الذي يلاحق الشركات التي تحتاج إلى تدريب شبكات عصبية كبيرة حقًا. يمتلك اللاعبون الكبار مثل Amazon و Google و Meta و Microsoft عروضهم الخاصة. تهيمن مجموعات الكمبيوتر المبنية حول وحدات معالجة الرسومات Nvidia على الكثير من هذا العمل ، لكن بعض هذه الشركات طورت السيليكون الخاص بها للذكاء الاصطناعي ، مثل سلسلة TPU من Google و Trainium من Amazon. هناك أيضًا منافسون مبتدئون لشركة Cerebras ، يصنعون مسرعات الذكاء الاصطناعي الخاصة بهم وأجهزة الكمبيوتر بما في ذلك Habana (الآن جزء من Intel) و Graphcore و Samba Nova.

قامت Meta ، على سبيل المثال ، ببناء AI Research SuperCluster باستخدام أكثر من 6000 وحدة معالجة رسومات Nvidia A100. ستدفع المرحلة الثانية المخطط لها الكتلة إلى 5 exaflops. أنشأت Google نظامًا يحتوي على 4096 من مسرعات TPU v4 الخاصة بها ليصبح المجموع 1.1 exaflops. قام هذا النظام بتمزيق الشبكة العصبية لمعالج اللغة الطبيعية BERT ، وهي أصغر بكثير من LLMs اليوم ، في ما يزيد قليلاً عن 10 ثوانٍ. تدير Google أيضًا Compute Engine A3 ، والذي تم إنشاؤه حول وحدات معالجة الرسومات Nvidia H100 ووحدة معالجة بنية أساسية مخصصة مصنوعة من Intel. قام مزود السحابة CoreWeave ، بالشراكة مع Nvidia ، باختبار نظام مكون من 3584 وحدة معالجة رسومات H100 التي دربت معيارًا يمثل نموذج اللغة الكبيرة GPT-3 في ما يزيد قليلاً عن 10 دقائق. في عام 2024 ، تخطط Graphcore لبناء 10 أنظمة exaflop تسمى Good Computer تتكون من أكثر من 8000 من معالجات Bow الخاصة بها.

يمكنك الوصول إلى Condor Galaxy من هنا.

من مقالات موقعك

مقالات ذات صلة حول الويب

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

vita keto fuel acv gummies scam and reviews exposed woman says she lost over 120 pounds on the diet megyn kelly today how kelly clarkson lose so much weight celebrity health weightloss shorts trisha yearwood keto gummies fast weight loss recipes get slim garth brooks and trisha yearwood keto gummies 2023 reviews price advantages male enhancement gummies that actually work ketologenic keto acv gummies scam and reviews 2024 kelly clarksons incredible 37 lb weight loss journey revealed kelly clarkson reveals how she lost a reported 60 lbs kelly clarkson weight loss shorts how did kelly clarkson lose weight cbd gummies for male enhancement cbd good for ed keto melt keto acv gummies weight loss scam with kelly clarkson and fake reviews explained kelly clarkson keto blast gummies fake exposed 2023 reviews price where to buy 5 best diet pills for women top female weight loss supplements of 2023