تسير الأشياء بسرعة الإضاءة في AI Land. في يوم الجمعة ، ابتكر مطور برمجيات يُدعى جورجي جيرجانوف أداة تسمى “llama. cpp” يمكنها تشغيل نموذج Meta الجديد للغة كبيرة الحجم من فئة GPT-3 AI ، LLaMA ، محليًا على كمبيوتر محمول Mac. بعد ذلك بوقت قصير ، توصل الأشخاص إلى كيفية تشغيل LLAMA على Windows أيضًا. ثم شخص ما أظهر في الجري على هاتف Pixel 6. جاء بعد ذلك a Raspberry Pi (وإن كان ذلك ببطء شديد).
إذا استمر هذا الأمر ، فربما نبحث عن منافس ChatGPT بحجم الجيب قبل أن نعرفه.
لكن دعنا نعود دقيقة ، لأننا لم نصل بعد. (على الأقل ليس اليوم – كما في اليوم حرفياً ، 13 مارس 2023.) لكن ما سيصل الأسبوع المقبل ، لا أحد يعلم.
منذ إطلاق ChatGPT ، أصيب بعض الأشخاص بالإحباط بسبب القيود المضمنة في نموذج الذكاء الاصطناعي التي تمنعه من مناقشة الموضوعات التي تعتبرها OpenAI حساسة. وهكذا بدأ الحلم – في بعض الأوساط – بنموذج لغة كبير مفتوح المصدر (LLM) يمكن لأي شخص تشغيله محليًا دون رقابة ودون دفع رسوم API لشركة OpenAI.
توجد حلول مفتوحة المصدر (مثل GPT-J) ، ولكنها تتطلب الكثير من ذاكرة الوصول العشوائي GPU ومساحة التخزين. لا يمكن للبدائل الأخرى مفتوحة المصدر أن تتباهى بأداء مستوى GPT-3 على الأجهزة المتوفرة بسهولة على مستوى المستهلك.
أدخل LLaMA ، وهو LLM متاح بأحجام معلمات تتراوح من 7B إلى 65B (هذا هو “B” كما في “مليار معلمة” ، وهي أرقام فاصلة عائمة مخزنة في المصفوفات التي تمثل ما “يعرفه” النموذج). قدمت LLaMA ادعاءًا قويًا: أن نماذجها الأصغر حجمًا يمكن أن تتطابق مع OpenAI’s GPT-3 ، النموذج الأساسي الذي يدعم ChatGPT ، من حيث جودة وسرعة إنتاجه. كانت هناك مشكلة واحدة فقط – أطلقت Meta شفرة LLaMA مفتوحة المصدر ، لكنها أعاقت “الأوزان” (“المعرفة” المدربة المخزنة في شبكة عصبية) للباحثين المؤهلين فقط.
تحلق بسرعة LLaMA
لم تدم قيود Meta على LLaMA طويلاً ، لأنه في 2 مارس ، سرب شخص ما أوزان LLaMA على BitTorrent. منذ ذلك الحين ، حدث انفجار في التطور المحيط بـ LLMA. قارن الباحث المستقل في منظمة العفو الدولية Simon Willison هذا الموقف بإصدار Stable Diffusion ، وهو نموذج تجميع صور مفتوح المصدر تم إطلاقه في أغسطس الماضي. هذا ما كتبه في منشور على مدونته:
أشعر أن لحظة الانتشار المستقر في أغسطس أطلقت موجة جديدة كاملة من الاهتمام بالذكاء الاصطناعي التوليدي – والذي تم دفعه بعد ذلك بإصدار ChatGPT في نهاية نوفمبر.
تحدث لحظة الانتشار المستقر هذه مرة أخرى في الوقت الحالي ، بالنسبة لنماذج اللغات الكبيرة – التقنية الكامنة وراء ChatGPT نفسها. قمت هذا الصباح بتشغيل نموذج لغة فئة GPT-3 على الكمبيوتر المحمول الشخصي الخاص بي لأول مرة!
عناصر الذكاء الاصطناعي كانت غريبة بالفعل. إنها على وشك أن تصبح أغرب بكثير.
عادةً ما يتطلب تشغيل GPT-3 العديد من وحدات معالجة الرسومات A100 من فئة مراكز البيانات (أيضًا ، فإن أوزان GPT-3 ليست عامة) ، ولكن LLaMA صنعت موجات لأنها يمكن أن تعمل على وحدة معالجة رسومات مستهلك واحد سمين. والآن ، مع التحسينات التي تقلل من حجم النموذج باستخدام تقنية تسمى التكميم ، يمكن تشغيل LLaMA على M1 Mac أو وحدة معالجة رسومات أصغر لمستهلك Nvidia.
تسير الأمور بسرعة كبيرة بحيث يصعب أحيانًا مواكبة آخر التطورات. (فيما يتعلق بمعدل تقدم الذكاء الاصطناعي ، أخبر مراسل زميل من منظمة العفو الدولية آرس ، “إنها مثل مقاطع الفيديو التي تصور الكلاب حيث تقوم بوضع صندوق كرات التنس عليها. [They] لا أعرف من أين تطارد أولاً وتضيع في الارتباك. “)
على سبيل المثال ، إليك قائمة بالأحداث البارزة المتعلقة بـ LLaMA استنادًا إلى جدول زمني تم وضعه Willison في تعليق Hacker News:
- 24 فبراير 2023: أعلنت Meta AI عن LLaMA.
- 2 مارس 2023: قام شخص ما بتسريب نماذج LLaMA عبر BitTorrent.
- 10 مارس 2023: ابتكر جورجي جيرجانوف اللاما. cpp ، والذي يمكن تشغيله على M1 Mac.
- 11 مارس 2023: أرتيم أندرينكو يدير LLaMA 7B (ببطء) على Raspberry Pi 44 جيجا بايت رام ، 10 ثوانى / رمز مميز.
- 12 مارس 2023: تشغيل LLaMA 7B على NPX ، وهي أداة تنفيذ node.js.
- 13 مارس 2023: أصيب شخص ما باللاما. cpp قيد التشغيل على هاتف Pixel 6أيضا ببطء شديد.
- 13 مارس 2023 ، 2023: الإصدار القياسي Alpaca 7B ، وهو إصدار مضبوط بالتعليمات من LLaMA 7B “يتصرف بشكل مشابه لـ” text-davinci-003 “الخاص بـ OpenAI ولكنه يعمل على أجهزة أقل قوة بكثير.
بعد الحصول على أوزان LLaMA بأنفسنا ، اتبعنا تعليمات Willison وحصلنا على إصدار 7B المعلمة يعمل على M1 Macbook Air ، وهو يعمل بمعدل سرعة معقول. يمكنك تسميته كبرنامج نصي في سطر الأوامر مع موجه ، ويبذل LLaMA قصارى جهده لإكماله بطريقة معقولة.
لا يزال هناك سؤال حول مدى تأثير التكميم على جودة المخرجات. في اختباراتنا ، كان LLaMA 7B الذي تم تقليصه إلى 4 بت مكمًا مثيرًا للإعجاب للعمل على MacBook Air – ولكنه لا يزال غير متساوٍ مع ما قد تتوقعه من ChatGPT. من الممكن تمامًا أن تؤدي تقنيات التحفيز الأفضل إلى نتائج أفضل.
أيضًا ، تأتي عمليات التحسين والضبط الدقيق بسرعة عندما يكون كل شخص بيده على الكود والأوزان – على الرغم من أن LLaMA لا يزال مثقلًا ببعض شروط الاستخدام المقيدة إلى حد ما. يثبت إصدار Alpaca اليوم من قبل ستانفورد أن الضبط الدقيق (تدريب إضافي مع وضع هدف محدد في الاعتبار) يمكن أن يحسن الأداء ، ولا يزال الوقت مبكرًا بعد إصدار LLaMA.
حتى كتابة هذه السطور ، يظل تشغيل LLaMA على جهاز Mac بمثابة تمرين تقني عادل. يجب عليك تثبيت Python و Xcode وأن تكون على دراية بالعمل في سطر الأوامر. لدى Willison إرشادات خطوة بخطوة جيدة لأي شخص يرغب في تجربتها. لكن هذا قد يتغير قريبًا مع استمرار المطورين في كتابة التعليمات البرمجية بعيدًا.
بالنسبة للآثار المترتبة على وجود هذه التكنولوجيا في البرية – لا أحد يعرف حتى الآن. بينما يقلق البعض بشأن تأثير الذكاء الاصطناعي كأداة للبريد العشوائي والمعلومات المضللة ، يقول ويليسون ، “لن يتم اختراعها ، لذا أعتقد أن أولويتنا يجب أن تكون اكتشاف أكثر الطرق البناءة الممكنة لاستخدامها.”
في الوقت الحالي ، ضماننا الوحيد هو أن الأمور ستتغير بسرعة.
اكتشاف المزيد من عرب نيوز للتقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.