في 25 سبتمبر 2024، أعلنت شركة ميتا عن إطلاق نموذجها الجديد Llama 3.2، الذي يمثل خطوة كبيرة في عالم الذكاء الاصطناعي. هذا الإصدار لا يقتصر على معالجة النصوص فحسب، بل يتضمن أيضًا فهماً بصرياً، مما يسمح للمستخدمين بالتفاعل مع الصور والنصوص في آن واحد.

أقرأ أيضاً.. "ميتا" تكشف عن نظارات "أوريون": نافذة على المستقبل بتقنيات مبتكرة"

يأتي Llama 3.2 مع تنوع في النماذج والقدرات التحليلية، حيث يتوفر بنماذج صغيرة ومتوسطة تحتوي على 11 مليار و90 مليار من المعلمات. يتميز هذا الإصدار بقدرته على فهم الرسوم البيانية والرسومات، بالإضافة إلى توليد تسميات توضيحية للصور، مما يسهل التفاعل مع البيانات المرئية. كما يتضمن الإصدار الجديد ميزات تسمح له بالرد على الأوامر الصوتية أو النصية باستخدام أصوات مشاهير مثل جودي دنش وجون سينا، مما يضيف لمسة إنسانية إلى التفاعل مع الذكاء الاصطناعي.

أقرأ أيضاً.. طحنون بن زايد يهنئ شركة Meta على إصدار 3.2 Llama وإطلاق 3S Quest وعرض Orion




 

ووفقًا لمارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، فإن Llama 3.2 هو أول نموذج متعدد الوسائط مفتوح المصدر، مما يتيح العديد من التطبيقات التي تتطلب الفهم البصري. كما يدعم النموذج الجديد طول سياق يصل إلى 128,000 رمز، مما يسمح بإدخال نصوص ضخمة تصل إلى مئات الصفحات. تجارب ميتا تشير إلى أن نماذجها الجديدة تتنافس بقوة مع نماذج رائدة أخرى، مثل Claude 3 Haiku وGPT-4o mini، حيث أظهرت التجارب تفوقها في مهام التعرف على الصور والفهم البصري.



 


فيما يتعلق بالابتكارات التقنية، تم استخدام تقنيتين رئيسيتين في Llama 3.2، وهما القطع والتقطير، مما يجعل نماذج 1B و3B أولى نماذج Llama خفيفة الوزن وقادرة على العمل بكفاءة على الأجهزة. وقد تعاونت ميتا مع شركات بارزة مثل Qualcomm وMediatek وArm، مما سيسمح للنماذج بالعمل بشكل أسرع على الأجهزة المحمولة.