الجمعة 22 نوفمبر 2024 أبوظبي الإمارات
مواقيت الصلاة
أبرز الأخبار
عدد اليوم
عدد اليوم
التعليم والمعرفة

ما هو نموذج Llama 3.2 من ميتا وكيف سيشكل ثورة في التحليل المرئي باستخدام الذكاء الاصطناعي؟

ما هو نموذج Llama 3.2 من ميتا وكيف سيشكل ثورة في التحليل المرئي باستخدام الذكاء الاصطناعي؟
1 أكتوبر 2024 15:10

في 25 سبتمبر 2024، أعلنت شركة ميتا عن إطلاق نموذجها الجديد Llama 3.2، الذي يمثل خطوة كبيرة في عالم الذكاء الاصطناعي. هذا الإصدار لا يقتصر على معالجة النصوص فحسب، بل يتضمن أيضًا فهماً بصرياً، مما يسمح للمستخدمين بالتفاعل مع الصور والنصوص في آن واحد.

أقرأ أيضاً.. "ميتا" تكشف عن نظارات "أوريون": نافذة على المستقبل بتقنيات مبتكرة"

يأتي Llama 3.2 مع تنوع في النماذج والقدرات التحليلية، حيث يتوفر بنماذج صغيرة ومتوسطة تحتوي على 11 مليار و90 مليار من المعلمات. يتميز هذا الإصدار بقدرته على فهم الرسوم البيانية والرسومات، بالإضافة إلى توليد تسميات توضيحية للصور، مما يسهل التفاعل مع البيانات المرئية. كما يتضمن الإصدار الجديد ميزات تسمح له بالرد على الأوامر الصوتية أو النصية باستخدام أصوات مشاهير مثل جودي دنش وجون سينا، مما يضيف لمسة إنسانية إلى التفاعل مع الذكاء الاصطناعي.

أقرأ أيضاً.. طحنون بن زايد يهنئ شركة Meta على إصدار 3.2 Llama وإطلاق 3S Quest وعرض Orion




 

ووفقًا لمارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، فإن Llama 3.2 هو أول نموذج متعدد الوسائط مفتوح المصدر، مما يتيح العديد من التطبيقات التي تتطلب الفهم البصري. كما يدعم النموذج الجديد طول سياق يصل إلى 128,000 رمز، مما يسمح بإدخال نصوص ضخمة تصل إلى مئات الصفحات. تجارب ميتا تشير إلى أن نماذجها الجديدة تتنافس بقوة مع نماذج رائدة أخرى، مثل Claude 3 Haiku وGPT-4o mini، حيث أظهرت التجارب تفوقها في مهام التعرف على الصور والفهم البصري.



 


فيما يتعلق بالابتكارات التقنية، تم استخدام تقنيتين رئيسيتين في Llama 3.2، وهما القطع والتقطير، مما يجعل نماذج 1B و3B أولى نماذج Llama خفيفة الوزن وقادرة على العمل بكفاءة على الأجهزة. وقد تعاونت ميتا مع شركات بارزة مثل Qualcomm وMediatek وArm، مما سيسمح للنماذج بالعمل بشكل أسرع على الأجهزة المحمولة.

المصدر: وكالات
جميع الحقوق محفوظة لمركز الاتحاد للأخبار 2024©