تسعى معظم شركات التكنولوجيا الكبرى إلى بيع الذكاء الاصطناعي للجمهور. لكن مارك زوكربيرج يقدم مجانًا ما تعتبره ميتا أحد أفضل نماذج الذكاء الاصطناعي في العالم. أصدرت شركة ميتا يوم الاثنين الإصدار الأكبر والأكثر قدرة من نموذج لغة كبير يسمى Llama مجانًا. لم تكشف ميتا عن تكلفة تطوير Llama 3.1، لكن زوكربيرج أخبر المستثمرين مؤخرًا أن شركته تنفق مليارات الدولارات على تطوير الذكاء الاصطناعي.
من خلال هذا الإصدار الأخير، تُظهر ميتا أن النهج المغلق الذي تفضله معظم شركات الذكاء الاصطناعي ليس السبيل الوحيد لتطويره. لكن الشركة تضع نفسها أيضًا في قلب النقاش حول المخاطر التي يشكلها إطلاق الذكاء الاصطناعي بدون ضوابط. تقوم ميتا بتدريب Llama بطريقة تمنع النموذج من إنتاج مخرجات ضارة بشكل افتراضي، ولكن يمكن تعديل النموذج لإزالة مثل هذه الضمانات.
تقول ميتا أن Llama 3.1 ذكي ومفيد مثل أفضل العروض التجارية من شركات مثل OpenAI و Google و Anthropic. في بعض المعايير التي تقيس التقدم في مجال الذكاء الاصطناعي، تقول ميتا أن النموذج هو الأكثر ذكاءً على وجه الأرض.
يقول بيرسي ليانج، الأستاذ المشارك بجامعة ستانفورد والذي يتابع الذكاء الاصطناعي مفتوح المصدر: "إنه لأمر مثير للغاية". إذا وجد المطورون أن النموذج الجديد قادر بنفس القدرة على النماذج الرائدة في الصناعة، بما في ذلك GPT-4o من OpenAI، يقول ليانج، فقد يرى الكثيرون الانتقال إلى عرض ميتا. ويضيف: " سيكون من المثير للاهتمام معرفة كيف يتغير الاستخدام ".
وفي رسالة مفتوحة نُشرت مع إصدار النموذج الجديد، قارن الرئيس التنفيذي لشركة ميتا مارك زوكربيرج Llama بنظام التشغيل Linux مفتوح المصدر. عندما انطلق Linux في أواخر التسعينيات وأوائل العقد الأول من القرن الحادي والعشرين، استثمرت العديد من شركات التكنولوجيا الكبرى في بدائل مغلقة وانتقدت البرامج مفتوحة المصدر على أنها محفوفة بالمخاطر وغير موثوقة. ومع ذلك، يُستخدم Linux على نطاق واسع اليوم في الحوسبة السحابية ويعمل كقلب لنظام التشغيل المحمول Android.
يكتب زوكربيرج في رسالته: "أعتقد أن الذكاء الاصطناعي سيتطور بطريقة مماثلة". "اليوم، تقوم العديد من شركات التكنولوجيا بتطوير نماذج رائدة مغلقة. لكن المصدر المفتوح يقلل الفجوة بسرعة."
ومع ذلك، فإن قرار ميتا بالتخلي عن ذكائها الاصطناعي ليس خاليًا من المصلحة الذاتية. ساعدت إصدارات Llama السابقة الشركة على تأمين موقع مؤثر بين باحثي ومطوري ومؤسسي شركات الذكاء الاصطناعي. كما يلاحظ ليانج أن Llama 3.1 ليس مفتوح المصدر حقًا، لأن Meta تفرض قيودًا على استخدامه - على سبيل المثال، تحديد الحجم الذي يمكن فيه استخدام النموذج في المنتجات التجارية.
يحتوي الإصدار الجديد من Llama على 405 مليار معلمة أو عنصر قابل للتعديل. أصدرت شركة ميتا بالفعل إصدارين أصغر من Llama 3، أحدهما بـ 70 مليار معلمة والآخر بـ 8 مليار. كما أصدرت ميتا اليوم إصدارات محدثة لهذه النماذج التي تحمل علامة Llama 3.1.
Llama 3.1 كبير جدًا بحيث لا يمكن تشغيله على جهاز كمبيوتر عادي، لكن تقول Meta أن العديد من موفري الخدمات السحابية، بما في ذلك Databricks و Groq و AWS و Google Cloud، ستقدم خيارات استضافة للسماح للمطورين بتشغيل إصدارات مخصصة من النموذج. يمكن أيضًا الوصول إلى النموذج على Meta.ai.
يقول بعض المطورين إن إصدار Llama الجديد يمكن أن يكون له آثار واسعة على تطوير الذكاء الاصطناعي. كما تلاحظ ستيلا بيديرمان، المديرة التنفيذية لشركة EleutherAI، وهي مشروع ذكاء اصطناعي مفتوح المصدر، أن Llama 3 ليس مفتوح المصدر بالكامل. لكن بيديرمان تشير إلى أن التغيير في ترخيص Meta الأخير سيسمح للمطورين بتدريب نماذجهم الخاصة باستخدام Llama 3، وهو ما تحظره معظم شركات الذكاء الاصطناعي حاليًا. تقول بيديرمان: "هذه صفقة كبيرة حقًا".
على عكس أحدث نماذج OpenAI و Google، لا يعد Llama "متعدد الوسائط"، مما يعني أنه غير مصمم للتعامل مع الصور والصوت والفيديو. لكن تقول Meta إن النموذج أفضل بكثير في استخدام برامج أخرى مثل متصفح الويب، وهو ما يعتقد العديد من الباحثين والشركات أنه يمكن أن يجعل الذكاء الاصطناعي أكثر فائدة.
بعد إصدار OpenAI لـ ChatGPT في أواخر عام 2022، دعا بعض خبراء الذكاء الاصطناعي إلى وقف مؤقت لتطوير الذكاء الاصطناعي خشية إساءة استخدام هذه التكنولوجيا أو صعوبة السيطرة عليها. لقد تلاشى القلق الوجودي منذ ذلك الحين، لكن لا يزال العديد من الخبراء قلقين بشأن إمكانية إساءة استخدام نماذج الذكاء الاصطناعي غير المقيدة من قبل قراصنة المعلومات أو استخدامها لتسريع تطوير الأسلحة البيولوجية أو الكيميائية.
يقول جيفري هينتون، الفائز بجائزة تورينج الذي مهد عمله الرائد في مجال التعلم الآلي المعروف باسم التعلم العميق الطريق لنماذج اللغة الكبيرة: "سيفرح المجرمون الإلكترونيون في كل مكان".
انضم هينتون إلى Google في عام 2013 ولكنه ترك الشركة العام الماضي للحديث عن المخاطر المحتملة التي قد تنجم عن نماذج الذكاء الاصطناعي الأكثر تقدمًا. ويقول إن الذكاء الاصطناعي يختلف اختلافًا جوهريًا عن البرامج مفتوحة المصدر لأن النماذج لا يمكن التدقيق فيها بنفس الطريقة. ويضيف: "يعمل الناس على ضبط النماذج الدقيقة لأغراضهم الخاصة، وبعض هذه الأغراض سيئة للغاية".
ساعدت Meta في تخفيف بعض المخاوف من خلال إصدار إصدارات سابقة من Llama بعناية. تقول الشركة إنها تخضع Llama لاختبارات صارمة للسلامة قبل الإصدار، وتضيف أن هناك القليل من الأدلة على أن نماذجها تسهل تطوير الأسلحة. وقالت ميتا إنها ستصدر عدة أدوات جديدة لمساعدة المطورين على الحفاظ على سلامة نماذج Llama من خلال تعديل مخرجاتها ومنع محاولات كسر القيود. ويقول جون كارفيل، المتحدث باسم ميتا، إن الشركة ستقرر على أساس كل حالة على حدة ما إذا كانت ستصدر نماذج مستقبلية.
يقول دان هندريكس، عالم الكمبيوتر ومدير مركز سلامة الذكاء الاصطناعي، وهي منظمة غير ربحية تركز على مخاطر الذكاء الاصطناعي، إن ميتا قامت بشكل عام بعمل جيد في اختبار نماذجها قبل إصدارها. ويقول إن النموذج الجديد يمكن أن يساعد الخبراء على فهم المخاطر المستقبلية. "سيسمح إصدار Llama 3 اليوم للباحثين خارج شركات التكنولوجيا الكبرى بإجراء أبحاث حول سلامة الذكاء الاصطناعي تشتد الحاجة إليها".
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية
ليست هناك تعليقات:
إرسال تعليق