شرکت متا در واکنش به ترند داغ ابزارهای هوش مصنوعی از مدل زبانی بزرگی بهنام LLaMA رونمایی کرد که اگرچه حدود 10 برابر کوچکتر از مدل GPT-3 شرکت OpenAI است، ولی میتواند بهتر از آن عمل کند. البته این مدل جدید چتباتی نیست که کاربران بتوانند با آن حرف بزنند و درعوض برای کارهای تحقیقاتی کاربرد دارد. در این پست به بررسی هوش مصنوعی LLaMA متا می پردازیم.
هوش مصنوعی LLaMA متا
متا میگوید مدل LLaMA مثل سایر مدلهای زبانی بزرگ دنبالهای از کلمات را بهعنوان ورودی دریافت و کلمه بعدی را پیشبینی میکند. متا میگوید این مدل روی 20 زبان جهانی و با کمک دادههای عمومی وبسایتهایی مثل ویکیپدیا، arXiv ،Stack Exchange ،C4 و CCNet آموزش داده شده است.
مدل هوش مصنوعی متا توان پردازشی کمتری لازم دارد
متا میگوید هوش مصنوعی آنها مدلی کوچکتر است که توان و منابع پردازشی کمتری لازم دارد. این مدل درواقع از مجموعهای از مدلهای زبانی تشکیل شده است و در اندازههای مختلف در دسترس خواهد بود. این شرکت درباره عرضه مدل خود میگوید: «دسترسی به این مدل بهصورت موردی برای محققان آکادمیک، سازمانهای دولتی، گروههای مدنی و آزمایشگاههای تحقیقاتی در سراسر دنیا فراهم میشود.»
مدل LLaMA-13B که یکی از نسخههای LLaMA است، پس از آموزش میتواند روی دیتاسنتری با GPU انویدیا تسلا V100 اجرا شود. این مسئله از آن جهت اهمیت دارد که به سازمانهای کوچکتر اجازه میدهد تا آزمایشهای خود را روی سیستمهای ارزانتر انجام دهند.
مدل LLaMA تاکنون در هیچکدام از محصولات و پلتفرمهای متا پیادهسازی نشده است و بهنظر نمیرسد که این شرکت برنامهای برای عرضه هوش مصنوعی خود برای کاربران عادی داشته باشد.
«مارک زاکربرگ»، مدیرعامل متا، درباره عرضه LLaMA میگوید:
«مدلهای زبانی بزرگ پتانسیلهای زیادی را در زمینه تولید متن، گفتوگو، خلاصهسازی متون و انجام کارهای پیچیدهتر مثل حل مسائل ریاضی یا پیشبینی ساختارهای پروتئینی از خود نشان دادهاند. متا به این مدل تحقیقات باز متعهد است و ما مدل جدید خود را در دسترس جامعه محققان هوش مصنوعی قرار میدهیم.»