محققان هوش مصنوعی اپل با ابداع یک تکنیک خلاقانه توانستند به پیشرفت مهمی در عرصه استقرار مدلهای زبان بزرگ (LLM) روی تلفنهای آیفون و دیگر دستگاههای با حافظه محدود این شرکت دست اشکار کنند.
چتباتهای مبتنی بر LLM همانند ChatGPT تمرکز بسیاری روی داده و حافظه دارند و طبق معمولً برای کارکرد به حافظه زیاد بسیاری نیاز دارند که این نوشته برای دستگاههایی با حافظه محدود، همانند آیفون، یک چالش است. برای مقابله با این مشکل، محققان اپل تکنیک جدیدی را گسترش دادهاند که از حافظه فلش – همان حافظهای که برنامهها و عکسها شما در آن ذخیره میبشود – برای ذخیره دادههای مربوط به مدل هوش مصنوعی منفعت گیری میکند.
رویکرد تازه اپل برای استقرار هوش مصنوعی موبایل
محققان در مقاله خود توضیح خواهند داد که در تلفنهای موبایل، حافظه فلش از حافظه رم زیاد تر است اما طبق معمولً برای اجرای مدلهای زبان بزرگ از RAM منفعت گیری میبشود. در رویکرد آنها، مدل هوش مصنوعی بهجای این که هر بار دادههای جدیدی را بارگیری کند، از دادههایی که در قبل پردازش کرده، مجدداً منفعت گیری خواهد کرد. این کار نیاز مداوم مدل به حافظه را افت میدهد و بهطور کلی علتسریعتر و روانترشدن فرآیند میبشود.
این چنین کوپرتینوییها ادعا کردهاند که دادههای مدل خود را بهصورت کارآمدتر گروهبندی کردهاند تا فهمیدن و پردازش آنها توسط هوش مصنوعی سریع تر انجام بشود.
اپل در نهایت ادعا کرده که با وجود این رویکردها، مدلهای هوش مصنوعی میتوانند بهاندازه دو برابر حافظه آیفون کار کنند. این چنین کارکرد آنها در پردازندههای استاندارد ۴ تا ۵ برابر و در پردازندههای گرافیکی ۲۵ تا ۲۰ برابر سریع تر میبشود. محققان اپل در بخشی از تحقیق خود مینویسند:
«این پیشرفت بهاختصاصی برای استقرار LLMهای پیشرفته در محیطهای با منبع های محدود اهمیت بسیاری دارد و در نتیجه علتافزایش کاربرد و دسترسی آنها میبشود.»

اولین بار در تیر ماه امسال حرف های شد که اپل در رقابت با ChatGPT روی گسترش چتبات هوش مصنوعی خود کار میکند که امکان پذیر «اپل GPT» نام بگیرد. اخیراً نیز حرف های شده می بود که اپل تصمیم دارد «سیری» را با هوش مصنوعی منقلب کند و به گمان زیادً نسخه ارتقایافته دستیار هوشمند سیری با قابلیتهای هوش مصنوعی سال آینده میلادی در اتفاقات WWDC 2024 معارفه میبشود.
منبع