هواوی موفق شده مصرف حافظه هوش مصنوعی را تا ۷۰ درصد کاهش دهد

هواوی با معرفی تکنیک متن‌باز SINQ، اجرای مدل‌های هوش مصنوعی پیشرفته را روی سخت‌افزارهای ارزان ممکن کرده است.

هواوی موفق شده مصرف حافظه هوش مصنوعی را تا ۷۰ درصد کاهش دهد

به گزارش آناژورنال، هواوی با معرفی روش متن‌باز جدیدی به نام SINQ، امکان اجرای مدل‌های زبانی بزرگ و پیشرفته را روی سخت‌افزارهای ارزان‌تر فراهم کرده است.

این تکنیک مصرف حافظه مدل‌ها را تا ۷۰ درصد کاهش می‌دهد و هزینه اجرای هوش مصنوعی را به شکل چشمگیری پایین می‌آورد.

مشکل بزرگ مدل‌های زبانی بزرگ

یکی از چالش‌های اصلی در استفاده گسترده از مدل‌های هوش مصنوعی، نیاز بسیار زیاد آن‌ها به حافظه و قدرت پردازشی است.

اجرای این مدل‌ها معمولاً نیازمند پردازشگرهای گرافیکی گران‌قیمتی مانند NVIDIA A100 یا H100 است که هزینه‌ای ده‌ها هزار دلاری دارد.

این محدودیت دسترسی به هوش مصنوعی قدرتمند را برای محققان، استارتاپ‌ها و شرکت‌های کوچک دشوار می‌کند.

کوانتیزاسیون و نوآوری هواوی

یکی از راهکارهای اصلی برای حل این مشکل، استفاده از کوانتیزاسیون (Quantization) است که با کاهش دقت عددی مدل، مصرف حافظه را کاهش می‌دهد. مشکل این روش معمولاً افت کیفیت مدل است، اما تکنیک جدید هواوی، SINQ، توانسته مصرف حافظه را ۶۰ تا ۷۰ درصد کاهش دهد بدون افت قابل توجه کیفیت خروجی.

اجرای مدل‌ها با سخت‌افزار ارزان‌تر

کاهش مصرف حافظه به این معناست که مدلی که پیش از این نیازمند بیش از ۶۰ گیگابایت حافظه بود، اکنون می‌تواند با حدود ۲۰ گیگابایت حافظه اجرا شود. این یعنی به جای پردازنده ۳۰ هزار دلاری H100، می‌توان از کارت گرافیک NVIDIA GeForce RTX 4090 با قیمت حدود ۱۶۰۰ دلار برای اجرای همان مدل استفاده کرد. این کاهش هزینه در استفاده از سرورهای ابری نیز بسیار چشمگیر خواهد بود.

SINQ متن‌باز و دسترس‌پذیر برای همه

هواوی SINQ را تحت مجوز Apache 2.0 و به‌صورت متن‌باز در Github و Hugging Face منتشر کرده است. این امر به توسعه‌دهندگان و شرکت‌ها در سراسر جهان اجازه می‌دهد تا به رایگان از این تکنیک استفاده کنند، آن را تغییر دهند و حتی در محصولات تجاری خود به‌کار ببرند.

تاثیر بر جامعه توسعه‌دهندگان

با کاهش موانع سخت‌افزاری و مالی، هواوی امکان دسترسی به مدل‌های بزرگ‌تر و قدرتمندتر را برای جامعه توسعه‌دهندگان فراهم کرده و زمینه را برای موج جدیدی از نوآوری در اپلیکیشن‌ها و سرویس‌های هوشمند فراهم کرده است.

سوالات متداول

SINQ چیست و چگونه کار می‌کند؟
SINQ یک تکنیک متن‌باز کوانتیزاسیون است که مصرف حافظه مدل‌های هوش مصنوعی را تا ۷۰ درصد کاهش می‌دهد بدون افت کیفیت قابل توجه.

مزیت اصلی SINQ نسبت به روش‌های مشابه چیست؟
مزیت اصلی SINQ کاهش چشمگیر نیاز حافظه و هزینه اجرای مدل‌ها است، بدون آنکه دقت و کیفیت خروجی مدل به شکل قابل توجهی کاهش یابد.

آیا SINQ برای همه مدل‌های هوش مصنوعی قابل استفاده است؟
بله، این روش متن‌باز و قابل استفاده برای مدل‌های مختلف هوش مصنوعی است، اما کارایی آن بستگی به نوع مدل و پارامترهای آن دارد.

چگونه می‌توان به SINQ دسترسی داشت؟
SINQ تحت مجوز Apache 2.0 در Github و Hugging Face در دسترس است و هر شخص یا شرکت می‌تواند از آن استفاده کند.

آیا استفاده از SINQ نیازمند دانش فنی خاصی است؟
برای استفاده بهینه از SINQ، آشنایی با پردازش مدل‌های هوش مصنوعی و تکنیک‌های کوانتیزاسیون مفید است، اما مستندات موجود در Github کمک بزرگی برای شروع فراهم کرده‌اند.

تیم تحریریه آناژورنال متشکل از روزنامه‌نگاران باتجربه و متخصص در حوزه‌های خبری متنوع از جمله اخبار سینمای ایران و جهان، فناوری، و رویدادهای محلی است. این تیم با بیش از چند سال تجربه در رسانه‌ آناژورنال، به ارائه اخبار دقیق، به‌روز و جذاب متعهد است.