به گزارش آناژورنال، بخش هوش مصنوعی مایکروسافت روز جمعه از دو مدل اختصاصی خود پردهبرداری کرد.
مدل MAI-Voice-1 برای تولید گفتار طراحی شده و قادر است تنها با استفاده از یک پردازنده گرافیکی، صدای یک دقیقهای را در کمتر از یک ثانیه تولید کند.
مایکروسافت اعلام کرده این مدل هماکنون در قابلیتهایی مانند Copilot Daily، که اخبار روز را با صدای گوینده هوش مصنوعی روایت میکند، مورد استفاده قرار میگیرد.
کاربران میتوانند این مدل را از طریق Copilot Labs امتحان کنند.
مدل دیگر با نام MAI-1-preview معرفی شده است.
این مدل روی حدود ۱۵ هزار کارت گرافیک انویدیا H100 آموزش دیده و برای کاربرانی طراحی شده که به دستیار هوش مصنوعی نیاز دارند تا دستورات را دنبال کرده و پاسخهای مفید به پرسشهای روزمره ارائه کند.
- مصطفی سلیمان، رئیس واحد هوش مصنوعی مایکروسافت، پیشتر تأکید کرده بود که مدلهای داخلی این شرکت تمرکز خاصی بر کاربردهای سازمانی ندارند و هدف اصلی، ساخت محصولاتی است که برای کاربران عادی عملکردی «فوقالعاده» داشته باشند.
مایکروسافت قصد دارد مدل MAI-1-preview را بهصورت آزمایشی در دستیار Copilot ادغام کند.
در حال حاضر، کوپایلت بیشتر بر مدلهای زبانی بزرگ OpenAI متکی است.
این شرکت همچنین آزمایش عمومی MAI-1-preview را در پلتفرم LMArena آغاز کرده است.
مایکروسافت در بیانیهای رسمی نوشت:
ما برنامههای بزرگی برای آینده داریم.باور داریم هماهنگی و یکپارچهسازی مجموعهای از مدلهای تخصصی برای اهداف متفاوت کاربران، ارزش فوقالعادهای ایجاد خواهد کرد.
سوالات متداول
مدل MAI-Voice-1 چه کاربردی دارد؟
این مدل روی تولید گفتار تمرکز دارد و میتواند صدای یک دقیقهای را در کمتر از یک ثانیه ایجاد کند.
مدل MAI-1-preview چه ویژگیهایی دارد؟
این مدل روی ۱۵ هزار کارت گرافیک H100 آموزش دیده و برای ارائه پاسخهای متنی و دستیار هوش مصنوعی طراحی شده است.
مایکروسافت از این مدلها در کجا استفاده میکند؟
MAI-Voice-1 در Copilot Daily استفاده میشود و MAI-1-preview بهصورت آزمایشی در Copilot ادغام خواهد شد.
آیا این مدلها جایگزین GPTهای OpenAI خواهند شد؟
در حال حاضر خیر؛ مایکروسافت همچنان از مدلهای OpenAI استفاده میکند، اما MAI-1-preview به عنوان مکمل در حال آزمایش است.
ارسال پاسخ
نمایش دیدگاه ها