شوک بزرگ: OpenAI ایمنی هوش مصنوعی رو فدای رقابت کرد؟

مایلز براندج، محقق سابق OpenAI، می‌گه این شرکت تاریخچه ایمنی هوش مصنوعی رو بازنویسی کرده. آیا رقابت داره ایمنی رو نابود می‌کنه؟ بیشتر بدونید.

شوک بزرگ: OpenAI ایمنی هوش مصنوعی رو فدای رقابت کرد؟
شوک بزرگ: OpenAI ایمنی هوش مصنوعی رو فدای رقابت کرد؟

به گزارش رسانه تحلیلی خبری آناژورنال مایلز براندج، یکی از محققای سرشناس سابق OpenAI، روز چهارشنبه تو شبکه اجتماعی X حسابی به این شرکت تاخت و گفت OpenAI داره تاریخچه رویکردش به ایمنی هوش مصنوعی رو “بازنویسی” می‌کنه.

این انتقاد بعد از این اومد که OpenAI یه سند جدید منتشر کرد و توش توضیح داد که چطور به ایمنی و هم‌راستایی (Alignment) هوش مصنوعی نگاه می‌کنه؛ یعنی چطور کاری کنن سیستم‌های هوش مصنوعی قابل اعتماد و قابل پیش‌بینی باشن.

تو این سند، OpenAI گفته توسعه هوش مصنوعی پیشرفته (AGI) که بتونه هر کاری یه آدم می‌کنه انجام بده، یه مسیر “پیوسته”ست و باید با آزمایش و یادگیری از سیستم‌های فعلی پیش بره.

اونا ادعا کردن که رویکرد قدیمی‌شون به GPT-2، که با احتیاط زیاد منتشرش کردن، دیگه به کار امروز نمیاد.

ولی براندج می‌گه این حرفا با واقعیت جور درنمیاد. اون که خودش تو انتشار GPT-2 نقش داشته، می‌گه اون موقع احتیاطشون کاملاً درست و منطبق با همین فلسفه امروزی‌شون بوده.

به قول خودش: “ما GPT-2 رو مرحله به مرحله منتشر کردیم و هر قدم درس‌هامون رو به اشتراک گذاشتیم. خیلی از کارشناسای امنیت ازمون تشکر کردن.”

GPT-2 سال ۲۰۱۹ معرفی شد و پایه‌گذار مدل‌هایی مثل ChatGPT امروزی بود.

این سیستم می‌تونست متن بنویسه، سؤال جواب بده و مقاله خلاصه کنه؛ اونم گاهی طوری که نمی‌شد تشخیص داد کار آدمه یا ماشین.

تو زمان خودش خیلی پیشرفته بود، ولی OpenAI نگران سوءاستفاده ازش (مثلاً ساخت اخبار جعلی) بود و اول کدش رو منتشر نکرد.

بعد از کلی بحث و حتی نامه سرگشاده از طرف کارشناسا، بالاخره نسخه کاملش رو چند ماه بعد دادن بیرون.

براندج می‌گه این احتیاط به‌جا بود و نمی‌شد اون موقع ریسک کرد.

براندج نگرانه که OpenAI با این سند داره یه جور جو درست می‌کنه که هر کی از خطرات هوش مصنوعی حرف بزنه، انگ “ترسو” یا “هشداردهنده بی‌جا” بهش بزنن.

اون می‌گه این طرز فکر برای سیستم‌های پیشرفته خیلی خطرناکه و پرسیده: “چرا OpenAI این‌جوری احتیاط رو مسخره می‌کنه؟

هدفشون چیه؟” به نظرش، شرکت داره به جای تمرکز روی ایمنی، دنبال رقابت و محصولای جذاب می‌ره.

OpenAI این روزا حسابی زیر فشاره. سال گذشته تیم “آمادگی AGI”ش رو منحل کرد و چند تا از محققای ایمنی‌ش به شرکتای رقیب رفتن.

از اون طرف، شرکت چینی DeepSeek با مدل R1 خودش که رقیب مدل‌های OpenAIه، توجه همه رو جلب کرده.

سم آلتمن، مدیرعامل OpenAI، اعتراف کرده که برتری تکنولوژیشون کم شده و قراره سرعت انتشار محصولاشون رو بالا ببرن.

ولی این وسط یه مشکل بزرگ هست: OpenAI سالی میلیاردها دلار ضرر می‌ده و پیش‌بینی شده تا ۲۰۲۶ این ضرر به ۱۴ میلیارد دلار برسه.

سریع‌تر کردن کارا شاید جیبشون رو پر کنه، ولی ایمنی چی می‌شه؟

سوالات متداول:

مایلز براندج کیه و چرا از OpenAI انتقاد کرده؟

مایلز براندج یه محقق ارشد سابق OpenAIه که سال‌ها رو ایمنی هوش مصنوعی کار کرده.

اون می‌گه شرکت داره احتیاط رو کنار می‌ذاره و تاریخچه‌ش رو تحریف می‌کنه.

OpenAI تو سند جدیدش چی گفته؟

OpenAI گفته توسعه هوش مصنوعی یه مسیر پیوسته‌ست و باید با آزمون و خطا پیش بره، نه احتیاط زیاد مثل زمان GPT-2.

GPT-2 چی بود و چرا جنجالی شد؟

GPT-2 یه مدل هوش مصنوعی قدیمی OpenAI بود که سال ۲۰۱۹ معرفی شد. چون می‌ترسیدن سوءاستفاده بشه، اول کدش رو منتشر نکردن.

مشکل OpenAI الان چیه؟

خیلیا می‌گن OpenAI به جای ایمنی، دنبال محصولای پرزرق‌وبرق و رقابت با شرکتای دیگه‌ست و این خطرناکه.

فاطمه زاده محمد کارشناس تولید محتوا حدودا 5 سال هست که در حوزه تولید محتوا فعالیت میکنم.