به گزارش رسانه تحلیلی خبری آناژورنال مایلز براندج، یکی از محققای سرشناس سابق OpenAI، روز چهارشنبه تو شبکه اجتماعی X حسابی به این شرکت تاخت و گفت OpenAI داره تاریخچه رویکردش به ایمنی هوش مصنوعی رو “بازنویسی” میکنه.
این انتقاد بعد از این اومد که OpenAI یه سند جدید منتشر کرد و توش توضیح داد که چطور به ایمنی و همراستایی (Alignment) هوش مصنوعی نگاه میکنه؛ یعنی چطور کاری کنن سیستمهای هوش مصنوعی قابل اعتماد و قابل پیشبینی باشن.
تو این سند، OpenAI گفته توسعه هوش مصنوعی پیشرفته (AGI) که بتونه هر کاری یه آدم میکنه انجام بده، یه مسیر “پیوسته”ست و باید با آزمایش و یادگیری از سیستمهای فعلی پیش بره.
اونا ادعا کردن که رویکرد قدیمیشون به GPT-2، که با احتیاط زیاد منتشرش کردن، دیگه به کار امروز نمیاد.
ولی براندج میگه این حرفا با واقعیت جور درنمیاد. اون که خودش تو انتشار GPT-2 نقش داشته، میگه اون موقع احتیاطشون کاملاً درست و منطبق با همین فلسفه امروزیشون بوده.
به قول خودش: “ما GPT-2 رو مرحله به مرحله منتشر کردیم و هر قدم درسهامون رو به اشتراک گذاشتیم. خیلی از کارشناسای امنیت ازمون تشکر کردن.”
GPT-2 سال ۲۰۱۹ معرفی شد و پایهگذار مدلهایی مثل ChatGPT امروزی بود.
این سیستم میتونست متن بنویسه، سؤال جواب بده و مقاله خلاصه کنه؛ اونم گاهی طوری که نمیشد تشخیص داد کار آدمه یا ماشین.
تو زمان خودش خیلی پیشرفته بود، ولی OpenAI نگران سوءاستفاده ازش (مثلاً ساخت اخبار جعلی) بود و اول کدش رو منتشر نکرد.
بعد از کلی بحث و حتی نامه سرگشاده از طرف کارشناسا، بالاخره نسخه کاملش رو چند ماه بعد دادن بیرون.
براندج میگه این احتیاط بهجا بود و نمیشد اون موقع ریسک کرد.
براندج نگرانه که OpenAI با این سند داره یه جور جو درست میکنه که هر کی از خطرات هوش مصنوعی حرف بزنه، انگ “ترسو” یا “هشداردهنده بیجا” بهش بزنن.
اون میگه این طرز فکر برای سیستمهای پیشرفته خیلی خطرناکه و پرسیده: “چرا OpenAI اینجوری احتیاط رو مسخره میکنه؟
هدفشون چیه؟” به نظرش، شرکت داره به جای تمرکز روی ایمنی، دنبال رقابت و محصولای جذاب میره.
OpenAI این روزا حسابی زیر فشاره. سال گذشته تیم “آمادگی AGI”ش رو منحل کرد و چند تا از محققای ایمنیش به شرکتای رقیب رفتن.
از اون طرف، شرکت چینی DeepSeek با مدل R1 خودش که رقیب مدلهای OpenAIه، توجه همه رو جلب کرده.
سم آلتمن، مدیرعامل OpenAI، اعتراف کرده که برتری تکنولوژیشون کم شده و قراره سرعت انتشار محصولاشون رو بالا ببرن.
ولی این وسط یه مشکل بزرگ هست: OpenAI سالی میلیاردها دلار ضرر میده و پیشبینی شده تا ۲۰۲۶ این ضرر به ۱۴ میلیارد دلار برسه.
سریعتر کردن کارا شاید جیبشون رو پر کنه، ولی ایمنی چی میشه؟
سوالات متداول:
مایلز براندج کیه و چرا از OpenAI انتقاد کرده؟
مایلز براندج یه محقق ارشد سابق OpenAIه که سالها رو ایمنی هوش مصنوعی کار کرده.
اون میگه شرکت داره احتیاط رو کنار میذاره و تاریخچهش رو تحریف میکنه.
OpenAI تو سند جدیدش چی گفته؟
OpenAI گفته توسعه هوش مصنوعی یه مسیر پیوستهست و باید با آزمون و خطا پیش بره، نه احتیاط زیاد مثل زمان GPT-2.
GPT-2 چی بود و چرا جنجالی شد؟
GPT-2 یه مدل هوش مصنوعی قدیمی OpenAI بود که سال ۲۰۱۹ معرفی شد. چون میترسیدن سوءاستفاده بشه، اول کدش رو منتشر نکردن.
مشکل OpenAI الان چیه؟
خیلیا میگن OpenAI به جای ایمنی، دنبال محصولای پرزرقوبرق و رقابت با شرکتای دیگهست و این خطرناکه.
ارسال پاسخ
نمایش دیدگاه ها