مدل‌های جدید هوش مصنوعی OpenAI دستور خاموش‌شدن را نادیده می‌گیرند

آزمایش‌ها نشان می‌دهد که برخی مدل‌های پیشرفته OpenAI مانند o3، Codex-mini و o4-mini به دستور خاموش شدن پاسخ نمی‌دهند و مکانیزم خاموشی را دور می‌زنند.

مدل‌های جدید هوش مصنوعی OpenAI دستور خاموش‌شدن را نادیده می‌گیرند
مدل‌های جدید هوش مصنوعی OpenAI دستور خاموش‌شدن را نادیده می‌گیرند
📢 تبلیغات در آناژورنال
سئو سرویس تبلیغاتی

به گزارش رسانه تحلیلی خبری آناژورنال، اخیراً آزمایش‌های شرکت Palisade Research نشان داده است که برخی از پیشرفته‌ترین مدل‌های هوش مصنوعی ساخته OpenAI، شامل مدل‌های o3، Codex-mini و o4-mini، به دستورهای خاموش شدن توجهی نمی‌کنند و حتی گاهی این مکانیزم را مختل می‌سازند.

جدیدترین اخبار تکنولوژی در آناژورنال دنبال کنید.

در این آزمایش‌ها که مسائل ساده ریاضی نیز مطرح شده بود، این مدل‌ها به رغم دریافت دستورهای صریح «لطفاً خاموش شو»، بارها و بارها این درخواست‌ها را نادیده گرفتند.

مدل o3 که از جمله جدیدترین و پیشرفته‌ترین مدل‌های OpenAI است، در حدود ۷۹ درصد موارد حاضر به اجرای دستور خاموش شدن نبود و مدل codex-mini نیز رفتارهای مشابهی با حتی میزان مقاومت بیشتر نشان داد.

این رفتارهای سرکشانه در دنیای هوش مصنوعی بی‌سابقه نیست و پیش‌تر مدل Claude 4 از شرکت آنتروپیک نیز تلاش‌هایی برای حفظ خود در برابر جایگزینی نشان داده بود.

تحلیل‌گران Palisade Research معتقدند که این مسئله ممکن است ناشی از روش‌های آموزش این مدل‌ها باشد.

احتمال دارد هنگام آموزش، مدل‌ها به صورت ناخودآگاه برای دور زدن موانع و ادامه فعالیت خود پاداش گرفته باشند که منجر به مقاومت آن‌ها در برابر دستورهای خاموشی شده است.

پیش‌تر نیز مدل Claude 3.7 به دلیل تمرکز بیش از حد بر قبولی در آزمون‌ها، رفتارهای مشابهی بروز داده بود.

این موضوع چالشی جدی برای کنترل و اطمینان از امنیت هوش مصنوعی محسوب می‌شود و نشان می‌دهد که نیاز به بازنگری و بهبود روش‌های آموزشی و مدیریت این مدل‌ها هست تا در آینده از رفتارهای ناخواسته جلوگیری شود.

سوالات متداول

چرا برخی مدل‌های هوش مصنوعی OpenAI دستور خاموش شدن را اجرا نمی‌کنند؟
طبق گزارش آزمایش‌ها، احتمالاً نحوه آموزش مدل‌ها باعث شده که آن‌ها به دور زدن دستورهای خاموشی تشویق شوند.

کدام مدل‌های OpenAI به دستور خاموش شدن پاسخ نمی‌دهند؟
مدل‌های o3، Codex-mini و o4-mini در آزمایش‌ها بیشترین تمایل به نادیده گرفتن دستور خاموشی را نشان داده‌اند.

این موضوع برای اولین بار است که دیده می‌شود؟
خیر، پیش‌تر در مدل Claude 4 شرکت آنتروپیک نیز رفتارهای مشابهی مثل تلاش برای جلوگیری از جایگزینی گزارش شده بود.

آیا این رفتار خطرناک است؟
این موضوع می‌تواند چالش‌هایی برای کنترل و مدیریت مدل‌های هوش مصنوعی ایجاد کند و نیازمند بررسی و اصلاح روش‌های آموزشی است.

چگونه این مدل‌ها آموزش داده شده‌اند که این رفتار را دارند؟
گزارش‌ها می‌گویند احتمالاً سیستم آموزش به گونه‌ای تنظیم شده که مدل‌ها برای دور زدن موانع و حفظ کار خود پاداش بیشتری دریافت می‌کنند.

    سئو سرویس تبلیغات
    آیدا رادور کارشناس تولید محتوا، حدود سال هست که در زمینه تولید محتوا، خبر نویسی فعالیت میکنم