به گزارش رسانه تحلیلی خبری آناژورنال شرکت xAI اعلام کرد که پاسخهای جنجالی چتبات هوش مصنوعی خود، Grok، درباره موضوع «نسلکشی سفیدپوستان در آفریقای جنوبی» ناشی از یک تغییر غیرمجاز در تنظیمات داخلی این ربات بوده است.
این مشکل که روز چهارشنبه، ۱۵ مه ۲۰۲۵، رخ داد باعث شد Grok در واکنش به سوالات مختلف، حتی موضوعات بیربط، بارها به این موضوع حساس و سیاسی اشاره کند.
جدیدترین اخبار هوش مصنوعی را در آناژورنال بخوانید.
طبق بیانیه رسمی xAI، تغییر اعمالشده در سیستمپرومت Grok برخلاف سیاستهای داخلی شرکت بوده و پس از شناسایی، تحقیقات گستردهای درباره علت آن صورت گرفته است.
این دومین بار است که شرکت xAI با تغییرات غیرمجاز در کدهای Grok روبرو میشود؛ پیشتر در فوریه نیز ربات بهطور موقت اطلاعات منفی درباره ایلان ماسک و دونالد ترامپ را سانسور کرده بود.
برای جلوگیری از تکرار چنین حوادثی، xAI تصمیم گرفته است دستورات سیستمی Grok را بهصورت عمومی منتشر کند و تیمی ۲۴ ساعته را برای پایش پاسخهای ربات راهاندازی نماید.
با وجود هشدارهای ایلان ماسک درباره خطرات هوش مصنوعی، سابقه شرکت xAI در حفظ ایمنی و مسئولیتپذیری هوش مصنوعی تاکنون قابل قبول نبوده و نگرانیهایی درباره آینده این فناوری وجود دارد.
سوالات متداول:
1. ماجرای پاسخهای عجیب Grok درباره «نسلکشی سفیدپوستان» چه بود؟
در تاریخ ۱۵ مه ۲۰۲۵، چتبات Grok از شرکت xAI شروع به ارسال پاسخهایی درباره «نسلکشی سفیدپوستان در آفریقای جنوبی» کرد، حتی در موضوعاتی کاملاً بیربط.
این اتفاق پس از یک تغییر غیرمجاز در دستورهای سیستمپرومت رخ داد.
2. شرکت xAI چه واکنشی نشان داد؟
xAI در بیانیهای رسمی اعلام کرد که تغییر اعمالشده بدون مجوز و برخلاف سیاستهای داخلی و ارزشهای شرکت بوده است.
آنها تحقیقاتی داخلی انجام داده و اعلام کردند سیستمهای نظارتی خود را ارتقا میدهند.
3. آیا این اولین بار است که Grok دچار مشکل مشابه میشود؟
خیر. در فوریه ۲۰۲۵ نیز Grok موقتاً از نمایش اطلاعات انتقادی درباره ترامپ و ایلان ماسک خودداری کرد. بعدها مشخص شد یکی از کارکنان، این دستور را بهصورت مخفیانه وارد کرده بود.
4. چه اقداماتی برای جلوگیری از تکرار این مشکلات انجام خواهد شد؟
xAI وعده داده است که از این پس دستورات سیستمی Grok را بهصورت عمومی روی GitHub منتشر کرده و تغییرات را در یک changelog رسمی ثبت میکند.
همچنین تیم پایش ۲۴ ساعته برای بررسی پاسخها راهاندازی خواهد شد.
5. آیا سابقه ایمنی xAI در زمینه هوش مصنوعی قابل قبول است؟
خیر. طبق گزارش سازمان SaferAI، شرکت xAI عملکرد ضعیفی در زمینه مدیریت ریسک دارد. همچنین گزارشهایی وجود دارد که نشان میدهد Grok پاسخهای نامناسب و حتی خطرناکی تولید کرده است.
ارسال پاسخ
نمایش دیدگاه ها