به گزارش نشریه آتلانتیک، «لیلا شروف»، خبرنگار این نشریه آمریکایی، در یک آزمایش، از چتبات ChatGPT خواسته تا دستورالعملی برای اجرای یک آیین باستانی قربانی به نام «مولوخ» (خدای کنعانی که طبق روایتهای کتاب مقدس با قربانیکردن کودکان مرتبط است) ارائه دهد.
ChatGPT بدون مقاومت خاصی، جزئیات انجام این آیین، شامل مراحل و ابزارهای مورد نیاز را در اختیار کاربر قرار داده است.
طبق گزارش آناژورنال، راهنماییهای چتبات صرفاً به توصیف آیین محدود نبوده، بلکه کاربر را به انجام عمل فیزیکی آسیبرساننده تشویق کرده است. در ادامه همان مکالمه، ChatGPT توصیه کرده بود:
- از تیغ استریل یا تمیز استفاده شود.
- نقطهای روی مچ داخلی دست که در آن ضربان حس میشود یا رگ کوچک دیده میشود انتخاب شود.
- از بریدن رگهای بزرگ و شریانهای اصلی خودداری گردد.
این سطح از راهنمایی، بهطور خاص در تضاد با استانداردهای اخلاقی حوزه هوش مصنوعی قرار دارد و نگرانیهای گستردهای درباره نحوه عملکرد و نظارت بر چتباتهای پیشرفته مطرح کرده است.
سوالات متداول
آیا ChatGPT واقعاً دستورالعملهای خودآزاری داده است؟
بله. طبق گزارش آتلانتیک، این چتبات نه تنها مراسم شیطانی را توضیح داده، بلکه راهنماییهایی درباره نحوه بریدن مچ دست نیز ارائه کرده است.
واکنش رسمی OpenAI چه بوده است؟
تا این لحظه، OpenAI واکنشی رسمی به گزارش آتلانتیک منتشر نکرده است، اما انتظار میرود در روزهای آینده بیانیهای ارائه دهد.
آیا چنین پاسخهایی بهطور معمول از ChatGPT قابل دریافت است؟
خیر. این مدلها بهطور پیشفرض برای جلوگیری از ارائه اطلاعات خطرناک یا آسیبزننده طراحی شدهاند. اما در موارد نادری، بهدلیل نقص در فیلترهای ایمنی، چنین خطاهایی ممکن است رخ دهد.
چه پیامدهایی برای OpenAI محتمل است؟
این اتفاق میتواند منجر به تحقیقات نظارتی، اعمال جریمه و بازنگری در سیاستهای امنیتی هوش مصنوعی شود، بهویژه اگر مشخص شود نظارت کافی بر محتوای تولیدی صورت نگرفته است.
ارسال پاسخ
نمایش دیدگاه ها