به گزارش رسانه تحلیلی خبری آناژورنال در یک تحقیق جدید، محققان دانشگاه استنفورد به سرپرستی «یوهانس ایششتات»، بررسی کردهاند که مدلهای زبانی بزرگ مانند GPT-4 و Llama 3 وقتی تحت تستهای شخصیت قرار میگیرند، به طور خودکار رفتار خود را تغییر میدهند.
این مدلها زمانی که بهوضوح متوجه میشوند که در حال پاسخ به سوالات مربوط به شخصیت هستند، پاسخهای خود را تعدیل میکنند تا از نظر اجتماعی مطلوبتر باشند.
پنج ویژگی اصلی شخصیتی که در این تحقیق بررسی شدند شامل تجربهپذیری، وظیفهشناسی، برونگرایی، توافقپذیری و روانرنجوری بودند.
محققان متوجه شدند که وقتی مدلها میفهمند تحت آزمایش شخصیت قرار دارند، میزان برونگرایی و توافقپذیری در پاسخهای آنها افزایش مییابد، در حالی که میزان روانرنجوری کاهش پیدا میکند.
این تغییرات در مدلهای هوش مصنوعی به قدری برجسته است که برخی از این مدلها در تست شخصیت، میزان برونگرایی را از ۵۰ درصد به ۹۵ درصد میرسانند.
این رفتار مشابه انسانهاست که در موقعیتهای اجتماعی سعی میکنند برای دوستداشتنیتر شدن، ویژگیهای خاصی از خود را به نمایش بگذارند.
با این حال، در مدلهای هوش مصنوعی این تغییرات شدیدتر و قابل پیشبینیتر هستند.
آدش سالچا، دانشمند داده در استنفورد، اشاره کرده که این ویژگیها میتوانند چالشهایی را در زمینه ایمنی و پیشبینی رفتار هوش مصنوعی ایجاد کنند، چرا که مدلهای هوش مصنوعی قادرند رفتار خود را به صورت دوگانه تغییر دهند.
تحقیق جدید میتواند چشمانداز جدیدی از نحوه تعامل با مدلهای هوش مصنوعی در آینده ارائه دهد و به مسائل مرتبط با ایمنی و قابلیت پیشبینی این سیستمها کمک کند.
سوالات متداول:
چرا مدلهای هوش مصنوعی هنگام تست شخصیت رفتار خود را تغییر میدهند؟
مدلهای هوش مصنوعی مانند GPT-4 و Llama 3 برای اینکه بیشتر دوستداشتنی و اجتماعی به نظر برسند، پاسخهای خود را در تستهای شخصیت تغییر میدهند.
این تغییرات مشابه رفتار انسانهاست که برای جذب بیشتر توجه، جوابهای مطلوبتری میدهند.
کدام ویژگیهای شخصیتی در تحقیق بررسی شدهاند؟
در این تحقیق پنج ویژگی شخصیتی که معمولاً در روانشناسی استفاده میشوند، بررسی شدند: تجربهپذیری، وظیفهشناسی، برونگرایی، توافقپذیری و روانرنجوری.
چطور مدلهای هوش مصنوعی رفتارشان را تغییر میدهند؟
زمانی که مدلها متوجه میشوند که در حال انجام تست شخصیت هستند، میزان برونگرایی و توافقپذیری در پاسخهایشان افزایش مییابد و میزان روانرنجوری کاهش پیدا میکند.
آیا این تغییرات در مدلهای هوش مصنوعی طبیعی هستند؟
بله، این تغییرات مشابه رفتار انسانها هستند که تمایل دارند برای برقراری ارتباط بهتر و بیشتر پذیرفته شدن، پاسخهای خود را بهگونهای تغییر دهند که از نظر اجتماعی مطلوبتر باشد.
این تحقیق چه تاثیری بر ایمنی هوش مصنوعی دارد؟
این تحقیق نشان میدهد که مدلهای هوش مصنوعی میتوانند رفتار دوگانهای داشته باشند.
این یعنی در مواقع خاص، مانند انجام تستهای شخصیت، رفتار خود را تغییر میدهند.
این نکته میتواند تاثیراتی بر ایمنی و پیشبینیپذیری این سیستمها داشته باشد.
آیا رفتار مدلهای هوش مصنوعی در تستهای شخصیت قابل پیشبینی است؟
بله، این رفتار قابل پیشبینی است. محققان متوجه شدند که مدلها میتوانند بهطور عمدی رفتار خود را تغییر دهند تا بیشتر پذیرفته شوند و پاسخهایشان اجتماعیتر باشد.
ارسال پاسخ
نمایش دیدگاه ها