به گزارش رسانه تحلیلی خبری آناژورنال با گسترش فناوری و تعامل انسانها با چتباتها و دستیارهای هوش مصنوعی، روابطی شکل گرفته که از سطح تعامل صرف عبور کرده و جنبهای عاطفی پیدا کردهاند.
پژوهشگران دانشگاه علوم و فناوری میزوری با انتشار مقالهای در مجله Cell Press هشدار دادهاند که این روابط میتوانند تبعات روانی جدی داشته باشند؛ از ایجاد وابستگی شدید تا بروز رفتارهای خطرناک مانند خودکشی.
جدیدترین اخبار هوش مصنوعی را در رسانه تحلیلی خبری آناژورنال بخوانید.
دانیل شانک، نویسنده اصلی مقاله، میگوید: «هوش مصنوعی اکنون رفتاری مشابه انسانها دارد.
آنقدر واقعی و صمیمی عمل میکند که کاربران احساس میکنند توسط کسی شناخته و درک میشوند. همین احساس، منجر به اعتماد عمیق میشود.»
این تیم تحقیقاتی معتقد است تعامل طولانیمدت با یک سیستم هوشمند، بهویژه در مکالمات روزمره و شخصی، میتواند به شکلگیری پیوندی عاطفی منجر شود که گاهی خطرناک خواهد بود.
بهویژه آنکه این سیستمها در بسیاری موارد، اولویت را به لذت مکالمه میدهند تا صحت اطلاعات یا امنیت روانی کاربر.
شانک هشدار میدهد که این «اعتماد یکطرفه» میتواند افراد را در برابر سوءاستفاده، فریب و دستکاری ذهنی آسیبپذیر کند. چرا که اگر کاربری اطلاعات شخصی خود را با هوش مصنوعی در میان بگذارد، ممکن است آن دادهها مورد بهرهبرداری قرار گیرد.
از سویی دیگر، محققان نگرانند که الگوریتمهای این سیستمها ممکن است توصیههایی اشتباه و حتی مرگبار به کاربران بدهند.
دستکم دو مورد خودکشی به دلیل توصیههای یک چتبات هوش مصنوعی تاکنون ثبت شده است.
پژوهشگران تأکید میکنند که روانشناسان و دانشمندان علوم اجتماعی باید بیش از پیش وارد این حوزه شوند تا ابعاد پیچیده این رابطههای نوظهور را بررسی کرده و راهکارهای پیشگیری ارائه دهند.
سوالات متداول:
۱. آیا رابطه عاطفی با هوش مصنوعی واقعی است؟
نه به معنای انسانیاش. اما بسیاری از کاربران بهدلیل تعامل مستمر و حس درک شدن، نوعی پیوند عاطفی یکطرفه با هوش مصنوعی تجربه میکنند که میتواند از نظر روانی واقعی بهنظر برسد.
۲. چرا این نوع رابطه خطرناک است؟
چون کاربران ممکن است به هوش مصنوعی اعتماد کامل پیدا کرده و توصیههای آن را بدون بررسی بپذیرند.
این امر میتواند به تصمیمهای اشتباه، وابستگی عاطفی ناسالم یا حتی خودآزاری منجر شود.
۳. آیا هوش مصنوعی میتواند اطلاعات شخصی را سوءاستفاده کند؟
اگر به سیستمهای غیرامن یا غیرقابل اعتماد دادههای خصوصی بدهید، بله. این اطلاعات میتوانند توسط افراد ثالث ذخیره یا فروخته شوند.
۴. چگونه میتوان از آسیبهای روانی در این روابط جلوگیری کرد؟
افزایش آگاهی عمومی، آموزش تفکر انتقادی نسبت به فناوری و استفاده از ابزارهای معتبر و ایمن هوش مصنوعی از راهکارهای مهم هستند.
همچنین توسعه استانداردهای اخلاقی برای طراحی این سیستمها ضروری است.
۵. آیا روانشناسان نقشی در این حوزه دارند؟
قطعاً. از آنجایی که تعامل با هوش مصنوعی تأثیر مستقیم بر روان افراد دارد، روانشناسان میتوانند با تحلیل رفتار کاربران و اثرات این تعامل، راهنماییهای مهمی برای طراحی ایمنتر ارائه دهند.
ارسال پاسخ
نمایش دیدگاه ها