به گزارش رسانه تحلیلی خبری آناژورنال مدلهای هوش مصنوعی که توسط شرکتهای چینی مانند «دیپسیک» توسعه یافتهاند، به شدت تحت تأثیر سانسور سیاسی قرار دارند و از تولید محتوای حساس یا مخالف دولت چین خودداری میکنند.
طبق قوانین جدیدی که در سال ۲۰۲۳ تصویب شد، مدلهای هوش مصنوعی از ایجاد محتوای مخالف وحدت کشور یا هماهنگی اجتماعی منع شدهاند.
این موضوع باعث شده که مدلهایی مانند مدل R1 دیپسیک از پاسخ به 85 درصد از سوالات سیاسی حساس اجتناب کنند.
در حالی که این سانسور در مدلهای چینی به وضوح مشاهده میشود، نکته جالب توجه این است که شدت سانسور بسته به زبانی که با آن از مدلها سوال میشود، تغییر میکند.
xlr8harder، یک توسعهدهنده و محقق، آزمایشی برای ارزیابی آزادی بیان مدلهای مختلف هوش مصنوعی انجام داد و نتایج نشان داد که حتی مدلهای توسعهیافته در غرب، مانند Claude 3.7 Sonnet، زمانی که سوالات مشابه به زبان چینی پرسیده میشود، کمتر از خود تمایل به پاسخدهی نشان میدهند.
این تفاوت در پاسخدهی به زبانها به احتمال زیاد به دلیل سانسور دادههای آموزشی است که مدلهای چینی با آنها آموزش دیدهاند.
بخش عمدهای از دادههای چینی که برای آموزش این مدلها استفاده میشود، احتمالاً از نظر سیاسی سانسور شده است و این امر بر نحوه پاسخدهی مدلها تاثیر میگذارد.
کارشناسان همچنین بر این باورند که تفاوتها در پاسخها ناشی از ناهماهنگی در فرآیندهای آموزشی و تفاوتهای فرهنگی و اجتماعی است.
این تحقیق و نتایج آن نشاندهنده چالشهای بزرگتری است که در زمینههای فرهنگی و سیاسی برای مدلهای هوش مصنوعی در سطح جهانی وجود دارد.
بسیاری از کارشناسان عقیده دارند که باید توجه بیشتری به نحوه طراحی و استفاده از این مدلها در زمینههای مختلف فرهنگی و سیاسی صورت گیرد.
سوالات متداول:
1. چرا مدلهای هوش مصنوعی چینی به سوالات سیاسی حساس پاسخ نمیدهند؟
مدلهای هوش مصنوعی چینی به دلیل سیاستهای سانسور در کشور چین، از پاسخ دادن به سوالات مربوط به مسائل سیاسی و اجتماعی حساس خودداری میکنند.
این به دلیل قوانین سختگیرانهای است که برای محافظت از امنیت و وحدت ملی چین در نظر گرفته شده است.
2. آیا مدلهای هوش مصنوعی غربی هم تحت تاثیر سانسور هستند؟
بله، مدلهای هوش مصنوعی غربی مانند Claude 3.7 Sonnet ممکن است به سوالات سیاسی حساس در زبان چینی پاسخ ندهند، حتی اگر در زبانهای دیگر مانند انگلیسی، به راحتی پاسخ میدهند.
این تفاوت به دلیل محدودیتهای آموزشی و محتوای سانسورشدهای است که مدلها با آن آموزش دیدهاند.
3. آیا زبان چینی تأثیری بر عملکرد مدلهای هوش مصنوعی دارد؟
بله، زبان چینی بر پاسخهای مدلهای هوش مصنوعی تأثیر میگذارد.
بسیاری از مدلها، بهویژه آنهایی که در چین توسعه یافتهاند، با دادههای سانسورشده آموزشی آموزش دیدهاند، بنابراین وقتی به زبان چینی سوالات سیاسی حساس پرسیده میشود، مدلها ممکن است از پاسخدهی خودداری کنند.
4. آیا فقط مدلهای چینی سانسور دارند؟
خیر، اگرچه مدلهای چینی بیشتر از سانسور استفاده میکنند، مدلهای غربی نیز تحت تأثیر برخی سیاستها و محدودیتها قرار دارند.
اما در کل، مدلهای چینی نسبت به مسائل سیاسی حساس بسیار محدودتر عمل میکنند.
5. چرا مدلهای هوش مصنوعی به سوالات به زبان چینی متفاوت از انگلیسی پاسخ میدهند؟
این تفاوت به دلیل محدودیتهایی است که در دادههای آموزشی مدلها برای زبان چینی وجود دارد.
اکثر مدلها برای زبان چینی با دادههایی آموزش دیدهاند که تحت تاثیر سانسورهای شدید قرار دارند، در حالی که دادههای آموزشی برای زبانهای دیگر مانند انگلیسی کمتر محدود شده است.
ارسال پاسخ
نمایش دیدگاه ها