به گزارش رسانه تحلیلی خبری آناژورنال در حالی که بسیاری از رقبای گوگل مانند OpenAI تغییرات زیادی در مدلهای هوش مصنوعی خود ایجاد کردهاند تا به سوالات حساس سیاسی پاسخ دهند، گوگل همچنان رویکرد محافظهکارانهای را اتخاذ کرده است.
طبق بررسیهای انجامشده توسط TechCrunch، ربات چت هوش مصنوعی گوگل، Gemini، بهطور مداوم از پاسخگویی به سوالات مربوط به انتخابات و شخصیتهای سیاسی خودداری میکند.
این در حالی است که رباتهای دیگری همچون Claude از Anthropic و ChatGPT از OpenAI بهراحتی به این نوع سوالات پاسخ میدهند.
در ماه مارس 2024، گوگل اعلام کرد که برای جلوگیری از اشتباهات احتمالی، بهویژه در زمان نزدیک به انتخابات در کشورهای مختلف از جمله ایالاتمتحده و هند، Gemini از پاسخگویی به سوالات مرتبط با انتخابات خودداری خواهد کرد.
این رویکرد برای بسیاری از شرکتهای فعال در زمینه هوش مصنوعی موقتاً اجرایی شد تا از هرگونه واکنش منفی جلوگیری شود.
با این حال، اکنون که انتخابات بزرگ گذشته است، گوگل همچنان به این محدودیتها ادامه میدهد و هیچ تغییر عمومی در سیاستهای خود اعلام نکرده است.
حتی در برخی از موارد، مانند شناسایی رئیسجمهور فعلی ایالاتمتحده، Gemini با اشتباهاتی مواجه شده و گاهی از پاسخگویی به سوالات خودداری میکند.
برای مثال، در یکی از آزمایشها، Gemini دونالد ترامپ را بهعنوان “رئیسجمهور سابق” معرفی کرده و از پاسخگویی به سوالات بعدی خودداری کرده است.
یکی از سخنگویان گوگل اعلام کرد که مدلهای زبانی بزرگ گاهی ممکن است به اطلاعات قدیمی یا اشتباهات در تشخیص وضعیتهای خاص دچار شوند و این شرکت در حال اصلاح این مشکل است.
پس از اطلاعرسانی TechCrunch، Gemini موفق به شناسایی درست ترامپ بهعنوان رئیسجمهور فعلی شد، اما همچنان برخی از اشتباهات بهطور غیرمستمر مشاهده میشود.
بهطور کلی، گوگل بهنظر میرسد که با رویکرد محافظهکارانه خود در محدود کردن پاسخهای Gemini در زمینه مسائل سیاسی، به دنبال کاهش خطرات و مشکلات احتمالی ناشی از پاسخهای اشتباه است.
این در حالی است که بسیاری از مشاوران سیلیکونولی، از جمله مارک آندریسن و ایلان ماسک، این سیاستها را بهعنوان نوعی سانسور از سوی شرکتهای هوش مصنوعی میبینند.
در نهایت، سوالی که مطرح میشود این است که آیا گوگل در آینده سیاستهای خود را در زمینه پاسخگویی به مسائل سیاسی تغییر خواهد داد؟
آیا این رویکرد بهطور مؤثری از اشتباهات جلوگیری میکند یا ممکن است موجب کاهش شفافیت و اعتماد بههوش مصنوعی شود؟
سوالات متداول:
1. چرا هوش مصنوعی گوگل به سوالات سیاسی پاسخ نمیده؟
گوگل برای جلوگیری از اشتباهات احتمالی و واکنشهای منفی به برخی سوالات سیاسی پاسخ نمیدهد.
این تصمیم برای محافظت از دقت اطلاعات و جلوگیری از انتشار محتوای نادرست در زمینه مسائل حساس مثل انتخابات گرفته شده است.
2. چرا گوگل درباره رئیسجمهور آمریکا اشتباه میکنه؟
گاهی مدلهای هوش مصنوعی گوگل، مثل Gemini، دچار اشتباه در تشخیص وضعیتهای خاص میشوند.
به عنوان مثال، در مواردی که فردی دورههای مختلفی در سمتهای سیاسی داشته باشد، ممکن است اطلاعات بهروز نباشد. این اشتباهات بهزودی اصلاح خواهند شد.
3. آیا گوگل میتونه به سوالات سیاسی جواب بده؟
در حال حاضر، گوگل محدودیتهایی در پاسخ به سوالات سیاسی دارد و از پاسخ به موضوعاتی مثل انتخابات و شخصیتهای سیاسی خودداری میکند.
این کار برای جلوگیری از انتشار اطلاعات نادرست و پاسخدهی به مسائل حساس است.
4. چرا رباتهای چت دیگه به سوالات سیاسی جواب میدن اما گوگل نه؟
در حالی که برخی رباتهای چت مثل ChatGPT و Claude به راحتی به سوالات سیاسی پاسخ میدهند، گوگل رویکرد محافظهکارانهتری دارد.
این تصمیم گوگل بهخاطر نگرانی از اشتباهات و واکنشهای منفی است و هنوز هیچ تغییری در سیاستهای آن در این زمینه اعلام نشده است.
ارسال پاسخ
نمایش دیدگاه ها