چرا گوگل از پاسخ‌گویی به سوالات سیاسی خودداری می‌کند؟رازهای پشت پرده Gemini

گوگل هنوز از پاسخ‌گویی به سوالات سیاسی با هوش مصنوعی خود محدودیت می‌گذارد. چرا این تصمیم را اتخاذ کرده و چه تاثیراتی دارد؟

چرا گوگل از پاسخ‌گویی به سوالات سیاسی خودداری می‌کند؟رازهای پشت پرده Gemini
چرا گوگل از پاسخ‌گویی به سوالات سیاسی خودداری می‌کند؟رازهای پشت پرده Gemini

به گزارش رسانه تحلیلی خبری آناژورنال در حالی که بسیاری از رقبای گوگل مانند OpenAI تغییرات زیادی در مدل‌های هوش مصنوعی خود ایجاد کرده‌اند تا به سوالات حساس سیاسی پاسخ دهند، گوگل همچنان رویکرد محافظه‌کارانه‌ای را اتخاذ کرده است.

طبق بررسی‌های انجام‌شده توسط TechCrunch، ربات چت هوش مصنوعی گوگل، Gemini، به‌طور مداوم از پاسخ‌گویی به سوالات مربوط به انتخابات و شخصیت‌های سیاسی خودداری می‌کند.

این در حالی است که ربات‌های دیگری همچون Claude از Anthropic و ChatGPT از OpenAI به‌راحتی به این نوع سوالات پاسخ می‌دهند.

در ماه مارس 2024، گوگل اعلام کرد که برای جلوگیری از اشتباهات احتمالی، به‌ویژه در زمان نزدیک به انتخابات در کشورهای مختلف از جمله ایالات‌متحده و هند، Gemini از پاسخ‌گویی به سوالات مرتبط با انتخابات خودداری خواهد کرد.

این رویکرد برای بسیاری از شرکت‌های فعال در زمینه هوش مصنوعی موقتاً اجرایی شد تا از هرگونه واکنش منفی جلوگیری شود.

با این حال، اکنون که انتخابات بزرگ گذشته است، گوگل همچنان به این محدودیت‌ها ادامه می‌دهد و هیچ تغییر عمومی در سیاست‌های خود اعلام نکرده است.

حتی در برخی از موارد، مانند شناسایی رئیس‌جمهور فعلی ایالات‌متحده، Gemini با اشتباهاتی مواجه شده و گاهی از پاسخ‌گویی به سوالات خودداری می‌کند.

برای مثال، در یکی از آزمایش‌ها، Gemini دونالد ترامپ را به‌عنوان “رئیس‌جمهور سابق” معرفی کرده و از پاسخ‌گویی به سوالات بعدی خودداری کرده است.

یکی از سخنگویان گوگل اعلام کرد که مدل‌های زبانی بزرگ گاهی ممکن است به اطلاعات قدیمی یا اشتباهات در تشخیص وضعیت‌های خاص دچار شوند و این شرکت در حال اصلاح این مشکل است.

پس از اطلاع‌رسانی TechCrunch، Gemini موفق به شناسایی درست ترامپ به‌عنوان رئیس‌جمهور فعلی شد، اما همچنان برخی از اشتباهات به‌طور غیرمستمر مشاهده می‌شود.

به‌طور کلی، گوگل به‌نظر می‌رسد که با رویکرد محافظه‌کارانه خود در محدود کردن پاسخ‌های Gemini در زمینه مسائل سیاسی، به دنبال کاهش خطرات و مشکلات احتمالی ناشی از پاسخ‌های اشتباه است.

این در حالی است که بسیاری از مشاوران سیلیکون‌ولی، از جمله مارک آندریسن و ایلان ماسک، این سیاست‌ها را به‌عنوان نوعی سانسور از سوی شرکت‌های هوش مصنوعی می‌بینند.

در نهایت، سوالی که مطرح می‌شود این است که آیا گوگل در آینده سیاست‌های خود را در زمینه پاسخ‌گویی به مسائل سیاسی تغییر خواهد داد؟

آیا این رویکرد به‌طور مؤثری از اشتباهات جلوگیری می‌کند یا ممکن است موجب کاهش شفافیت و اعتماد به‌هوش مصنوعی شود؟

سوالات متداول:

1. چرا هوش مصنوعی گوگل به سوالات سیاسی پاسخ نمی‌ده؟

گوگل برای جلوگیری از اشتباهات احتمالی و واکنش‌های منفی به برخی سوالات سیاسی پاسخ نمی‌دهد.

این تصمیم برای محافظت از دقت اطلاعات و جلوگیری از انتشار محتوای نادرست در زمینه مسائل حساس مثل انتخابات گرفته شده است.

2. چرا گوگل درباره رئیس‌جمهور آمریکا اشتباه می‌کنه؟

گاهی مدل‌های هوش مصنوعی گوگل، مثل Gemini، دچار اشتباه در تشخیص وضعیت‌های خاص می‌شوند.

به عنوان مثال، در مواردی که فردی دوره‌های مختلفی در سمت‌های سیاسی داشته باشد، ممکن است اطلاعات به‌روز نباشد. این اشتباهات به‌زودی اصلاح خواهند شد.

3. آیا گوگل می‌تونه به سوالات سیاسی جواب بده؟

در حال حاضر، گوگل محدودیت‌هایی در پاسخ به سوالات سیاسی دارد و از پاسخ به موضوعاتی مثل انتخابات و شخصیت‌های سیاسی خودداری می‌کند.

این کار برای جلوگیری از انتشار اطلاعات نادرست و پاسخ‌دهی به مسائل حساس است.

4. چرا ربات‌های چت دیگه به سوالات سیاسی جواب میدن اما گوگل نه؟

در حالی که برخی ربات‌های چت مثل ChatGPT و Claude به راحتی به سوالات سیاسی پاسخ می‌دهند، گوگل رویکرد محافظه‌کارانه‌تری دارد.

این تصمیم گوگل به‌خاطر نگرانی از اشتباهات و واکنش‌های منفی است و هنوز هیچ تغییری در سیاست‌های آن در این زمینه اعلام نشده است.

فاطمه زاده محمد کارشناس تولید محتوا حدودا 5 سال هست که در حوزه تولید محتوا فعالیت میکنم.