دیپ‌مایند: AGI تا 2030 می‌تواند تهدیدات بزرگی برای ایمنی بشریت ایجاد کند

دیپ‌مایند در مقاله‌ای جدید، خطرات و چالش‌های ایمنی هوش مصنوعی عمومی (AGI) را تا سال 2030 بررسی کرده و به نیاز فوری برای اقدامات ایمنی مناسب هشدار داده است.

دیپ‌مایند: AGI تا 2030 می‌تواند تهدیدات بزرگی برای ایمنی بشریت ایجاد کند
دیپ‌مایند: AGI تا 2030 می‌تواند تهدیدات بزرگی برای ایمنی بشریت ایجاد کند
کانال تلگرام آناژورنال

به گزارش رسانه تحلیلی خبری آناژورنال دیپ‌مایند، زیرمجموعه‌ای از گوگل، اخیراً مقاله‌ای جامع ۱۴۵ صفحه‌ای را منتشر کرده که رویکرد این شرکت را در زمینه ایمنی AGI (هوش مصنوعی عمومی) شرح می‌دهد و پیش‌بینی می‌کند که AGI ممکن است تا سال ۲۰۳۰ به وجود بیاید.

این مقاله که توسط شین لگ، بنیان‌گذار دیپ‌مایند، نوشته شده است، خطرات احتمالی AGI را مطرح می‌کند، از جمله «خطرات وجودی» که می‌توانند «برای همیشه بشریت را نابود کنند».

جدیدترین اخبار هوش مصنوعی را در رسانه تحلیلی خبری آناژورنال بخوانید.

با این حال، پیشنهادات این مقاله، هرچند جامع، ممکن است نتواند شکاکان در زمینه هوش مصنوعی را به طور کامل متقاعد کند، زیرا بسیاری از آنها معتقدند که AGI هنوز بیشتر یک ایده گمانه‌زنی است تا واقعیتی قریب‌الوقوع.

این مقاله رویکرد دیپ‌مایند در زمینه کاهش خطرات AGI را با رویکردهای سایر آزمایشگاه‌های بزرگ هوش مصنوعی مانند آنتروپیک و اوپن‌ای‌آی مقایسه می‌کند و بر اهمیت آموزش، نظارت و امنیت قوی تأکید دارد.

همچنین در مورد ظهور سریع هوش مصنوعی فراتر از انسان (Superintelligence) تردید دارد و اشاره می‌کند که پارادایم‌های فعلی هوش مصنوعی ممکن است برای ایجاد سیستم‌های فراتر از انسان به‌زودی کافی نباشند.

با این حال، این مقاله به خطر «بهبود خودگردان هوش مصنوعی» اشاره می‌کند، جایی که سیستم‌های هوش مصنوعی می‌توانند به‌طور خودکار خود را بهبود دهند و نسخه‌های پیچیده‌تر و احتمالاً خطرناک‌تری از خود بسازند.

این مقاله از توسعه تکنیک‌هایی برای جلوگیری از دسترسی بازیگران بد به AGI، بهبود درک رفتارهای سیستم‌های هوش مصنوعی و «تقویت» محیط‌هایی که هوش مصنوعی می‌تواند در آن عمل کند، حمایت می‌کند.

با اینکه این مقاله تجزیه و تحلیل کاملی دارد، برخی از کارشناسان همچنان متقاعد نشده‌اند.

منتقدان معتقدند که AGI برای ارزیابی علمی دقیق هنوز به اندازه کافی تعریف‌ شده نیست و مسائلی مانند تقویت نادرست داده‌ها توسط هوش مصنوعی ممکن است از خطرات ایجاد AGI فوری مهم‌تر باشند.

اگرچه مقاله دیپ‌مایند نگاهی به رویکرد ایمنی AGI دارد، اما همچنان مشخص نیست که آیا این مقاله می‌تواند شک و تردیدهای موجود در مورد توسعه قریب‌الوقوع AGI را از بین ببرد یا نه.

سوالات متداول:

۱. AGI چیست؟
AGI (هوش مصنوعی عمومی) نوعی هوش مصنوعی است که می‌تواند هر کاری که انسان‌ها قادر به انجام آن هستند را انجام دهد.

برخلاف هوش مصنوعی خاص، AGI توانایی یادگیری و انطباق با انواع مختلف وظایف را دارد.

۲. چرا ایمنی AGI اینقدر اهمیت دارد؟
چرا که AGI می‌تواند در صورت نداشتن کنترل‌های مناسب، به تهدیدات جدی برای بشریت تبدیل شود.

این تهدیدات می‌تواند شامل خطرات وجودی باشد که منجر به نابودی انسان‌ها یا آسیب‌های جبران‌ناپذیر به سیاره شود.

۳. چه زمانی AGI ممکن است به واقعیت تبدیل شود؟
طبق پیش‌بینی دیپ‌مایند، AGI ممکن است تا سال 2030 به وجود آید.

با این حال، برخی کارشناسان هنوز بر این باورند که این نوع هوش مصنوعی ممکن است فاصله زیادی از تحقق داشته باشد.

۴. دیپ‌مایند چگونه به ایمنی AGI پرداخته است؟
دیپ‌مایند در مقاله خود بر اهمیت تکنیک‌های امنیتی مانند جلوگیری از دسترسی بازیگران بد به AGI، بهبود درک رفتارهای سیستم‌های هوش مصنوعی، و تقویت محیط‌هایی که AGI در آن‌ها فعالیت می‌کند، تأکید کرده است.

۵. آیا AGI تهدیدی فوری برای بشریت است؟
با وجود پیشرفت‌های زیاد در زمینه هوش مصنوعی، هنوز AGI به طور کامل ساخته نشده است.

با این حال، خطرات و چالش‌های ایمنی آن می‌تواند در آینده‌ای نزدیک جدی باشد، به‌ویژه اگر این تکنولوژی به‌طور نادرست کنترل شود.

۶. آیا می‌توان AGI را تحت کنترل درآورد؟
تحقیقات دیپ‌مایند به‌طور خاص بر توسعه تکنیک‌هایی متمرکز است که می‌تواند از دسترسی غیرمجاز به AGI جلوگیری کرده و رفتار آن را قابل پیش‌بینی‌تر کند، اما هنوز چالش‌های زیادی وجود دارد که نیاز به حل شدن دارند.

تبلیغ در آناژورنال بنری
فاطمه زاده محمد کارشناس تولید محتوا حدودا 5 سال هست که در حوزه تولید محتوا فعالیت میکنم.