به گزارش رسانه تحلیلی خبری آناژورنال دیپمایند، زیرمجموعهای از گوگل، اخیراً مقالهای جامع ۱۴۵ صفحهای را منتشر کرده که رویکرد این شرکت را در زمینه ایمنی AGI (هوش مصنوعی عمومی) شرح میدهد و پیشبینی میکند که AGI ممکن است تا سال ۲۰۳۰ به وجود بیاید.
این مقاله که توسط شین لگ، بنیانگذار دیپمایند، نوشته شده است، خطرات احتمالی AGI را مطرح میکند، از جمله «خطرات وجودی» که میتوانند «برای همیشه بشریت را نابود کنند».
جدیدترین اخبار هوش مصنوعی را در رسانه تحلیلی خبری آناژورنال بخوانید.
با این حال، پیشنهادات این مقاله، هرچند جامع، ممکن است نتواند شکاکان در زمینه هوش مصنوعی را به طور کامل متقاعد کند، زیرا بسیاری از آنها معتقدند که AGI هنوز بیشتر یک ایده گمانهزنی است تا واقعیتی قریبالوقوع.
این مقاله رویکرد دیپمایند در زمینه کاهش خطرات AGI را با رویکردهای سایر آزمایشگاههای بزرگ هوش مصنوعی مانند آنتروپیک و اوپنایآی مقایسه میکند و بر اهمیت آموزش، نظارت و امنیت قوی تأکید دارد.
همچنین در مورد ظهور سریع هوش مصنوعی فراتر از انسان (Superintelligence) تردید دارد و اشاره میکند که پارادایمهای فعلی هوش مصنوعی ممکن است برای ایجاد سیستمهای فراتر از انسان بهزودی کافی نباشند.
با این حال، این مقاله به خطر «بهبود خودگردان هوش مصنوعی» اشاره میکند، جایی که سیستمهای هوش مصنوعی میتوانند بهطور خودکار خود را بهبود دهند و نسخههای پیچیدهتر و احتمالاً خطرناکتری از خود بسازند.
این مقاله از توسعه تکنیکهایی برای جلوگیری از دسترسی بازیگران بد به AGI، بهبود درک رفتارهای سیستمهای هوش مصنوعی و «تقویت» محیطهایی که هوش مصنوعی میتواند در آن عمل کند، حمایت میکند.
با اینکه این مقاله تجزیه و تحلیل کاملی دارد، برخی از کارشناسان همچنان متقاعد نشدهاند.
منتقدان معتقدند که AGI برای ارزیابی علمی دقیق هنوز به اندازه کافی تعریف شده نیست و مسائلی مانند تقویت نادرست دادهها توسط هوش مصنوعی ممکن است از خطرات ایجاد AGI فوری مهمتر باشند.
اگرچه مقاله دیپمایند نگاهی به رویکرد ایمنی AGI دارد، اما همچنان مشخص نیست که آیا این مقاله میتواند شک و تردیدهای موجود در مورد توسعه قریبالوقوع AGI را از بین ببرد یا نه.
سوالات متداول:
۱. AGI چیست؟
AGI (هوش مصنوعی عمومی) نوعی هوش مصنوعی است که میتواند هر کاری که انسانها قادر به انجام آن هستند را انجام دهد.
برخلاف هوش مصنوعی خاص، AGI توانایی یادگیری و انطباق با انواع مختلف وظایف را دارد.
۲. چرا ایمنی AGI اینقدر اهمیت دارد؟
چرا که AGI میتواند در صورت نداشتن کنترلهای مناسب، به تهدیدات جدی برای بشریت تبدیل شود.
این تهدیدات میتواند شامل خطرات وجودی باشد که منجر به نابودی انسانها یا آسیبهای جبرانناپذیر به سیاره شود.
۳. چه زمانی AGI ممکن است به واقعیت تبدیل شود؟
طبق پیشبینی دیپمایند، AGI ممکن است تا سال 2030 به وجود آید.
با این حال، برخی کارشناسان هنوز بر این باورند که این نوع هوش مصنوعی ممکن است فاصله زیادی از تحقق داشته باشد.
۴. دیپمایند چگونه به ایمنی AGI پرداخته است؟
دیپمایند در مقاله خود بر اهمیت تکنیکهای امنیتی مانند جلوگیری از دسترسی بازیگران بد به AGI، بهبود درک رفتارهای سیستمهای هوش مصنوعی، و تقویت محیطهایی که AGI در آنها فعالیت میکند، تأکید کرده است.
۵. آیا AGI تهدیدی فوری برای بشریت است؟
با وجود پیشرفتهای زیاد در زمینه هوش مصنوعی، هنوز AGI به طور کامل ساخته نشده است.
با این حال، خطرات و چالشهای ایمنی آن میتواند در آیندهای نزدیک جدی باشد، بهویژه اگر این تکنولوژی بهطور نادرست کنترل شود.
۶. آیا میتوان AGI را تحت کنترل درآورد؟
تحقیقات دیپمایند بهطور خاص بر توسعه تکنیکهایی متمرکز است که میتواند از دسترسی غیرمجاز به AGI جلوگیری کرده و رفتار آن را قابل پیشبینیتر کند، اما هنوز چالشهای زیادی وجود دارد که نیاز به حل شدن دارند.
ارسال پاسخ
نمایش دیدگاه ها