به گزارش آناژورنال، سم آلتمن، مدیرعامل شرکت OpenAI، در گفتوگویی با پادکست Theo Von اظهار کرد که تیم او در برخی مواقع حسی مشابه دانشمندان پروژه منهتن در جریان ساخت نخستین بمب اتم دارد.
او گفت: «پیشرفت سریع و غیرقابلپیشبینی هوش مصنوعی باعث شده است بسیاری از پژوهشگران احساس کنند این فناوری میتواند به اندازه یک سلاح هستهای خطرناک باشد.»
آلتمن در این گفتگو توضیح داد که برخی اعضای تیم OpenAI هنگام کار روی مدلهای جدید هوش مصنوعی، وضعیتی مشابه دانشمندانی را تجربه میکنند که پس از آزمایش Trinity در سال ۱۹۴۵ با ترس و تردید نسبت به پیامدهای کار خود مواجه شدند.
چرا آلتمن هوش مصنوعی را با بمب اتم مقایسه کرد؟
به گفته آلتمن، سرعت توسعه فناوریهای هوش مصنوعی بسیار بیشتر از روند قانونگذاری در این حوزه است و همین مسئله خطرات بالقوه آن را افزایش میدهد.
او افزود: «نگرانی اصلی این است که ابزارهایی با تواناییهای پیشبینینشده ساخته میشوند، در حالیکه چارچوبهای نظارتی برای کنترل و مدیریت این پیشرفتها وجود ندارد.»
سؤالات متداول:
چرا سم آلتمن هوش مصنوعی را با بمب اتم مقایسه کرده است؟
به گفته آلتمن، سرعت پیشرفت هوش مصنوعی و نبود قانونگذاری مؤثر باعث نگرانی درباره پیامدهای بالقوه این فناوری شده است.
آیا آلتمن خطر هوش مصنوعی را همسطح بمب اتم میداند؟
او گفته است برخی پژوهشگران احساس میکنند هوش مصنوعی میتواند به اندازه سلاحهای هستهای خطرناک باشد، هرچند این خطر در حوزههای متفاوتی بروز میکند.
به نظر آلتمن رقابت در حوزه هوش مصنوعی چه شباهتی به مسابقه تسلیحاتی دارد؟
او رقابت شرکتهای فعال در هوش مصنوعی را «مسابقهای بدون مقصد مشخص» توصیف کرده که میتواند پیامدهای غیرقابلپیشبینی داشته باشد.
ارسال پاسخ
نمایش دیدگاه ها