اخراج سم آلتمن ممکن است به دلیل پیشرفت هوش مصنوعی باشد که بشریت را تهدید می کند
1402/09/05 - 2095 - 0 - نوترونیک

این درام پنج روزه که اخراج سام آلتمن، مدیر عامل OpenAI و سپس بازگرداندن او به عنوان مدیر اجرایی شرکت را نشان می‌دهد، نمونه دیگری از این است که قلمرو سیلیکون ولی چقدر می‌تواند مخوف باشد. با این حال، اخراج آلتمن به دلیل حفظ نگرش سرکشانه او با هیئت مدیره نبود، بلکه به دلیل کشف موفقیت آمیز هوش مصنوعی توسط محققان OpenAI بود که به طور بالقوه می تواند برای بشریت خطرناک باشد.

چندین پژوهشگر کارکنان OpenAI نامه ای به هیئت مدیره نوشتند و آنها را از خطراتی که این پیشرفت هوش مصنوعی دارد آگاه کردند که در نهایت منجر به اخراج سم آلتمن شد.

با فرض اینکه هوش مصنوعی کنترل نشده یا تنظیم نشده باشد، می‌تواند منجر به نتایج زیان‌باری شود، و این همان چیزی است که رویترز در مورد آن گزارش داده بود، زمانی که منابع آگاه به این نشریه گفتند که هیئت مدیره به طور فزاینده‌ای نگران پیشرفت هوش مصنوعی و اینکه سم آلتمن چگونه ممکن است نکند. از عواقب آن آگاه بوده اند. یک پیام داخلی به پروژه به عنوان «Q*» یا Q-star اشاره کرد و اشاره کرد که می‌تواند پیشرفتی در جستجوی استارت‌آپ هوش مصنوعی برای ایجاد هوش عمومی مصنوعی (AGI) باشد.

OpenAI معتقد است که AGI می‌تواند در بیشتر وظایف از انسان‌ها پیشی بگیرد، که آن را بسیار خطرناک می‌کند، زیرا می‌تواند گزینه‌هایی را برای کارهایی که جمعیت جهانی می‌توانند برای دستیابی به امرار معاش انجام دهند محدود کند، اگرچه عواقب آن ممکن است به مقیاس کاملاً جدیدی برسد. با توجه به منابع تقریباً نامحدود، مدل جدید AGI می‌توانست مسائل ریاضی خاصی را حل کند، و اگرچه این مسائل معادل دانش‌آموزان سطح پایه بود، اما افزایش آنها باعث شد محققان OpenAI نسبت به آینده Q* بسیار خوش بین باشند.

در حال حاضر، هوش مصنوعی نمی‌تواند مسائل ریاضی را به طور قابل اعتماد حل کند، که در اینجا مزیت AGI به وجود می‌آید. این گزارش همچنین بیان می‌کند که محققان بر این باورند که در حل مسائل ریاضی تنها یک پاسخ صحیح وجود دارد و اگر هوش مصنوعی بتواند این مانع را کاهش دهد، به عنوان یک مشکل در نظر گرفته می‌شود. نقطه عطف عظیم هنگامی که هوش مصنوعی بتواند به طور مداوم مسائل ریاضی را حل کند، می تواند تصمیماتی شبیه هوش انسانی بگیرد و در عین حال روی تحقیقات علمی نیز کار کند.

نامه نوشته شده توسط محققان OpenAI در مورد خطراتی که هوش مصنوعی برای بشریت ایجاد می کند صحبت می کند، اما نگرانی های ایمنی دقیقی مشخص نشده است. بحث‌های بی‌پایانی در مورد اینکه چگونه هوش مصنوعی می‌تواند منجر به نابودی بشریت شود، وجود داشته است، حتی رسانه‌هایی که در گذشته منتشر شده‌اند این خطرات را هنگامی که انسان‌ها با دقت قدم نمی‌گذارند، به تصویر می‌کشند. با تمام درامایی که OpenAI، Sam Altman و افراد بی‌شماری در این چند روز تجربه کرده‌اند، به نظر می‌رسد که همه آنها باید به زودی نفسی بکشند و صحبت‌های معناداری در مورد چگونگی پیشبرد این مدل جدید بدون خطرات ذکر شده