رئیس گروه حفاظت از بشریت شرکت هوش مصنوعی اُپن ایآی با بیان این که نگرانیهای ایمنی اهمیت خود را در برابر محصولات پر زرق و برق از دست دادهاند، از سمت خود استعفا داد.
در تابستان سال ۲۰۲۳، شرکت هوش مصنوعی اُپنایآی(OpenAI) یک گروه ابرتنظیم(Superalignment) ایجاد کرد که هدف آن هدایت و کنترل سیستمهای هوش مصنوعی آینده بود که میتوانند آنقدر قدرتمند باشند که منجر به انقراض بشر شوند. کمتر از یک سال بعد، این گروه منحل شد. اُپن ایآی به بلومبرگ گفته است که این شرکت در حال ادغام گروه در تلاشهای تحقیقاتی خود برای کمک به شرکت در دستیابی به اهداف ایمنی خود است. اما مجموعهای از توییتهای جان لیک(Jan Leike)، یکی از رهبران تیم که به تازگی استعفا داده، تنشهای داخلی بین تیم ایمنی و شرکت را فاش کرده است. در بیانیهای که در روز جمعه در شبکه اجتماعی ایکس منتشر شد، لیک گفت که تیم ابرتنظیم برای بدست آوردن منابع برای انجام تحقیقات مبارزه کرده است. او نوشت: ساخت دستگاههای هوشمندتر از انسان، یک تلاش ذاتا خطرناک است. اُپن ایآی مسئولیت بزرگی را از طرف تمام بشریت بر عهده دارد. اما در طول سالهای گذشته، فرهنگ ایمنی و فرآیندها اهمیت خود را از دست داده است. همچنین اطلاعات جدید درباره شرکت «اوپنایآی» نشان میدهند که کارمندان سابق این شرکت، قراردادی را امضا کردهاند و براساس آن در صورت انتقاد از شرکت، سهام خود را از دست میدهند. به گزارش ایسنا، خالقChatGPT شاید نام بزرگی باشد اما شیوههای تجاری آن کاملا مخالف ایده گفتوگوی باز به نظر میرسند. به نقل از فیوچریسم، اطلاعات شگفتانگیز وبسایت «ووکس»(Vox)، پرده از توافقنامه محدودکننده شرکت «اوپنایآی»(OpenAI) موسوم به «عدم افشای اطلاعات»(NDA) برمیدارند که کارکنان شرکت «سم آلتمن»(Sam Altman) را وادار میکند تا برای حفظ سهام خود، آن را امضا کنند. «کلسی پایپر»(Kelsey Piper) از وبسایت ووکس، درباره اسناد قانونی نوشت: معلوم میشود که دلیل بسیار روشنی برای آن وجود دارد. من یک توافقنامه بسیار محدودکننده را دیدهام که شامل مفاد عدم افشا از سوی کارکنان سابق اوپنایآی است و آنها را تا آخر عمر از انتقاد کردن از کارفرمای سابق خود منع میکند.