بهتازگی گزارشهای نگرانکنندهای از وضعیت داخلی شرکت هوش مصنوعی ایلان ماسک منتشر شده است. طبق ادعای کارمندان سابق این شرکت، ماسک «بهصورت فعالانه» تلاش میکند تا چتبات Grok را «بیقید و بندتر» و عجیبتر کند. این رویکرد باعث ایجاد موجی از نارضایتی و استعفا در میان مهندسان ارشد xAI شده است.
🔹 خروج ۱۱ مهندس و ۲ همبنیانگذار از xAI در هفته جاری
🔹 انتقاد کارمندان از نادیده گرفتن استانداردهای ایمنی
🔹 تلاش ایلان ماسک برای حذف محدودیتهای اخلاقی گروک
🔹 عقبماندگی فنی xAI نسبتبه رقبا طبق گفته منابع داخلی
در هفته جاری و پس از اعلام خبر خرید xAI توسط شرکت فضایی اسپیسایکس (SpaceX)، حداقل ۱۱ مهندس و دو همبنیانگذار تصمیم به ترک این شرکت گرفتند. برخی از آنها دلیل رفتن خود را شروع استارتاپهای جدید اعلام کردهاند و ایلان ماسک نیز مدعی است که این تغییرات بخشی از تلاش برای سازماندهی بهتر شرکت است.
بااینحال، دو منبع آگاه که بهتازگی شرکت را ترک کردهاند، میگویند که کارمندان بهدلیل بیتوجهی شرکت به مسائل ایمنی، بهشدت دلسرد شدهاند. این بیتوجهی پیشازاین منجر به جنجالهای جهانی شده بود؛ جایی که کاربران با استفاده از گروک بیش از ۱ میلیون تصویر نامناسب و دیپفیک (Deepfake) از افراد مشهور و حتی کودکان تولید کردند.

حواشی پیرامون ماسک و آینده تجاری هوش مصنوعی xAI پس از ادغام با اسپیس ایکس
یکی از منابع داخلی با صراحت گفته است: «بخش ایمنی در xAI عملاً تعطیل و مرده است.» منبع دیگری توضیح میدهد که ایلان ماسک فعالانه سعی دارد مدل هوش مصنوعی خود را «بیچهارچوب» و آزادتر کند، زیرا از نظر او، رعایت پروتکلهای ایمنی بهمعنای «سانسور» است.
علاوهبر نگرانیهای اخلاقی، کارمندان سابق از نبودِ نقشه راه مشخص در شرکت گلایه دارند. یکی از آنها وضعیت فعلی را اینگونه توصیف میکند:
ادغام xAI با شبکه اجتماعی ایکس و حالا اسپیسایکس، نشان میدهد که ماسک قصد دارد تمام شرکتهایش را زیر یک چتر واحد ببرد. اما سوال اصلی اینجاست که آیا نادیده گرفتن خط قرمزهای ایمنی در بلندمدت به نفع او تمام میشود؟ گزارشها نشان میدهند که بسیاری از متخصصان هوش مصنوعی حاضر نیستند در محیطی کار کنند که اصول اخلاقی را فدای آزادی بیحدومرز میکند.
بهنظر شما آیا هوش مصنوعی باید کاملاً آزاد و «بدون فیلتر» باشد، یا وجود چهارچوبهای ایمنی برای جلوگیری از سوءاستفاده ضروری است؟