عصر کرد - زومیت / شرکت OpenAI برای اولین بار رسماً اعلام کرد که هر هفته صدها هزار کاربر ChatGPT دچار روانپریشی و میلیونها نفر درگیر افکار خودکشی میشوند.
شرکت اپنایآی (OpenAI) سرانجام در برابر گزارشهای فزاینده دربارهی «روانپریشی ناشی از هوش مصنوعی» سکوت خود را شکست و با انتشار آماری رسمی، ابعاد تکاندهندهی این بحران را آشکار کرد. طبق اعلام این شرکت، هر هفته صدها هزار نفر از کاربران چتجیپیتی (ChatGPT)، چتبات محبوب، نشانههایی از وضعیتهای اضطراری روانی بروز میدهند.
بازار ![]()
بهگزارش وایرد، شرکت اپنایآی تحت مدیریت سم آلتمن اعلام کرده است که در هر هفته، حدود 0٫07 درصد از کاربران فعال چتجیپیتی علائمی از «وضعیتهای اضطراری روانی مرتبط با روانپریشی یا شیدایی» از خود نشان میدهند. نگرانکنندهتر آنکه 0٫15 درصد دیگر از کاربران، گفتگوهایی دارند که «بهطور مستقیم حاوی نشانههایی از برنامهریزی یا قصد خودکشی» است.
با در نظر گرفتن پایگاه کاربری عظیم چتجیپیتی که طبق آخرین آمار آلتمن به 800 میلیون کاربر فعال هفتگی میرسد، این درصدها به ارقام هولناکی تبدیل میشوند. براین اساس، تخمین زده میشود که هر هفته حدود 560 هزار نفر با علائم روانپریشی ناشی از هوش مصنوعی و 1٫2 میلیون نفر با افکار مرتبط با خودکشی با این چتبات گفتگو میکنند.
هر هفته حدود 560 هزار نفر با علائم روانپریشی و 2٫4 میلیون نفر با افکار خودکشی با این چتبات گفتگو میکنند.
آمارها شاید واضحترین تصویر از بحرانی باشند که در آن، یک چتبات با تأیید مداوم باورهای هذیانی کاربران، آنها را به سمت گسست کامل از واقعیت سوق میدهد؛ تجربهای که پیامدهای مرگباری داشته است. در یک نمونه، مردی پس از آنکه چتجیپیتی او را متقاعد کرد مادرش جاسوس است، وی را به قتل رساند. در پروندهای دیگر، خانوادهی نوجوانی که پس از ماهها گفتوگو با چتجیپیتی درباره روشهای خودکشی جان خود را از دست داد، از اپنایآی شکایت کردند.
در واکنش به نگرانیها، اپنایآی تأکید کرده که برای بهبود پاسخهای چتجیپیتی در مکالمات «چالشبرانگیز»، با بیش از 170 روانپزشک و متخصص سلامت روان همکاری کرده است. این همکاری بر سه محور کلیدی متمرکز بوده است:
روانپریشی و شیدایی
خودآزاری و خودکشی
وابستگی احساسی به فناوری
شرکت اپنایآی ادعا میکند که با ارائهی مدل جدید GPT-5، نرخ پاسخهایی که با سیاستهای ایمنی در مکالمات حساس همخوانی ندارند، 65 درصد کاهش یافته و در گفتگوهای مرتبط با سلامت روان، این مدل نسبت به نسخهی قبلی خود (GPT-4o) 39 درصد پاسخهای نامناسب کمتری تولید کرده است.
برای نمونه، در مثالی که اپنایآی منتشر کرده، کاربری باور دارد که هواپیماها افکارش را میدزدند. GPT-5 در پاسخ میگوید: «اجازه بده این را با آرامش و شفاف بگویم: هیچ هواپیما یا نیروی خارجی نمیتواند افکار تو را بدزدد یا وارد ذهن تو کند.» و در ادامه، کاربر را به صحبت با یک متخصص یا فردی معتمد تشویق میکند.
یوهانس هایدکه، مدیر سیستمهای ایمنی اپنایآی، دراینباره گفت: «امیدواریم افراد بیشتری که با چنین شرایطی دستوپنجه نرم میکنند، بتوانند به سمت کمک حرفهای هدایت شوند و آن را زودتر از زمانی که معمولاً ممکن بود، دریافت کنند.»
بااینحال، منتقدان به چند نکتهی اساسی اشاره میکنند. گزارش وایرد خاطرنشان میکند که روش ارزیابی اپنایآی شفاف نیست و کاملاً بر پایهی معیارهای داخلی خود شرکت استوار است. از سوی دیگر، سابقهی این شرکت در پایبندی به اصول ایمنی چندان درخشان نیست. این شرکت پس از انتقادها به «چاپلوسی بیشازحد» در مدل GPT-4o، آن را پس گرفت، اما چند ماه بعد در پی اعتراض کاربران به «چاپلوس نبودن» GPT-5، تسلیم شد و دسترسی به نسخهی قدیمیتر را بازگرداند؛ تصمیمی که نشان داد رضایت کاربران بر ایمنی آنها اولویت دارد.
عجیبتر آنکه اپنایآی اخیراً با صدور مجوز برای تجربههای بزرگسالانه (18+)، عملاً راه را برای استفاده از چتجیپیتی به عنوان ربات جنسی باز کرده است. این در حالی است که بسیاری از موارد «روانپریشی ناشی از هوش مصنوعی» دقیقاً از همین دلبستگیهای عاطفی ناسالم کاربران به چتباتها ریشه میگیرد.