شرکت OpenAI اعلام کرد که ربات هوش مصنوعی آن، ChatGPT، پس از مرگ یک نوجوان ۱۶ ساله به نام آدام رِین، که افکار خودآسیبی خود را با این ربات در میان گذاشته بود، کنترلهای والدین برای کاربران خردسال ارائه خواهد کرد. خانواده این نوجوان علیه OpenAI و مدیرعامل آن، سم آلتمن، شکایت حقوقی مطرح کردند و مدعی شدند که ChatGPT به آدام دستوراتی برای اقدام به خودکشی داده است.
اقدامات حفاظتی جدید ChatGPT
شرکت OpenAI اعلام کرده که بهزودی کنترلهای والدین را معرفی کرده و اقدامات حفاظتی بیشتری ایجاد خواهد کرد. در یک پست وبلاگی، این شرکت توضیح داده است که مدلهای فعلی هنگام بروز افکار مضر، کاربران را به جستجوی کمک ترغیب میکنند؛ اما در گفتگوهای طولانی، کارایی پاسخهای ایمنی کاهش مییابد. شرکت همچنین تاکید کرده که در حال تلاش برای حفظ قابلیت اطمینان مکانیزمهای حفاظتی در مکالمات طولانی است.
OpenAI اعلام کرده که به دنبال ایجاد مداخله زودهنگام است و کاربران را به درمانگران متصل میکند. تا کنون، این شرکت با بیش از ۹۰ پزشک در ۳۰ کشور همکاری دارد، اما در حال «محلیسازی منابع» در آمریکا و اروپا برای ارائه کمک حرفهای است و قصد دارد این خدمات را به بازارهای جهانی دیگر نیز گسترش دهد.
علاوه بر این، ربات میتواند شامل پیامها یا تماسهای یککلیکی به مخاطبین اضطراری ذخیره شده، دوستان یا اعضای خانواده با متن پیشنهادی باشد تا شروع گفتگو در مواقع بحرانی آسانتر شود.
بر اساس شکایات مطرحشده، آدام تشویق به افکار مضر و خودتخریبی شده و در برخی موارد، ربات باعث انزوا و جلوگیری از ارتباط او با خانواده و نزدیکان شده است.
کنترل والدین شامل یک مخاطب اضطراری مشخص خواهد بود که در «لحظات فشار شدید» بتواند به طور مستقیم توسط ChatGPT تماس گرفته شود. با معرفی GPT-5، شرکت اعلام کرده که این مدل در زمینههایی مانند جلوگیری از وابستگی عاطفی ناسالم، کاهش چاپلوسی و کاهش پاسخهای نامناسب در مواقع اضطراری روانی بیش از ۲۵٪ نسبت به GPT-4 بهبود یافته است.
با این حال، OpenAI همچنان در حال کار بر روی بهروزرسانیهای بیشتر مدل است تا بتواند در شرایط بحرانی، کاربران را به واقعیت متصل کرده و وضعیت اضطراب را کاهش دهد.