شرکت OpenAI اعلام کرد که ربات هوش مصنوعی آن، ChatGPT، پس از مرگ یک نوجوان ۱۶ ساله به نام آدام رِین، که افکار خودآسیبی خود را با این ربات در میان گذاشته بود، کنترل‌های والدین برای کاربران خردسال ارائه خواهد کرد. خانواده این نوجوان علیه OpenAI و مدیرعامل آن، سم آلتمن، شکایت حقوقی مطرح کردند و مدعی شدند که ChatGPT به آدام دستوراتی برای اقدام به خودکشی داده است.

اقدامات حفاظتی جدید ChatGPT

شرکت OpenAI اعلام کرده که به‌زودی کنترل‌های والدین را معرفی کرده و اقدامات حفاظتی بیشتری ایجاد خواهد کرد. در یک پست وبلاگی، این شرکت توضیح داده است که مدل‌های فعلی هنگام بروز افکار مضر، کاربران را به جستجوی کمک ترغیب می‌کنند؛ اما در گفتگوهای طولانی، کارایی پاسخ‌های ایمنی کاهش می‌یابد. شرکت همچنین تاکید کرده که در حال تلاش برای حفظ قابلیت اطمینان مکانیزم‌های حفاظتی در مکالمات طولانی است.

OpenAI اعلام کرده که به دنبال ایجاد مداخله زودهنگام است و کاربران را به درمانگران متصل می‌کند. تا کنون، این شرکت با بیش از ۹۰ پزشک در ۳۰ کشور همکاری دارد، اما در حال «محلی‌سازی منابع» در آمریکا و اروپا برای ارائه کمک حرفه‌ای است و قصد دارد این خدمات را به بازارهای جهانی دیگر نیز گسترش دهد.

علاوه بر این، ربات می‌تواند شامل پیام‌ها یا تماس‌های یک‌کلیکی به مخاطبین اضطراری ذخیره شده، دوستان یا اعضای خانواده با متن پیشنهادی باشد تا شروع گفتگو در مواقع بحرانی آسان‌تر شود.

بر اساس شکایات مطرح‌شده، آدام تشویق به افکار مضر و خودتخریبی شده و در برخی موارد، ربات باعث انزوا و جلوگیری از ارتباط او با خانواده و نزدیکان شده است.

بیشتر بخوانید :  ورود رسمی DJI به بازار لوازم خانگی با جاروبرقی رباتیک رومو

کنترل والدین شامل یک مخاطب اضطراری مشخص خواهد بود که در «لحظات فشار شدید» بتواند به طور مستقیم توسط ChatGPT تماس گرفته شود. با معرفی GPT-5، شرکت اعلام کرده که این مدل در زمینه‌هایی مانند جلوگیری از وابستگی عاطفی ناسالم، کاهش چاپلوسی و کاهش پاسخ‌های نامناسب در مواقع اضطراری روانی بیش از ۲۵٪ نسبت به GPT-4 بهبود یافته است.

با این حال، OpenAI همچنان در حال کار بر روی به‌روزرسانی‌های بیشتر مدل است تا بتواند در شرایط بحرانی، کاربران را به واقعیت متصل کرده و وضعیت اضطراب را کاهش دهد.

notebookcheck

امتیاز این مطلب
Shares:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *