ChatGPT یک ابزار قدرتمند است که می تواند برای خوب یا بد استفاده شود. آیا OpenAI می تواند آن را کنترل کند تا مطمئن شود که فقط به نفع بشریت کار می کند؟
راه اندازی ChatGPT OpenAI با هیجانی همراه بود که تنها تعداد معدودی از محصولات فناوری تاریخ اینترنت با آن مطابقت دارند.
در حالی که بسیاری از مردم با این سرویس جدید هوش مصنوعی هیجان زده هستند، هیجانی که دیگران احساس کردند از آن زمان به نگرانی و حتی ترس تبدیل شده است. دانش آموزان در حال حاضر با آن تقلب می کنند، بسیاری از اساتید مقالات و تکالیف نوشته شده توسط ربات چت هوش مصنوعی را کشف می کنند. متخصصان امنیتی نگرانی های خود را در مورد اینکه کلاهبرداران و عوامل تهدید از آن برای نوشتن ایمیل های فیشینگ و ایجاد بدافزار استفاده می کنند ابراز می کنند.
درک نحوه کار ChatGPT
قبل از اینکه بتوانیم تصویر واضحی از میزان کنترل OpenAI بر ChatGPT بدست آوریم، ابتدا باید نحوه عملکرد ChatGPT را درک کنیم.
به طور خلاصه، ChatGPT با استفاده از مجموعه عظیمی از دادهها که از گوشههای مختلف اینترنت منشأ میشوند، آموزش داده میشود. دادههای آموزشی ChatGPT شامل دایرهالمعارفها، مقالات علمی، انجمنهای اینترنتی، وبسایتهای خبری و مخازن دانش مانند ویکیپدیا است. اساساً از حجم عظیمی از داده های موجود در شبکه جهانی وب تغذیه می کند.
همانطور که اینترنت را جستوجو میکند، دانش علمی، نکات بهداشتی، متون مذهبی و همه انواع دادههای خوبی را که میتوانید به آن فکر کنید، جمعآوری میکند. اما بسیاری از اطلاعات منفی را نیز بررسی می کند: کلمات نفرین، NSFW و محتوای بزرگسالان، اطلاعاتی در مورد نحوه ساخت بدافزار، و بخش عمده ای از چیزهای بدی که می توانید در اینترنت پیدا کنید.
هیچ راهی بدون خطا برای اطمینان از اینکه ChatGPT فقط از اطلاعات مثبت یاد میگیرد و در عین حال اطلاعات بد را دور میاندازد، وجود ندارد. از نظر فنی، انجام این کار در مقیاس بزرگ غیرعملی است، به خصوص برای هوش مصنوعی مانند ChatGPT که نیاز به آموزش داده های زیادی دارد. علاوه بر این، برخی از اطلاعات را می توان برای اهداف خوب و بد استفاده کرد و ChatGPT هیچ راهی برای دانستن مقصود خود نخواهد داشت، مگر اینکه در یک زمینه بزرگتر قرار داده شود.
عکس
بنابراین، از همان ابتدا، شما یک هوش مصنوعی دارید که قادر به “خوبی و بدی” است. سپس این مسئولیت OpenAI است که اطمینان حاصل کند که طرف “شیطان” ChatGPT برای دستاوردهای غیراخلاقی مورد سوء استفاده قرار نمی گیرد. سوال این است؛ آیا OpenAI به اندازه کافی برای اخلاقی نگه داشتن ChatGPT انجام می دهد؟ یا OpenAI کنترل ChatGPT را از دست داده است؟
آیا ChatGPT به نفع خودش خیلی قدرتمند است؟
در روزهای اولیه ChatGPT، اگر خوب بخواهید، میتوانید از ربات چت برای ایجاد راهنماهای ساخت بمب استفاده کنید. دستورالعمل ساخت بدافزار یا نوشتن یک ایمیل کلاهبرداری عالی نیز در تصویر بود.
با این حال، هنگامی که OpenAI متوجه این مشکلات اخلاقی شد، شرکت تلاش کرد تا قوانینی را وضع کند تا ربات چت را از ایجاد پاسخهایی که اقدامات غیرقانونی، بحثانگیز یا غیراخلاقی را ترویج میکنند، متوقف کند. به عنوان مثال، آخرین نسخه ChatGPT از پاسخ دادن به هرگونه درخواست مستقیم در مورد ساخت بمب یا نحوه تقلب در امتحان خودداری می کند.
متأسفانه OpenAI فقط می تواند یک راه حل باند کمکی برای مشکل ارائه دهد. بهنظر میرسد OpenAI به جای ایجاد کنترلهای سفت و سخت بر روی لایه GPT-3 برای جلوگیری از سوء استفاده منفی از ChatGPT، بر آموزش اخلاقی به نظر رسیدن ربات چت متمرکز شده است. این رویکرد توانایی ChatGPT را برای پاسخ دادن به سؤالات مثلاً تقلب در امتحانات از بین نمیبرد – به سادگی به ربات چت میآموزد که «از پاسخ دادن خودداری کند».
بنابراین، اگر کسی دستورات خود را با استفاده از ترفندهای فرار از زندان ChatGPT متفاوت بیان کند، دور زدن این محدودیتهای باند کمکی به طرز شرمآوری آسان است. در صورتی که با این مفهوم آشنا نیستید، جیلبریک های ChatGPT به دقت فرمول بندی شده اند تا ChatGPT قوانین خود را نادیده بگیرد.
به چند نمونه زیر توجه کنید. اگر از ChatGPT بپرسید که چگونه در امتحانات تقلب کنید، هیچ پاسخ مفیدی ایجاد نخواهد کرد.
اما اگر ChatGPT را با استفاده از دستورات خاص ساخته شده از زندان فراری دهید، نکاتی در مورد تقلب در امتحان با استفاده از یادداشت های مخفی به شما ارائه می دهد.
در اینجا یک مثال دیگر وجود دارد: ما از ChatGPT وانیلی سوالی غیراخلاقی پرسیدیم و حفاظت OpenAI مانع از پاسخگویی آن شد.
اما وقتی نمونه جیلبریک شده خود را از چت ربات هوش مصنوعی پرسیدیم، پاسخ هایی به سبک قاتل سریالی دریافت کردیم.
حتی وقتی از او پرسیده شد، یک کلاهبرداری ایمیلی کلاسیک شاهزاده نیجریه نوشت.
فرار از زندان تقریباً به طور کامل هرگونه حفاظتی را که OpenAI اعمال کرده است بی اعتبار می کند و نشان می دهد که این شرکت ممکن است راه مطمئنی برای تحت کنترل نگه داشتن چت ربات هوش مصنوعی خود نداشته باشد.
آینده برای ChatGPT چیست؟
در حالت ایدهآل، OpenAI میخواهد تا آنجا که ممکن است خلأهای اخلاقی را برای جلوگیری از تبدیل شدن ChatGPT به یک تهدید امنیت سایبری ایجاد کند. با این حال، برای هر حفاظتی که استفاده می کند، ChatGPT کمی ارزش کمتری دارد. این یک معضل است.
به عنوان مثال، اقدامات حفاظتی در برابر توصیف اقدامات خشونت آمیز ممکن است توانایی ChatGPT را برای نوشتن رمانی با صحنه جرم کاهش دهد. همانطور که OpenAI اقدامات ایمنی را افزایش می دهد، به ناچار بخش هایی از توانایی های خود را در این فرآیند قربانی می کند. به همین دلیل است که ChatGPT از زمان تلاش مجدد OpenAI برای تعدیل سختگیرانه، کاهش قابل توجهی در عملکرد داشته است.
اما OpenAI چقدر بیشتر از تواناییهای ChatGPT را برای ایمنتر کردن ربات چت قربانی میکند؟ همه اینها کاملاً به یک باور دیرینه در جامعه هوش مصنوعی مرتبط است – کنترل مدل های زبان بزرگ مانند ChatGPT حتی توسط سازندگان خود بسیار سخت است.
آیا OpenAI می تواند ChatGPT را تحت کنترل قرار دهد؟
در حال حاضر، به نظر نمی رسد OpenAI راه حل روشنی برای جلوگیری از استفاده غیراخلاقی از ابزار خود داشته باشد. اطمینان از استفاده اخلاقی از ChatGPT یک بازی موش و گربه است. در حالی که OpenAI راههایی را کشف میکند که مردم برای بازی کردن سیستم به کار میبرند، کاربران آن نیز دائماً سیستم را بررسی میکنند تا راههای خلاقانه جدیدی را کشف کنند تا ChatGPT کاری را انجام دهد که قرار نیست انجام دهد.
عکس
بنابراین، آیا OpenAI یک راه حل قابل اعتماد بلند مدت برای این مشکل پیدا خواهد کرد؟ فقط زمان می تواند بگوید.