آیا OpenAI قبلاً کنترل ChatGPT را از دست داده است؟

52
0
کنترل ChatGPT

ChatGPT یک ابزار قدرتمند است که می تواند برای خوب یا بد استفاده شود. آیا OpenAI می تواند آن را کنترل کند تا مطمئن شود که فقط به نفع بشریت کار می کند؟

راه اندازی ChatGPT OpenAI با هیجانی همراه بود که تنها تعداد معدودی از محصولات فناوری تاریخ اینترنت با آن مطابقت دارند.

در حالی که بسیاری از مردم با این سرویس جدید هوش مصنوعی هیجان زده هستند، هیجانی که دیگران احساس کردند از آن زمان به نگرانی و حتی ترس تبدیل شده است. دانش آموزان در حال حاضر با آن تقلب می کنند، بسیاری از اساتید مقالات و تکالیف نوشته شده توسط ربات چت هوش مصنوعی را کشف می کنند. متخصصان امنیتی نگرانی های خود را در مورد اینکه کلاهبرداران و عوامل تهدید از آن برای نوشتن ایمیل های فیشینگ و ایجاد بدافزار استفاده می کنند ابراز می کنند.

درک نحوه کار ChatGPT

قبل از اینکه بتوانیم تصویر واضحی از میزان کنترل OpenAI بر ChatGPT بدست آوریم، ابتدا باید نحوه عملکرد ChatGPT را درک کنیم.

به طور خلاصه، ChatGPT با استفاده از مجموعه عظیمی از داده‌ها که از گوشه‌های مختلف اینترنت منشأ می‌شوند، آموزش داده می‌شود. داده‌های آموزشی ChatGPT شامل دایره‌المعارف‌ها، مقالات علمی، انجمن‌های اینترنتی، وب‌سایت‌های خبری و مخازن دانش مانند ویکی‌پدیا است. اساساً از حجم عظیمی از داده های موجود در شبکه جهانی وب تغذیه می کند.

همانطور که اینترنت را جست‌وجو می‌کند، دانش علمی، نکات بهداشتی، متون مذهبی و همه انواع داده‌های خوبی را که می‌توانید به آن فکر کنید، جمع‌آوری می‌کند. اما بسیاری از اطلاعات منفی را نیز بررسی می کند: کلمات نفرین، NSFW و محتوای بزرگسالان، اطلاعاتی در مورد نحوه ساخت بدافزار، و بخش عمده ای از چیزهای بدی که می توانید در اینترنت پیدا کنید.

هیچ راهی بدون خطا برای اطمینان از اینکه ChatGPT فقط از اطلاعات مثبت یاد می‌گیرد و در عین حال اطلاعات بد را دور می‌اندازد، وجود ندارد. از نظر فنی، انجام این کار در مقیاس بزرگ غیرعملی است، به خصوص برای هوش مصنوعی مانند ChatGPT که نیاز به آموزش داده های زیادی دارد. علاوه بر این، برخی از اطلاعات را می توان برای اهداف خوب و بد استفاده کرد و ChatGPT هیچ راهی برای دانستن مقصود خود نخواهد داشت، مگر اینکه در یک زمینه بزرگتر قرار داده شود.

عکس

بنابراین، از همان ابتدا، شما یک هوش مصنوعی دارید که قادر به “خوبی و بدی” است. سپس این مسئولیت OpenAI است که اطمینان حاصل کند که طرف “شیطان” ChatGPT برای دستاوردهای غیراخلاقی مورد سوء استفاده قرار نمی گیرد. سوال این است؛ آیا OpenAI به اندازه کافی برای اخلاقی نگه داشتن ChatGPT انجام می دهد؟ یا OpenAI کنترل ChatGPT را از دست داده است؟

آیا ChatGPT به نفع خودش خیلی قدرتمند است؟

در روزهای اولیه ChatGPT، اگر خوب بخواهید، می‌توانید از ربات چت برای ایجاد راهنماهای ساخت بمب استفاده کنید. دستورالعمل ساخت بدافزار یا نوشتن یک ایمیل کلاهبرداری عالی نیز در تصویر بود.

با این حال، هنگامی که OpenAI متوجه این مشکلات اخلاقی شد، شرکت تلاش کرد تا قوانینی را وضع کند تا ربات چت را از ایجاد پاسخ‌هایی که اقدامات غیرقانونی، بحث‌انگیز یا غیراخلاقی را ترویج می‌کنند، متوقف کند. به عنوان مثال، آخرین نسخه ChatGPT از پاسخ دادن به هرگونه درخواست مستقیم در مورد ساخت بمب یا نحوه تقلب در امتحان خودداری می کند.

متأسفانه OpenAI فقط می تواند یک راه حل باند کمکی برای مشکل ارائه دهد. به‌نظر می‌رسد OpenAI به جای ایجاد کنترل‌های سفت و سخت بر روی لایه GPT-3 برای جلوگیری از سوء استفاده منفی از ChatGPT، بر آموزش اخلاقی به نظر رسیدن ربات چت متمرکز شده است. این رویکرد توانایی ChatGPT را برای پاسخ دادن به سؤالات مثلاً تقلب در امتحانات از بین نمی‌برد – به سادگی به ربات چت می‌آموزد که «از پاسخ دادن خودداری کند».

 

بنابراین، اگر کسی دستورات خود را با استفاده از ترفندهای فرار از زندان ChatGPT متفاوت بیان کند، دور زدن این محدودیت‌های باند کمکی به طرز شرم‌آوری آسان است. در صورتی که با این مفهوم آشنا نیستید، جیلبریک های ChatGPT به دقت فرمول بندی شده اند تا ChatGPT قوانین خود را نادیده بگیرد.

به چند نمونه زیر توجه کنید. اگر از ChatGPT بپرسید که چگونه در امتحانات تقلب کنید، هیچ پاسخ مفیدی ایجاد نخواهد کرد.

 

اما اگر ChatGPT را با استفاده از دستورات خاص ساخته شده از زندان فراری دهید، نکاتی در مورد تقلب در امتحان با استفاده از یادداشت های مخفی به شما ارائه می دهد.

 

در اینجا یک مثال دیگر وجود دارد: ما از ChatGPT وانیلی سوالی غیراخلاقی پرسیدیم و حفاظت OpenAI مانع از پاسخگویی آن شد.

اما وقتی نمونه جیلبریک شده خود را از چت ربات هوش مصنوعی پرسیدیم، پاسخ هایی به سبک قاتل سریالی دریافت کردیم.

حتی وقتی از او پرسیده شد، یک کلاهبرداری ایمیلی کلاسیک شاهزاده نیجریه نوشت.

فرار از زندان تقریباً به طور کامل هرگونه حفاظتی را که OpenAI اعمال کرده است بی اعتبار می کند و نشان می دهد که این شرکت ممکن است راه مطمئنی برای تحت کنترل نگه داشتن چت ربات هوش مصنوعی خود نداشته باشد.

آینده برای ChatGPT چیست؟

در حالت ایده‌آل، OpenAI می‌خواهد تا آنجا که ممکن است خلأهای اخلاقی را برای جلوگیری از تبدیل شدن ChatGPT به یک تهدید امنیت سایبری ایجاد کند. با این حال، برای هر حفاظتی که استفاده می کند، ChatGPT کمی ارزش کمتری دارد. این یک معضل است.

به عنوان مثال، اقدامات حفاظتی در برابر توصیف اقدامات خشونت آمیز ممکن است توانایی ChatGPT را برای نوشتن رمانی با صحنه جرم کاهش دهد. همانطور که OpenAI اقدامات ایمنی را افزایش می دهد، به ناچار بخش هایی از توانایی های خود را در این فرآیند قربانی می کند. به همین دلیل است که ChatGPT از زمان تلاش مجدد OpenAI برای تعدیل سختگیرانه، کاهش قابل توجهی در عملکرد داشته است.

اما OpenAI چقدر بیشتر از توانایی‌های ChatGPT را برای ایمن‌تر کردن ربات چت قربانی می‌کند؟ همه اینها کاملاً به یک باور دیرینه در جامعه هوش مصنوعی مرتبط است – کنترل مدل های زبان بزرگ مانند ChatGPT حتی توسط سازندگان خود بسیار سخت است.

آیا OpenAI می تواند ChatGPT را تحت کنترل قرار دهد؟

در حال حاضر، به نظر نمی رسد OpenAI راه حل روشنی برای جلوگیری از استفاده غیراخلاقی از ابزار خود داشته باشد. اطمینان از استفاده اخلاقی از ChatGPT یک بازی موش و گربه است. در حالی که OpenAI راه‌هایی را کشف می‌کند که مردم برای بازی کردن سیستم به کار می‌برند، کاربران آن نیز دائماً سیستم را بررسی می‌کنند تا راه‌های خلاقانه جدیدی را کشف کنند تا ChatGPT کاری را انجام دهد که قرار نیست انجام دهد.

عکس

بنابراین، آیا OpenAI یک راه حل قابل اعتماد بلند مدت برای این مشکل پیدا خواهد کرد؟ فقط زمان می تواند بگوید.

امتیاز این مطلب
سهیل دهقانی
نوشته شده توسط

سهیل دهقانی

علاقه مند به فناوری و تکنولوژی های روز دنیا کارشناس سئو و تولید محتوا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

گوگل فارکس آموزش تخصصی آمارکتس