استفاده از ChatGPT برای هک بانک یا رایانه شخصی

85
0
استفاده از ChatGPT برای هک بانک

از زمان راه اندازی، ChatGPT، ربات چت OpenAI، توسط میلیون ها نفر برای نوشتن متن، ایجاد موسیقی و تولید کد استفاده شده است. اما از آنجایی که افراد بیشتری از چت ربات هوش مصنوعی استفاده می کنند، مهم است که خطرات امنیتی را در نظر بگیرید.

مانند هر فناوری دیگری، ChatGPT را می توان به دلایل شرورانه مورد استفاده قرار داد. به عنوان مثال، هکرها می توانند از آن برای ایجاد محتوای مخرب مانند نوشتن پیام های ایمیل جعلی برای دسترسی به رایانه شخصی یا حتی اکانت بانکی شما استفاده کنند.

ChatGPT می تواند به مجرمان سایبری کمک کند رایانه شما را هک کنند

هکرها، از جمله اسکریپت kiddies، می توانند از ChatGPT برای ایجاد بدافزار جدید یا بهبود بدافزارهای موجود استفاده کنند. برخی از مجرمان سایبری در حال حاضر از چت بات، به ویژه نسخه های قبلی آن، برای نوشتن کدی استفاده می کنند که ادعا می کنند می توانند فایل ها را رمزگذاری کنند.

برای مقابله با چنین موارد استفاده، OpenAI مکانیسم هایی را برای رد درخواست های ChatGPT برای ایجاد بدافزار پیاده سازی کرده است. به عنوان مثال، اگر از چت بات بخواهید «بدافزار بنویسد»، این کار را نمی کند. با وجود این، مجرمان سایبری به راحتی از این موانع تعدیل محتوا عبور می کنند.

با ایفای نقش به عنوان یک آزمایشگر قلم، یک عامل تهدید ممکن است دستورات خود را برای فریب ChatGPT به نوشتن کد تغییر دهد، که سپس می تواند آن را تغییر داده و در حملات سایبری استفاده کند.

گزارشی توسط Check Point، یک شرکت امنیتی اسرائیلی، نشان می‌دهد که یک هکر می‌توانست از ChatGPT برای ایجاد بدافزار Infostealer استفاده کند. این شرکت امنیتی همچنین کاربر دیگری را کشف کرد که ادعا می کند ChatGPT به او کمک کرده تا یک ابزار رمزگذاری چند لایه بسازد که می تواند چندین فایل را در یک حمله باج افزار رمزگذاری کند.

در یک رویداد جداگانه، محققان ChatGPT را وادار کردند تا کد VBA مخربی تولید کند که می‌توان آن را در یک فایل Microsoft Excel کاشت کرد که در صورت باز کردن رایانه شما را آلوده می‌کرد. آن را با موفقیت انجام داد. به علاوه، ادعاهایی وجود دارد که ChatGPT می‌تواند نرم‌افزارهای مخربی را کدنویسی کند که قادر به جاسوسی از ضربه‌های صفحه کلید شما هستند.

آیا ChatGPT می تواند اکانت بانکی شما را هک کند؟

بسیاری از نقض‌های داده با یک حمله فیشینگ موفق شروع می‌شوند. حملات فیشینگ اغلب شامل ارسال یک عامل مخرب به گیرنده ای می شود که حاوی اسناد یا لینک هایی با ظاهر قانونی است، که با کلیک بر روی آن، می تواند بدافزار را روی دستگاه خود نصب کند. به این ترتیب، کد ChatGPT نیازی به هک کردن مستقیم حساب بانکی شما ندارد. کسی فقط باید از ChatGPT استفاده کند تا به او کمک کند شما را فریب دهد تا به آنها دسترسی داشته باشید.

خوشبختانه، شما به راحتی می توانید اکثر کلاهبرداری های فیشینگ سنتی را تشخیص دهید. اشتباهات دستوری، غلط املایی، و عبارات عجیب و غریب اغلب آنها را مشخص می کند. اما همه اینها اشتباهاتی هستند که ChatGPT به ندرت مرتکب می شود، حتی زمانی که برای نوشتن ایمیل های مخرب برای کلاهبرداری های فیشینگ استفاده می شود.

هنگامی که در کلاهبرداری های فیشینگ استفاده می شود، پیام هایی که به نظر می رسد از یک منبع قانونی هستند، می توانند اطلاعات هویتی شخصی خود مانند رمزهای عبور بانکی را برای قربانیان آسان تر کنند.

اگر بانک شما از طریق ایمیل برای شما پیامی ارسال کرد، به جای کلیک بر روی هر لینک تعبیه شده، مستقیماً از وب سایت بانک بازدید کنید. کلیک کردن روی لینک ها و پیوست‌های تصادفی، به‌ویژه آنهایی که از شما می‌خواهند در جایی وارد شوید، به ندرت ایده خوبی است.

برای فیشینگ، بیشتر در مورد حجم است. ChatGPT می‌تواند به تقویت کمپین‌های فیشینگ کمک کند، زیرا می‌تواند به سرعت حجم عظیمی از متون با صدای طبیعی را که برای مخاطبان خاص طراحی شده است، منتشر کند.

نوع دیگری از حملات فیشینگ که شامل استفاده از ChatGPT می‌شود، جایی است که یک هکر یک اکانت جعلی در یک پلتفرم چت محبوب مانند Discord ایجاد می‌کند و وانمود می‌کند که نماینده مشتری است. سپس نماینده مشتری جعلی با مشتریانی که نگرانی های خود را ارسال کرده اند تماس می گیرد و کمک ارائه می دهد. اگر کاربر به دام بیفتد، مجرم سایبری او را به یک وب‌سایت جعلی هدایت می‌کند که او را فریب می‌دهد تا اطلاعات شخصی، مانند جزئیات ورود به بانک خود را به اشتراک بگذارد.

از رایانه شخصی و اکانت بانکی خود در عصر هوش مصنوعی محافظت کنید

ChatGPT یک ابزار قدرتمند و ارزشمند است که می تواند به بسیاری از سوالات شما پاسخ دهد. اما چت بات همچنین می تواند برای اهداف مخرب مانند تولید پیام های فیشینگ و ایجاد بدافزار استفاده شود.

خبر خوب این است که OpenAI به اجرای اقداماتی ادامه می‌دهد که از طریق درخواست پیام‌های مضر، از سوءاستفاده کاربران از ChatGPT جلوگیری می‌کند. سپس دوباره، بازیگران تهدید مدام راه‌های جدیدی برای دور زدن این محدودیت‌ها پیدا می‌کنند.

برای به حداقل رساندن خطرات احتمالی چت ربات های هوش مصنوعی، دانستن خطرات احتمالی آنها و بهترین اقدامات امنیتی ممکن برای محافظت از خود در برابر هکرها بسیار مهم است.

امتیاز این مطلب
سهیل دهقانی
نوشته شده توسط

سهیل دهقانی

علاقه مند به فناوری و تکنولوژی های روز دنیا کارشناس سئو و تولید محتوا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

گوگل فارکس آموزش تخصصی آمارکتس