کد مطلب: ۸۲۵۸۹۰
|
|
۲۵ ارديبهشت ۱۴۰۴ - ۰۸:۳۴

هوش مصنوعی در خدمت هکر‌های کامپیوتری

هوش مصنوعی در خدمت هکر‌های کامپیوتری
ناظران نگرانند که چت‌بات‌ها و برنامه‌های جعل اسناد مبتنی بر هوش مصنوعی بتوانند کار جرایم سایبری و کلاهبرداران آنلاین را تسهیل کنند. این برنامه‌ها حدود یک سال است که برای استفاده عمومی در دسترس هستند، بدون اینکه ماهیت حملات سایبری سنتی را به طور اساسی تغییر دهند.

به گزارش مجله خبری نگار-پاریس: ناظران نگرانند که چت‌بات‌ها و برنامه‌های جعل اسناد مبتنی بر هوش مصنوعی بتوانند کار جرایم سایبری و کلاهبرداران آنلاین را تسهیل کنند. این برنامه‌ها حدود یک سال است که برای استفاده عمومی در دسترس هستند، بدون اینکه ماهیت حملات سایبری سنتی را به طور اساسی تغییر دهند.

ابزار‌های فیشینگ بهتر

فیشینگ شامل تماس با یک فرد هدف و وادار کردن او به وارد کردن اطلاعاتش در یک وب‌سایت هک‌شده است که شبیه وب‌سایت اصلی به نظر می‌رسد.

جروم بلویس، متخصص امنیت فناوری اطلاعات در شرکت مشاوره‌ای Wavestone و نویسنده کتابی در مورد حملات سایبری، با ارسال ایمیل‌های قانع‌کننده و عاری از غلط‌های املایی، توضیح می‌دهد: «هوش مصنوعی حملات را تسهیل و تسریع می‌کند.»

هکر‌ها در حال تبادل برنامه‌هایی هستند که به آنها امکان می‌دهد به‌طور خودکار پیام‌های جعلی هدفمند، چه از طریق انجمن‌های آنلاین و چه از طریق پیام‌های خصوصی، تولید کنند.

برای غلبه بر محدودیت‌های اعمال‌شده بر هوش مصنوعی توسط ارائه‌دهندگان راهکار، گروه‌های تخصصی از تابستان امسال، مدل‌های زبانی آموزش‌دیده برای تولید محتوای مخرب را بازاریابی کرده‌اند، مشابه برنامه FrodGPT. اما اثربخشی آن هنوز باید اثبات شود.

بلوا هشدار می‌دهد: «ما هنوز در آغاز راه هستیم.»

خطر نشت داده‌ها

طبق مطالعه اخیر گارتنر، هوش مصنوعی مولد یکی از پنج تهدید اصلی است که کسب‌وکار‌ها از آن می‌ترسند.

شرکت‌ها، به ویژه در این حوزه، از نشت داده‌های حساس به اشتراک گذاشته شده توسط کارمندان خود می‌ترسند و همین امر باعث شده است که شرکت‌های بزرگی از جمله اپل، آمازون و سامسونگ، استفاده از ChatGPT را برای کارمندان خود ممنوع کنند.

ران شاو، مدیر تحقیقات گارتنر، توضیح می‌دهد: «هر اطلاعاتی که در یک ابزار هوش مصنوعی مولد وارد شود، می‌تواند در فرآیند یادگیری آن گنجانده شود، که می‌تواند منجر به نمایش اطلاعات حساس یا محرمانه در نتایج جستجوی سایر کاربران شود.»

اوت گذشته، OpenAI، توسعه‌دهنده ChatGPT، نسخه حرفه‌ای ChatGPT Enterprise را که از چت‌ها برای یادگیری استفاده نمی‌کند، راه‌اندازی کرد تا به شرکت‌هایی که از نشت اطلاعات می‌ترسند، اطمینان خاطر دهد.

گوگل به نوبه خود توصیه می‌کند که کارمندانش اطلاعات محرمانه یا حساس را در ربات چت خود، بارد، وارد نکنند.

جعل اسناد صوتی و تصویری

تهدید جدید اصلی برای هوش مصنوعی، سهولت کپی کردن چهره‌ها و صدا‌ها و ایجاد تطابق‌های دقیق است. با ضبطی که فقط چند ثانیه طول می‌کشد، برخی از ابزار‌های آنلاین به شما امکان می‌دهند یک کپی دقیق ایجاد کنید که ممکن است همکاران یا اقوام قربانی آن شوند.

جروم سائز، بنیانگذار Obvious Intelligence، معتقد است که این ابزار‌ها می‌توانند به سرعت توسط «گروهی کامل از بازیگران درگیر در کلاهبرداری‌های کوچک، که حضور پررنگی در فرانسه دارند و اغلب پشت کمپین‌های مخربی هستند که از پیامک برای به دست آوردن شماره کارت‌های بانکی استفاده می‌کنند»، مورد استفاده قرار گیرند.

او افزود: «این مجرمان جوان که عموماً جوان هستند، به راحتی قادر به تقلید صدا‌ها خواهند بود.»

در ماه ژوئن، یک مادر آمریکایی پس از تماس مردی با او و درخواست باج در ازای آزادی دخترش که ادعا می‌کرد ربوده شده است، قربانی کلاهبرداری شد. این مرد چیزی را پخش کرد که ادعا می‌کرد صدای جیغ‌های دختر قربانی‌اش است. این حادثه بدون هیچ تلفاتی پایان یافت، چرا که پلیس به کلاهبرداری مبتنی بر هوش مصنوعی مشکوک شد.

بلوا توضیح می‌دهد که برای شرکت‌هایی که از قبل با تاکتیک‌های کلاهبرداری گسترده شامل جعل هویت مدیرعامل شرکت برای دریافت حواله‌های مالی آشنا هستند، «استفاده از یک کلیپ صوتی یا تصویری جعلی» توسط یک هکر «می‌تواند ورق را به نفع آنها برگرداند».

هکر‌های مبتدی

سائز معتقد است که «هیچ‌کدام از حملات موفق سال گذشته نشان نمی‌دهند که نتیجه‌ی استفاده از هوش مصنوعی مولد بوده‌اند.»

اگرچه چت‌بات‌ها قادر به شناسایی برخی از نقص‌ها و تولید قطعات کد مخرب هستند، اما قادر به اجرای مستقیم آنها نیستند.

در مقابل، سائز معتقد است که هوش مصنوعی «به افراد با استعداد محدود اجازه می‌دهد مهارت‌های خود را بهبود بخشند» و این احتمال را که «کسانی که از صفر شروع می‌کنند بتوانند برنامه‌های رمزگذاری شده را با استفاده از ChatGPT توسعه دهند» رد می‌کند.

(خبرگزاری فرانسه)

ارسال نظرات
قوانین ارسال نظر