به گزارش مجله خبری نگار-پاریس: ناظران نگرانند که چتباتها و برنامههای جعل اسناد مبتنی بر هوش مصنوعی بتوانند کار جرایم سایبری و کلاهبرداران آنلاین را تسهیل کنند. این برنامهها حدود یک سال است که برای استفاده عمومی در دسترس هستند، بدون اینکه ماهیت حملات سایبری سنتی را به طور اساسی تغییر دهند.
فیشینگ شامل تماس با یک فرد هدف و وادار کردن او به وارد کردن اطلاعاتش در یک وبسایت هکشده است که شبیه وبسایت اصلی به نظر میرسد.
جروم بلویس، متخصص امنیت فناوری اطلاعات در شرکت مشاورهای Wavestone و نویسنده کتابی در مورد حملات سایبری، با ارسال ایمیلهای قانعکننده و عاری از غلطهای املایی، توضیح میدهد: «هوش مصنوعی حملات را تسهیل و تسریع میکند.»
هکرها در حال تبادل برنامههایی هستند که به آنها امکان میدهد بهطور خودکار پیامهای جعلی هدفمند، چه از طریق انجمنهای آنلاین و چه از طریق پیامهای خصوصی، تولید کنند.
برای غلبه بر محدودیتهای اعمالشده بر هوش مصنوعی توسط ارائهدهندگان راهکار، گروههای تخصصی از تابستان امسال، مدلهای زبانی آموزشدیده برای تولید محتوای مخرب را بازاریابی کردهاند، مشابه برنامه FrodGPT. اما اثربخشی آن هنوز باید اثبات شود.
بلوا هشدار میدهد: «ما هنوز در آغاز راه هستیم.»
طبق مطالعه اخیر گارتنر، هوش مصنوعی مولد یکی از پنج تهدید اصلی است که کسبوکارها از آن میترسند.
شرکتها، به ویژه در این حوزه، از نشت دادههای حساس به اشتراک گذاشته شده توسط کارمندان خود میترسند و همین امر باعث شده است که شرکتهای بزرگی از جمله اپل، آمازون و سامسونگ، استفاده از ChatGPT را برای کارمندان خود ممنوع کنند.
ران شاو، مدیر تحقیقات گارتنر، توضیح میدهد: «هر اطلاعاتی که در یک ابزار هوش مصنوعی مولد وارد شود، میتواند در فرآیند یادگیری آن گنجانده شود، که میتواند منجر به نمایش اطلاعات حساس یا محرمانه در نتایج جستجوی سایر کاربران شود.»
اوت گذشته، OpenAI، توسعهدهنده ChatGPT، نسخه حرفهای ChatGPT Enterprise را که از چتها برای یادگیری استفاده نمیکند، راهاندازی کرد تا به شرکتهایی که از نشت اطلاعات میترسند، اطمینان خاطر دهد.
گوگل به نوبه خود توصیه میکند که کارمندانش اطلاعات محرمانه یا حساس را در ربات چت خود، بارد، وارد نکنند.
تهدید جدید اصلی برای هوش مصنوعی، سهولت کپی کردن چهرهها و صداها و ایجاد تطابقهای دقیق است. با ضبطی که فقط چند ثانیه طول میکشد، برخی از ابزارهای آنلاین به شما امکان میدهند یک کپی دقیق ایجاد کنید که ممکن است همکاران یا اقوام قربانی آن شوند.
جروم سائز، بنیانگذار Obvious Intelligence، معتقد است که این ابزارها میتوانند به سرعت توسط «گروهی کامل از بازیگران درگیر در کلاهبرداریهای کوچک، که حضور پررنگی در فرانسه دارند و اغلب پشت کمپینهای مخربی هستند که از پیامک برای به دست آوردن شماره کارتهای بانکی استفاده میکنند»، مورد استفاده قرار گیرند.
او افزود: «این مجرمان جوان که عموماً جوان هستند، به راحتی قادر به تقلید صداها خواهند بود.»
در ماه ژوئن، یک مادر آمریکایی پس از تماس مردی با او و درخواست باج در ازای آزادی دخترش که ادعا میکرد ربوده شده است، قربانی کلاهبرداری شد. این مرد چیزی را پخش کرد که ادعا میکرد صدای جیغهای دختر قربانیاش است. این حادثه بدون هیچ تلفاتی پایان یافت، چرا که پلیس به کلاهبرداری مبتنی بر هوش مصنوعی مشکوک شد.
بلوا توضیح میدهد که برای شرکتهایی که از قبل با تاکتیکهای کلاهبرداری گسترده شامل جعل هویت مدیرعامل شرکت برای دریافت حوالههای مالی آشنا هستند، «استفاده از یک کلیپ صوتی یا تصویری جعلی» توسط یک هکر «میتواند ورق را به نفع آنها برگرداند».
سائز معتقد است که «هیچکدام از حملات موفق سال گذشته نشان نمیدهند که نتیجهی استفاده از هوش مصنوعی مولد بودهاند.»
اگرچه چتباتها قادر به شناسایی برخی از نقصها و تولید قطعات کد مخرب هستند، اما قادر به اجرای مستقیم آنها نیستند.
در مقابل، سائز معتقد است که هوش مصنوعی «به افراد با استعداد محدود اجازه میدهد مهارتهای خود را بهبود بخشند» و این احتمال را که «کسانی که از صفر شروع میکنند بتوانند برنامههای رمزگذاری شده را با استفاده از ChatGPT توسعه دهند» رد میکند.
(خبرگزاری فرانسه)