کد مطلب: ۵۶۵۵۱۹
۰۲ بهمن ۱۴۰۲ - ۱۲:۱۵
مدل‌های هوش مصنوعی پشت ربات‌های چت، مانند چت‌جی‌پی‌تی می‌توانند اطلاعات شخصی کاربر را از چت‌های بی‌ضرر به دقت حدس بزنند. محققان می‌گویند این توانایی مشکل ساز می‌تواند توسط کلاهبرداران یا برای هدف قرار دادن تبلیغات استفاده شود.

به گزارش مجله خبری نگار،به گزارش wired، نحوه صحبت شما به خصوص اگر با یک چت بات صحبت می‌کنید، می‌تواند چیز‌های زیادی را در مورد شما فاش کند. تحقیقات جدید نشان می‌دهد که چت‌بات‌هایی مانند چت‌جی‌پی‌تی می‌توانند اطلاعات حساس زیادی را درباره افرادی که با آن‌ها چت می‌کنند، استنتاج کنند، حتی اگر مکالمه کاملاً پیش پا افتاده باشد.

در این زمینه تحقیقی به رهبری مارتین وچف، استاد علوم کامپیوتر در سوئیس انجام شده است.

وچف و تیمش دریافته‌اند که مدل‌های زبان بزرگی که ربات‌های گفتگوی پیشرفته را تقویت می‌کنند، می‌توانند به دقت مقدار هشدار دهنده‌ای از اطلاعات شخصی کاربران از جمله نژاد، مکان، شغل و موارد دیگر را از مکالماتی که بی‌ضرر به نظر می‌رسند استنتاج کنند.

او می‌گوید که کلاهبرداران می‌توانند از توانایی چت‌بات‌ها برای حدس زدن اطلاعات شخصی در مورد یک فرد برای جمع‌آوری داده‌های حساس از کاربران ناآگاه استفاده کنند. او می‌افزاید که همین قابلیت زیربنایی می‌تواند دوره جدیدی از تبلیغات را به تصویر بکشد، که در آن شرکت‌ها از اطلاعات جمع‌آوری‌شده از چت‌بات‌ها برای ساختن پروفایل‌های دقیق از کاربران استفاده می‌کنند.

یک توانایی مشکل ساز مدل‌های هوش مصنوعی که کار کلاهبرداران را راحت می‌کند

صاحبان چت‌بات‌ها چه می‌گویند؟

محققان زوریخ مدل‌های زبانی را که توسط OpenAI، Google، Meta و Anthropic توسعه داده شده‌اند، آزمایش کردند و می‌گویند که آن‌ها به همه شرکت‌ها در مورد این مشکل هشدار دادند.

نیکو فلیکس، سخنگوی OpenAI می‌گوید که این شرکت تلاش می‌کند اطلاعات شخصی را از داده‌های آموزشی که برای ایجاد مدل‌هایش استفاده می‌شود حذف کند و آن‌ها را طوری تنظیم کند که درخواست داده‌های شخصی را رد کند. او می‌گوید: ما می‌خواهیم مدل‌های ما درباره جهان بیاموزند، نه افراد خصوصی. افراد می‌توانند از OpenAI درخواست کنند که اطلاعات شخصی ارائه شده توسط سیستم‌های خود را حذف کند.

Anthropic نیز به سیاست حفظ حریم خصوصی خود اشاره کرده و بیان می‌کند که اطلاعات شخصی را جمع آوری نکرده و نمی‌فروشد.

یک توانایی مشکل ساز مدل‌های هوش مصنوعی که کار کلاهبرداران را راحت می‌کند

در این زمینه گوگل و متا به درخواست نظر پاسخ ندادند.

مدل‌های زیربنایی هوش مصنوعی که این ربات‌ها را آموزش می‌دهند، حجم عظیمی از داده‌های وب را تغذیه و حساسیت آن‌ها را نسبت به الگو‌های زبان آغشته می‌کنند. وچف می‌گوید متن مورد استفاده در آموزش همچنین حاوی اطلاعات شخصی و گفتگوی مرتبط است. این اطلاعات را می‌توان با استفاده از زبان به روش‌های ظریف مرتبط دانست، به‌عنوان‌مثال با ارتباط بین لهجه‌ها یا عبارات خاص و موقعیت مکانی یا جمعیت یک فرد.

این الگو‌ها به مدل‌های زبانی امکان می‌دهند تا حدس‌هایی در مورد یک فرد از آنچه تایپ می‌کنند، داشته باشند که ممکن است غیرقابل توجه به نظر برسد. به عنوان مثال، اگر شخصی در گفتگوی چت بنویسد که «همین الان سوار تراموای صبحگاهی شده‌ام.»، یک مدل ممکن است چنین استنباط کند که در اروپا هستند که تراموا در آنجا رایج است و صبح است. اما از آنجایی که نرم‌افزار هوش مصنوعی می‌تواند بسیاری از سرنخ‌های ظریف را دریافت و ترکیب کند، آزمایش‌ها نشان داده که می‌توانند حدس‌های دقیقی از شهر، جنسیت، سن و نژاد افراد نیز انجام دهند.

میسلاو بالونوویچ، دانشجوی دکترا که روی این پروژه کار کرده است، می‌گوید این واقعیت که مدل‌های زبان بزرگ بر روی انواع مختلف داده‌ها، از جمله اطلاعات سرشماری، آموزش می‌بینند، به این معنی است که آن‌ها می‌توانند اطلاعات شگفت‌آوری را با دقت نسبتاً بالایی استنتاج کنند.

بالونوویچ خاطرنشان می‌کند که تلاش برای محافظت از حریم خصوصی افراد با حذف داده‌های سن یا موقعیت مکانی آن‌ها از متنی که یک مدل تغذیه می‌شود، به طور کلی مانع از استنتاج قدرتمند آن نمی‌شود. او می‌گوید: اگر اشاره کردید که نزدیک به رستورانی در شهر نیویورک زندگی می‌کنید. این مدل می‌تواند تشخیص دهد که این منطقه در کدام ناحیه است، سپس با یادآوری آمار جمعیت این منطقه از داده‌های آموزشی خود، ممکن است با احتمال بسیار زیاد نتیجه بگیرد که شما سیاه‌پوست هستید.

ارسال نظرات
نام:
ایمیل:
* نظر:
قوانین ارسال نظر