به گزارش مجله خبری نگار، رومن دوشکین، رئیس برنامه آموزشی هوش مصنوعی در MEPhI، گفت: یکی از خطرات شبکههای عصبی این است که کلاهبرداران میتوانند رفتار افراد خاصی را کپی کنند. اینگونه بود که او در مورد آزمایش دانشمندان دانشگاه استنفورد اظهار نظر کرد که با استفاده از مدل زبان بزرگ ChatGPT توانستند نسخههای دیجیتالی از بیش از هزار شخصیت ایجاد کنند که دقت آنها را ۸۵ درصد تخمین زدند.
ما میتوانیم نمایه یک فرد را با پاسخ دادن به برخی سوالات، با اظهارات او در شبکههای اجتماعی، با هر متنی که به عنوان بخشی از ردپای دیجیتالی خود به جا میگذارد، کپی کنیم. ما در اینجا در مورد چه چیزی صحبت میکنیم؟ اینکه یک مهاجم به طور بالقوه میتواند متنهای قربانی خود را جمع آوری کرده و آنها را به مدل GPT بدهد و سپس سعی کند از او در مورد برخی چیزها بپرسد، یعنی مشخصات شخص. کارشناس توضیح داد.
به گفته وی، اکنون زمان آن است که به این فکر کنیم که آیا لازم است ردپای دیجیتالی در همه جا باقی بماند یا خیر. دوشکین گفت که در این مورد، بررسی حسابهای افرادی که فرد از آنها مینویسد مهم است.
در همان زمان، طرف مقابل اعتراف کرد که نسخههای دیجیتالی تولید شده توسط هوش مصنوعی از شخصیت میتوانند مفید باشند، با کمک آنها میتوانید مشکلات مختلف روزمره را حل کنید. این متخصص میگوید شبکههای عصبی فقط فناوری هستند و نحوه استفاده از آنها، خوب یا آسیب، فقط به خود مردم بستگی دارد.
به عنوان مثال، من ارتشی از نمایندگان دارم (سیستمهایی که مشکلات خاصی را بر اساس مدلهای زبان حل میکنند.). همه کارمندان من ارتشی از نمایندگان دارند که در کارهای روزمره کمک میکنند.
پیش از این، جفری هینتون، دانشمند بریتانیایی-کانادایی، که "پدرخوانده" هوش مصنوعی محسوب میشود، گفته بود که احتمال انقراض انسان به دلیل هوش مصنوعی در دهههای آینده به ۲۰ درصد میرسد. او هشدار داد که افراد بد از فناوری برای آسیب رساندن به دیگران استفاده میکنند.