کد مطلب: ۷۵۳۱۴۵
|
|

کارشناس هوش مصنوعی خطر غیر آشکار شبکه‌های عصبی را بیان کرد

کارشناس هوش مصنوعی خطر غیر آشکار شبکه‌های عصبی را بیان کرد
کارشناس دوشکین: کلاهبرداران با کمک هوش مصنوعی می‌توانند رفتار قربانی را پیش بینی کنند

به گزارش مجله خبری نگار، رومن دوشکین، رئیس برنامه آموزشی هوش مصنوعی در MEPhI،  گفت: یکی از خطرات شبکه‌های عصبی این است که کلاهبرداران می‌توانند رفتار افراد خاصی را کپی کنند. اینگونه بود که او در مورد آزمایش دانشمندان دانشگاه استنفورد اظهار نظر کرد که با استفاده از مدل زبان بزرگ ChatGPT توانستند نسخه‌های دیجیتالی از بیش از هزار شخصیت ایجاد کنند که دقت آنها را ۸۵ درصد تخمین زدند.

ما می‌توانیم نمایه یک فرد را با پاسخ دادن به برخی سوالات، با اظهارات او در شبکه‌های اجتماعی، با هر متنی که به عنوان بخشی از ردپای دیجیتالی خود به جا می‌گذارد، کپی کنیم. ما در اینجا در مورد چه چیزی صحبت می‌کنیم؟ اینکه یک مهاجم به طور بالقوه می‌تواند متن‌های قربانی خود را جمع آوری کرده و آنها را به مدل GPT بدهد و سپس سعی کند از او در مورد برخی چیز‌ها بپرسد، یعنی مشخصات شخص. کارشناس توضیح داد.

به گفته وی، اکنون زمان آن است که به این فکر کنیم که آیا لازم است ردپای دیجیتالی در همه جا باقی بماند یا خیر. دوشکین گفت که در این مورد، بررسی حساب‌های افرادی که فرد از آنها می‌نویسد مهم است.

در همان زمان، طرف مقابل اعتراف کرد که نسخه‌های دیجیتالی تولید شده توسط هوش مصنوعی از شخصیت می‌توانند مفید باشند، با کمک آنها می‌توانید مشکلات مختلف روزمره را حل کنید. این متخصص می‌گوید شبکه‌های عصبی فقط فناوری هستند و نحوه استفاده از آنها، خوب یا آسیب، فقط به خود مردم بستگی دارد.

به عنوان مثال، من ارتشی از نمایندگان دارم (سیستم‌هایی که مشکلات خاصی را بر اساس مدل‌های زبان حل می‌کنند.). همه کارمندان من ارتشی از نمایندگان دارند که در کار‌های روزمره کمک می‌کنند.

پیش از این، جفری هینتون، دانشمند بریتانیایی-کانادایی، که "پدرخوانده" هوش مصنوعی محسوب می‌شود، گفته بود که احتمال انقراض انسان به دلیل هوش مصنوعی در دهه‌های آینده به ۲۰ درصد می‌رسد. او هشدار داد که افراد بد از فناوری برای آسیب رساندن به دیگران استفاده می‌کنند.

ارسال نظرات
قوانین ارسال نظر