کد مطلب: ۹۱۶۳۰۲
|
|
۱۴ مهر ۱۴۰۴ - ۱۱:۴۶

هوش مصنوعی مرز خطری بودن را جابجا کرد!

هوش مصنوعی مرز خطری بودن را جابجا کرد!
هوش مصنوعی از مرز خطرناکی گذشت؛ جایی که دیگر حتی گوش شما هم نمی‌تواند به شنیده‌هایش اعتماد کند! پژوهش تازه دانشگاه کوئین مری لندن هشدار می‌دهد: اکنون با فناوری‌هایی روبه‌رو هستیم که صدا‌هایی کاملاً شبیه انسان تولید می‌کنند و تشخیص واقعیت از جعل را غیرممکن ساخته‌اند.

به گزارش مجله خبری نگار/ایتنا،بر اساس پژوهشی که در لندن انجام شده، فناوری‌های جعل عمقی صدا (Deepfake) به مرحله‌ای رسیده‌اند که تولید نمونه‌های صوتی غیرواقعی را آنچنان مشابه صدای انسان می‌کنند که تشخیص آن برای اغلب افراد بسیار دشوار است.

تیمی از پژوهشگران «دانشگاه کوئین مری لندن» در مطالعه‌ای که نتایج آن در مجله علمی PLOS ONE منتشر شد، به این نتیجه رسیدند که دیگر تمایز قائل شدن بین صدا‌های تولیدشده توسط هوش مصنوعی و صدا‌های واقعی انسان، تقریباً غیرممکن شده است.

این تیم تحقیقاتی اعلام کرد: «فناوری تولید صدا توسط هوش مصنوعی به حدی از بلوغ رسیده که قادر به ایجاد «کلون‌های صوتی» یا «جعل‌های عمیق» است که به اندازه صدا‌های ضبط‌شده از انسان‌ها طبیعی به نظر می‌رسند.»

در این مطالعه، از شرکت‌کنندگان خواسته شد تا به نمونه‌هایی از صدا‌های واقعی انسان و نیز صدا‌های مصنوعی تولیدشده توسط دو نوع مختلف از ابزار‌های پیشرفته سنتز صدا گوش دهند. برخی از این صدا‌های مصنوعی با هدف تقلید مستقیم از افراد واقعی شبیه‌سازی شده بودند و برخی دیگر با استفاده از مدل‌های زبانی بزرگ و بدون الگوبرداری از فردی خاص تولید شده بودند. وظیفه شرکت‌کنندگان ارزیابی میزان واقعی‌بودن و باورپذیری این صدا‌ها بود.

«نادین لاوان»، مدرس ارشد روانشناسی دانشگاه کوئین مری لندن، در همین رابطه هشدار داد: «ما باید درک کنیم که مردم چگونه واقعیت مصنوعی این صدا‌های بیش‌از اندازه واقع‌گرا را پردازش می‌کنند.» وی افزود: «رسیدن فناوری هوش مصنوعی به نقطه‌ای که بتواند گفتاری طبیعی و مشابه انسان تولید کند، تنها مسئله زمان بود.»

لاوان با اشاره به تولید این صدا‌های جعلی با استفاده از «نرم‌افزار‌های موجود در بازار» تأکید کرد: «این فرآیند برای تولید صدا‌هایی غیرقابل تشخیص، به حداقل تخصص، تنها چند دقیقه ضبط صدا از فرد هدف و عملاً بدون هیچ هزینه مالی قابل‌توجهی نیاز داشت.»

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر