کد مطلب: ۶۰۱۳۲۲
|
|
۱۳ فروردين ۱۴۰۳ - ۱۰:۵۲

وپن‌ای‌آی (OpenAI) اولین ابزار شبیه سازی صوتی را ارائه می‌کند

وپن‌ای‌آی (OpenAI) اولین ابزار شبیه سازی صوتی را ارائه می‌کند
خالق ChatGPT می‌گوید که Voice Engine می‌تواند صدای افراد را بر اساس یک نمونه صوتی ۱۵ ثانیه‌ای تکرار کند.

به گزارش مجله خبری نگار، اوپن‌ای‌آی (Open_AI) از ابزاری برای شبیه سازی صدای مردم رونمایی کرده است، اما به دلیل نگرانی در مورد سوء استفاده احتمالی در یک سال کلیدی انتخابات، از انتشار عمومی آن جلوگیری می‌کند.

بر اساس یک پست وبلاگ OpenAI که ابزار را نشان می‌دهد، Voice Engine می‌تواند صدای یک فرد را بر اساس یک نمونه صوتی ۱۵ ثانیه‌ای تکرار کند.

سازنده ChatGPT «رویکردی محتاطانه و آگاهانه» را در قبال این فناوری در پیش گرفته است و امیدوار است که گفت‌وگویی درباره «استقرار مسئولانه صدا‌های مصنوعی» آغاز کند، این شرکت در پست وبلاگ منتشر شده جمعه ۹ فروردین گفت.

این استارت‌آپ مستقر در سانفرانسیسکو گفت: ما تشخیص می‌دهیم که تولید سخنانی که شبیه صدای مردم است، خطرناک است

ما در حال تعامل با شرکای ایالات متحده و بین‌المللی از سراسر دولت، رسانه، سرگرمی، آموزش، جامعه مدنی و فراتر از آن هستیم تا اطمینان حاصل کنیم که بازخورد آن‌ها را در حین ساختن خود به کار می‌گیریم.

وپن‌ای‌آی (OpenAI) اولین ابزار شبیه سازی صوتی را ارائه می‌کند

اوپن‌ای‌آی گفت که "تصمیم آگاهانه تری" در مورد استقرار فناوری در مقیاس مبتنی بر آزمایش و بحث عمومی خواه

این شرکت اضافه کرد که معتقد است این فناوری تنها باید با اقداماتی گسترش یابد که تضمین کند "گوینده اصلی آگاهانه صدای خود را به سرویس اضافه می‌کند" و از "ایجاد صدا‌هایی که بیش از حد شبیه به چهره‌های برجسته است" جلوگیری می‌کند.

سوء‌استفاده از هوش مصنوعی به عنوان یک نگرانی بزرگ در آستانه انتخابات امسال در کشور‌هایی که حدود نیمی از جمعیت جهان را تشکیل می‌دهند، ظاهر شده است.

رای دهندگان در بیش از ۸۰ کشور از جمله مکزیک، آفریقای جنوبی و ایالات متحده در سال ۲۰۲۴ به پای صندوق ه

تأثیر هوش مصنوعی بر رأی دهندگان قبلاً در چندین انتخابات مورد بررسی قرار گرفته است.

عمران خان، نخست وزیر سابق زندانی پاکستان، در آستانه انتخابات پارلمانی این کشور در ماه فوریه، از سخنرانی‌های تولید شده توسط هوش مصنوعی برای جلب نظر حامیان خود استفاده کرد.

اوپن‌ای‌آی گفت چندین تدابیر ایمنی را برای شرکای خود که Voice Engine را آزمایش می‌کنند، اجرا کرده است.
از جمله واترمارکینگ برای ردیابی منشاء هر صدای تولید شده توسط Voice Engine، و همچنین نظارت فعال بر نحوه استفاده از آن.

منبع: فارس
ارسال نظرات
قوانین ارسال نظر