به گزارش مجله خبری نگار، اوپنایآی (Open_AI) از ابزاری برای شبیه سازی صدای مردم رونمایی کرده است، اما به دلیل نگرانی در مورد سوء استفاده احتمالی در یک سال کلیدی انتخابات، از انتشار عمومی آن جلوگیری میکند.
بر اساس یک پست وبلاگ OpenAI که ابزار را نشان میدهد، Voice Engine میتواند صدای یک فرد را بر اساس یک نمونه صوتی ۱۵ ثانیهای تکرار کند.
سازنده ChatGPT «رویکردی محتاطانه و آگاهانه» را در قبال این فناوری در پیش گرفته است و امیدوار است که گفتوگویی درباره «استقرار مسئولانه صداهای مصنوعی» آغاز کند، این شرکت در پست وبلاگ منتشر شده جمعه ۹ فروردین گفت.
این استارتآپ مستقر در سانفرانسیسکو گفت: ما تشخیص میدهیم که تولید سخنانی که شبیه صدای مردم است، خطرناک است
ما در حال تعامل با شرکای ایالات متحده و بینالمللی از سراسر دولت، رسانه، سرگرمی، آموزش، جامعه مدنی و فراتر از آن هستیم تا اطمینان حاصل کنیم که بازخورد آنها را در حین ساختن خود به کار میگیریم.
اوپنایآی گفت که "تصمیم آگاهانه تری" در مورد استقرار فناوری در مقیاس مبتنی بر آزمایش و بحث عمومی خواه
این شرکت اضافه کرد که معتقد است این فناوری تنها باید با اقداماتی گسترش یابد که تضمین کند "گوینده اصلی آگاهانه صدای خود را به سرویس اضافه میکند" و از "ایجاد صداهایی که بیش از حد شبیه به چهرههای برجسته است" جلوگیری میکند.
سوءاستفاده از هوش مصنوعی به عنوان یک نگرانی بزرگ در آستانه انتخابات امسال در کشورهایی که حدود نیمی از جمعیت جهان را تشکیل میدهند، ظاهر شده است.
رای دهندگان در بیش از ۸۰ کشور از جمله مکزیک، آفریقای جنوبی و ایالات متحده در سال ۲۰۲۴ به پای صندوق ه
تأثیر هوش مصنوعی بر رأی دهندگان قبلاً در چندین انتخابات مورد بررسی قرار گرفته است.
عمران خان، نخست وزیر سابق زندانی پاکستان، در آستانه انتخابات پارلمانی این کشور در ماه فوریه، از سخنرانیهای تولید شده توسط هوش مصنوعی برای جلب نظر حامیان خود استفاده کرد.
اوپنایآی گفت چندین تدابیر ایمنی را برای شرکای خود که Voice Engine را آزمایش میکنند، اجرا کرده است.
از جمله واترمارکینگ برای ردیابی منشاء هر صدای تولید شده توسط Voice Engine، و همچنین نظارت فعال بر نحوه استفاده از آن.