به گزارش مجله خبری نگار/سرپوش،شرکت «اوپنای آی» ابزار رونویسی مبتنی بر هوش مصنوعی خود به نام «ویسپر» (Wisper) را با ادعای آنکه دقت و قدرتی معادل یک کاربر انسانی دارد، عرضه کرده است.
اما ویسپر یک چالش اساسی دارد. به گفته مهندسان نرم افزار، توسعه دهندگان و محققان آکادمیک ممکن است این ابزار بخشی از متن یا حتی جملاتی کامل را خودش بنویسد. این کارشناسان معتقدند برخی از متنهای اختراعی این ابزار ممکن است حاوی اظهارات نژادی، خشونت آمیز یا حتی درمانهای پزشکی خیالی باشد.
به گفته آنها چنین جملاتی مشکل ساز هستند، زیرا از این ابزار در چند صنعت در سراسر جهان برای تبدیل مصاحبه ها، تولید متن در زمینه فناوریهای مصرفی محبوب و ساخت زیرنویس برای ویدئوها استفاده میشود.
نکته نگران کننده تر، عجله مراکز پزشکی برای استفاده از ابزارهای مبتنی بر ویسپر برای رونویسی مشاورههای بیماران با پزشکان است. حال آنکه اوپنای آی قبلا هشدار داده از این ابزار نباید در حوزههایی با ریسک زیاد استفاده شود.
گستره کامل این مشکل را به سختی میتوان تعیین کرد، اما محققان و مهندسان اعلام کرده اند در فعالیت هایشان اغلب با توهمات ابداعی ویسپر روبرو شده اند. به عنوان مثال یک محقق دانشگاه میشیگان مشغول انجام تحقیقی از جلسات عمومی بود و در هر ۱۰ رونویسی کلیپ صوتی که او بررسی کرده بود ۸ مورد حاوی توهمات ویسپر بودند. پس از آن وی تلاش خود برای ارتقای این مدل هوش مصنوعی را آغاز کرد.
یک مهندس یادگیری ماشینی نیز میگوید او بیش از ۱۰۰ ساعت نمونه رونویسی که ویسپر انجام داده بود را تحلیل و در حدود نیمی از آنها توهمات این هوش مصنوعی را مشاهده کرده است. محقق سومی نیز مدعی شده هنگام بررسی ۲۶ هزار متنی که با کمک ویسپر ابداع شده، تقریبا در هر یک از رونویسیها توهمات این ابزار را مشاهده کرده است.
این چالش حتی در رونویسی از نمونههای کوتاه و با کیفیت صوتی نیز وجود دارد.