کد مطلب: ۸۲۱۹۹۱
|
|
۱۸ ارديبهشت ۱۴۰۴ - ۱۸:۳۴

OpenAI نگران وابستگی عاطفی کاربران به دستیار صوتی خود است

OpenAI نگران وابستگی عاطفی کاربران به دستیار صوتی خود است
OpenAI، توسعه‌دهنده ChatGPT، نگران است که واقع‌گرایی بالای صدای نرم‌افزار هوش مصنوعی‌اش، کاربران را به سمت وابستگی به تعاملات خودکار به قیمت از دست دادن روابط انسانی سوق دهد.

به گزارش مجله خبری نگار-سانفرانسیسکو: OpenAI، توسعه‌دهنده ChatGPT، نگران است که واقع‌گرایی بالای صدای نرم‌افزار هوش مصنوعی‌اش، کاربران را به سمت وابستگی به تعاملات خودکار به قیمت از دست دادن روابط انسانی سوق دهد.

این شرکت مستقر در سانفرانسیسکو در گزارشی خاطرنشان کرد که چت کردن با هوش مصنوعی مانند چت کردن با شخص دیگر می‌تواند کاربران را به سمت اعتماد بیش از حد به برنامه‌های خودکار سوق دهد و صدای با کیفیت بالای ادغام شده در نسخه GPT-۴o از ChatGPT می‌تواند این اثر را تشدید کند.

شرکت OpenAI در گزارشی درباره کار امنیتی که روی نسخه ChatGPT-۴o نرم‌افزار هوش مصنوعی خود انجام می‌دهد، اعلام کرد که تکنیک‌های انسان‌انگاری «شامل انتساب رفتار‌ها و ویژگی‌های انسان‌مانند به موجودیت‌های غیرانسانی، مانند مدل‌های هوش مصنوعی» است.

او هشدار داد که «این خطر ممکن است با قابلیت‌های صوتی GPT-۴o که تعاملات انسان‌مانندتری را با نرم‌افزار خودکار تسهیل می‌کند، افزایش یابد.»

OpenAI اعلام کرد که کاربرانی را مشاهده کرده است که با هوش مصنوعی به روش‌هایی صحبت می‌کنند که نشان‌دهنده‌ی وجوه مشترکی است، مانند شکایت کردن با صدای بلند به ربات.

او خاطرنشان کرد که این موارد خوش‌خیم به نظر می‌رسند، اما برای تعیین چگونگی پیشرفت آنها در دوره‌های زمانی طولانی‌تر، باید مورد مطالعه قرار گیرند.

OpenAI حدس می‌زند که تعامل اجتماعی با هوش مصنوعی ممکن است باعث شود کاربران مهارت یا تمایل کمتری برای ارتباط با انسان‌ها داشته باشند.

در این گزارش اشاره شده است که «تعامل گسترده با نرم‌افزار ممکن است بر هنجار‌های اجتماعی تأثیر بگذارد» و افزوده شده است: «برای مثال، مدل‌های ما فروتنانه با کاربران تعامل می‌کنند و به آنها اجازه می‌دهند در هر زمانی صحبت کنند و نوبت خود را بگیرند. این با آداب معاشرت در تعاملات انسانی مغایرت دارد، در حالی که از هوش مصنوعی انتظار می‌رود.»

طبق گفته OpenAI، توانایی هوش مصنوعی در به خاطر آوردن جزئیات در طول مکالمات و انجام وظایف می‌تواند افراد را بیش از حد به فناوری وابسته کند.

- جایگزینی برای انسان؟ -

«نگرانی‌های اخیر OpenAI در مورد اتکای بالقوه به سرویس صوتی ChatGPT به چیزی اشاره دارد که بسیاری از افراد از قبل شروع به پرسیدن آن کرده‌اند: آیا زمان آن رسیده است که مکث کنیم و در مورد چگونگی تأثیر این فناوری بر تعاملات و روابط انسانی تأمل کنیم؟» آلون یامین، یکی از بنیانگذاران و مدیرعامل CopyLeaks، پلتفرمی که در تشخیص سرقت ادبی با استفاده از هوش مصنوعی تخصص دارد، گفت.

او تأکید کرد که هوش مصنوعی هرگز نباید جایگزین تعامل واقعی انسان شود.

OpenAI اعلام کرد که بیشتر آزمایش خواهد کرد که چگونه قابلیت‌های صوتی هوش مصنوعی می‌تواند افراد را از نظر احساسی با ربات مرتبط کند.

تیم‌هایی که قابلیت‌های صوتی ChatGPT-۴o را آزمایش می‌کنند، توانسته‌اند آن را وادار به تکرار اطلاعات نادرست و تولید نظریه‌های توطئه کنند که این امر نگرانی‌هایی را در مورد خودکار شدن هوش مصنوعی ایجاد کرده است.

شرکت OpenAI در ماه ژوئن مجبور شد از اسکارلت جوهانسون، بازیگر، به خاطر استفاده از صدایی شبیه به او در جدیدترین ربات چت خود عذرخواهی کند و این موضوع، سوءاستفاده‌های احتمالی از فناوری شبیه‌سازی صدا را برجسته کرد.

اگرچه OpenAI انکار کرد که صدای استفاده شده متعلق به جوهانسون است، اما استفاده سم آلتمن، مدیرعامل این شرکت، از اصطلاح «او» (Her) برای اشاره به مدل جدید در رسانه‌های اجتماعی، شک و تردید‌ها در این زمینه را افزایش داد.

جوهانسون در فیلم «او» صداپیشگی یک شخصیت هوش مصنوعی را بر عهده داشت، فیلمی که آلتمن پیش از این گفته بود فیلم مورد علاقه‌اش درباره فناوری است.

در فیلم محصول ۲۰۱۳، واکین فینیکس نقش مردی را بازی می‌کند که عاشق یک دستیار هوش مصنوعی به نام سامانتا می‌شود.

(خبرگزاری فرانسه)

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر