کد مطلب: ۳۴۵۷۵۶
|
|
۰۸ مهر ۱۴۰۱ - ۲۲:۴۱

دستیار‌های صوتی مبتنی‌بر هوش مصنوعی مانعی برای یادگیری کودکان

دستیار‌های صوتی مبتنی‌بر هوش مصنوعی مانعی برای یادگیری کودکان
کارشناسان درمورد دستیار‌های صوتی مبتنی‌بر هوش مصنوعی هشدار می‌دهند که این فناوری‌ها می‌تواند روی رشد اجتماعی کودکان تأثیر منفی داشته باشند.

به گزارش مجله خبری نگار، ازمدتی قبل، نگرانی‌هایی درمورد حریم‌خصوصی دستیار‌های صوتی ازجمله گوگل اسیستنت، آمازون آلکسا و اپل سیری مطرح شده است، اما با این‌وجود، نفوذ این دستیار‌ها در میلیون‌ها خانه درسرتاسر جهان همچنان ادامه دارد. اکنون به‌نظر می‌رسد این فناوری‌ها بر رشد روانی-اجتماعی و کسب مهارت‌های زندگی در کودکان، تأثیر منفی دارند.

براساس تجزیه‌وتحلیل کارشناسان دانشکده‌ی پزشکی بالینی دانشگاه کمبریج، تعامل با دستیار‌های صوتی مبتنی‌بر هوش مصنوعی از سه‌طریق روی کودکان تأثیر دارد و درواقع این ابزارها، مانعی برای فرصت‌های یادگیری هستند.

دستیار‌های هوش مصنوعی شرکت‌های بزرگی مثل آمازون، اپل و گوگل با سرعت ترسناکی به پیشرفت خود ادامه می‌دهد و با گذشت هرسال، شاهد افزایش درخورتوجه توانایی آن‌ها در یادگیری و ارائه‌ی پاسخ‌های مرتبط با نیاز کاربران هستیم. کارشناسان اعتقاد دارند، سهولت دسترسی و استفاد از این ابزارها، روند سنتی کسب دانش را کنار زده است.

مسئله‌ی واقعی در اینجا، این است که وقتی کودکان پرسشی را درمقابل فرد بالغ از جمله والدین یا معلمان خود مطرح می‌کنند، اغلب درمورد زمینه و دلیل سؤال، از آن‌ها سؤال دیگری پرسیده می‌شود. علاوه‌براین، زمانی‌که یک فرد خودش به‌دنبال پاسخ موردنظر جستجو می‌کند، رویکردی انتقادی و همچنین استدلال منطقی برای تجزیه‌ی نوع صحیح اطلاعات اتخاذ می‌کند و دامنه‌ی تخیل وی نیز گسترش خواهد یافت.

کودکان از روش بازیابی اطلاعات از اینترنت، محل ذخیره‌ی داده‌ها در اینترنت و محدودیت‌های اینترنت درک بسیار کمی دارند و با وجود چنین زمینه‌ای، جذب اطلاعات نادرست برای ذهن‌های جوان بسیار آسان‌تر خواهد بود.

منابع اطلاعات نادرست در اینترنت، نیازی به معرفی ندارد و پلتفرم‌های مختلف همچنان برای مهار آن‌ها تلاش می‌کنند، اما دستیار‌های مبتنی‌بر هوش مصنوعی، اوضاع را بدتر کرده‌اند. نتایج یک پروژه‌ی تحقیقاتی استنفورد درسال ۲۰۲۱ نشان داد که شرکت‌هایی مثل آمازون با دستیار آلکسا، گوگل با دستیار اسیستنت و اپل با دستیار سیری، مجموعه‌ی متفاوتی از پاسخ‌ها را برای درخواست‌های حوزه‌ی سلامت را ارائه می‌دهند. برای تصمیم‌گیری درست درچنین سناریوهایی، می‌توان به افراد بزرگ‌سال اطمینان کرد، اما کودکان در این شرایط درمعرض خطر قرار دارند.

ازطرف دیگر دستیار‌های هوش مصنوعی باعث توقف رشد اجتماعی شده‌اند. گفتگو‌های انسان‌ها با یکدیگر به‌اصطلاح به تقویت آداب معاشرت کمک می‌کند و به کودکان اجازه می‌دهد یاد بگیرند در دنیای بیرون چگونه رفتار کنند و این درحالی است که صحبت کردن با دستیار‌های دیجیتال، چنین مزیتی را ارائه نمی‌دهد.

دستیار‌های مبتنی‌بر هوش‌مصنوعی با وجود پیشرفت‌هایی مثل پردازش زبان طبیعی و نوآوری‌هایی مثل پروژه‌ی LaMDA گوگل، همچنان در زمینه‌ی تعاملات اجتماعی عملکرد مناسبی ندارند. گوگل اسیستنت می‌تواند مثل یک انسان و به‌طور طبیعی با شما صحبت کند، اما این ابزار قادر نیست آداب اولیه را به کودکان آموزش دهد. دستیار‌های مجازی همچنین نمی‌توانند به کودکان یاد دهند که چگونه مثل یک انسان شایسته رفتار کنند.

به‌عنوان مثال هنگام گفتگو با دستیار‌های هوش مصنوعی، بیان کردن اصطلاحات مؤدبانه‌ای مثل «لطفاً» درنظر گرفته نمی‌شود. امروزه در دنیایی زندگی می‌کنیم که دامنه‌ی تعاملات انسان‌ها واقعاً کم شده است که این شرایط، خطر بزرگی برای رشد اجتماعی ذهن‌های جوان به‌دنبال خواهد داشت.

درنهایت مشکل ارائه‌ی پاسخ‌های نامناسب، یکی دیگر از ویژگی‌های مضر دستیار‌های دیجیتال است. همه‌ی والدین، مهارت‌های دیجیتالی موردنیاز برای تعیین مرز‌های سخت‌گیرانه و همچنین کنترل‌های نرم‌افزاری را ندارند و این خطر باعث می‌شود کودکان درمعرض محتوایی قرار بگیرند که برای سن آن‌ها مناسب نبوده و می‌تواند آن‌ها را به‌طور مستقیم به‌سمت اطلاعات مضر هدایت کند. در سال ۲۰۲۱، دستیار صوتی آمازون آلکسا با به چالش کشیدن یک کودک ۱۰ ساله برای لمس یک مدار الکترونیکی با سکه‌ی فلزی، جان وی را به‌خطر انداخته بود.

منبع: yjc
ارسال نظرات
قوانین ارسال نظر