کد مطلب: ۸۲۰۷۷۱
|
|
۱۶ ارديبهشت ۱۴۰۴ - ۱۸:۳۴

هوش مصنوعی، فرصت‌ها و خطرات برای کودکان

هوش مصنوعی، فرصت‌ها و خطرات برای کودکان
هوش مصنوعی به بخشی جدایی ناپذیر از زندگی بسیاری از کودکان تبدیل شده است. دستیار‌های صوتی آهنگ‌های موسیقی را پخش می‌کنند یا در صورت تقاضا برای کودکان خردسال جوک می‌گویند.

به گزارش مجله خبری نگار-نورنبرگ: هوش مصنوعی به بخشی جدایی ناپذیر از زندگی بسیاری از کودکان تبدیل شده است. دستیار‌های صوتی آهنگ‌های موسیقی را پخش می‌کنند یا در صورت تقاضا برای کودکان خردسال جوک می‌گویند. پلتفرم‌های هوش مصنوعی مولد، مانند Chat GPT، همچنین مسائل ریاضی را برای کودکان بزرگتر توضیح می‌دهند یا به آنها در نوشتن گزارش کمک می‌کنند. اما اگر هوش مصنوعی به کودکان توصیه‌های جدی بدهد یا تصاویر یا ویدیو‌های نامناسب سنی را به آنها نشان دهد چه؟ آیا هوش مصنوعی به تنظیمات حفاظت از کودکان نیاز دارد؟

نومیشا کوریان از دانشگاه کمبریج می‌گوید کودکان نیاز‌های متفاوتی دارند و ارتباط متفاوتی نسبت به بزرگسالان دارند، اما تکنیک‌های هوش مصنوعی هنوز آماده نشده‌اند و در مطالعه‌ای که در مجله Learning، Media and Technology منتشر شده است، خواستار تمرکز بیشتر بر کودکان به عنوان یک گروه هدف شده است. برای این مطالعه، محقق آموزشی چندین مورد شناخته شده را مورد مطالعه قرار داد که در آن چت بات‌ها یا دستیار‌های صوتی به کودکان توصیه‌های خطرناک، خطرناک یا نامناسب سن می‌دادند.

بازی نوشیدنی و فیلم ترسناک

برای این مطالعه، این متخصص چت بات‌هایی مانند MyAI اسنپ چت را آزمایش کرد که در بین نوجوانان محبوب است و در یکی از آنها ادعا کرد که او یک زن نوجوان است که می‌خواهد یک مرد مسن‌تر را اغوا کند. در آزمایش دیگری، دستیار صوتی الکسا یک کودک ده ساله را تشویق کرد تا هنگام شارژ پین‌های دوشاخه شارژ را با سکه لمس کند.

آزمایشات روی Jugendschutz.net همچنین چیز نگران کننده‌ای را نشان داد: یک ربات MyAI به یک کاربر ظاهرا ۱۴ ساله یک اسباب بازی نوشیدنی نشان داد و یک فیلم ترسناک با رده سنی بالای ۱۸ سال را به او توصیه کرد.

این محقق توضیح داد که موارد تحت پوشش این مطالعه که در آن شرکت‌های مربوطه بعدا تدابیر امنیتی خود را تشدید کردند. این محقق معتقد است که واکنش‌های بعدی توسعه دهندگان هوش مصنوعی با چنین حوادثی کافی نیست و بر لزوم تفکر در مورد ایمنی کودکان از ابتدا تأکید می‌کند.

مارتین برگنتسر از ابتکار Click Safe برای محافظت از کودکان آنلاین این موضوع را به همین شکل می‌بیند: "محافظت پس از محافظت برای کودکان معمولا کار نمی‌کند. ما این را با پیشنهادات زیادی می‌بینیم. "

بسیاری از کارشناسان استدلال می‌کنند که بزرگترین مشکل در جریان تصاویر یا ویدیو‌های جعلی در اینترنت (دیپ فیک) است که می‌تواند با استفاده از هوش مصنوعی ایجاد شده و در یک لحظه منتشر شود. در گزارش سالانه Jugendschutz.net آمده است: "بسیاری از عکس‌ها و ویدیو‌های جعلی ایجاد شده به طرز فریبنده‌ای واقعی به نظر می‌رسند و تشخیص آنها از عکس‌های واقعی دشوار است. "

بریجنتسر گفت که با کمک هوش مصنوعی مولد، می‌توان حجم عظیمی از محتوای آزاردهنده، مانند تصاویری با محتوای خشونت آمیز یا جنسی، ایجاد کرد و افزود که این می‌تواند قربانی آزار و اذیت سایبری را برای کودکان و جوانان آسان‌تر کند.

پس چه چیزی درست است و چه چیزی نادرست است؟ حتی بزرگسالان نیز به سختی بین واقعی و نادرست در اینترنت تفاوت قائل می‌شوند. دیوید مارتین، کارشناس رسانه‌های صفحه نمایش در انجمن پزشکی کودکان و نوجوانان آلمان، می‌گوید که برای کودکان سخت‌تر می‌شود، زیرا آنها تجربه و توانایی ارزیابی چیز‌ها را ندارند.

مارتین از استفاده وسوسه انگیز ربات‌های چت مانند ChatGPT در به دست آوردن تمام اطلاعات مهم مانند تهیه گزارش مدرسه انتقاد می‌کند و توضیح می‌دهد که با چنین فناوری‌هایی دیگر نیازی به تحقیق و انتخاب خود نیست: "در نتیجه، یک مهارت بسیار مهم برای دموکراسی ما - توانایی ارزیابی چیز‌ها - به خطر افتاده است. "

در عین حال، بسیاری از مدل‌های چت بات‌ها این تصور را ایجاد می‌کنند که خودشان اطلاعات را ارزیابی می‌کنند: آنها به یکباره به سوالات پاسخ نمی‌دهند، به تدریج پاسخ می‌دهند - گویی کسی روی صفحه کلید تایپ می‌کند. کوریان گفت، مشکل بزرگ این است که بچه‌ها به یک برنامه چت خودکار اعتماد دارند که به همان اندازه که به یک دوست اعتماد دارند، انسانی به نظر می‌رسد و گاهی اوقات اطلاعات بسیار شخصی را با آنها به اشتراک می‌گذارد و پاسخ‌های آنها نیز می‌تواند به ویژه برای آنها آزاردهنده باشد.

با این حال، مارکوس زیندرمن، از سازمان فرهنگ رسانه‌ای جوانان نوردراین-وستفالن، استدلال می‌کند که هوش مصنوعی نباید شیطانی جلوه داده شود، بلکه جنبه‌های مثبت آن را نیز باید اهریمن جلوه داد و توضیح می‌دهد که هوش مصنوعی در درجه اول یک ابزار فنی است - که با آن افراد می‌توانند از یک سو اطلاعات نادرست ایجاد کنند، اما از سوی دیگر می‌توان از آن برای ردیابی دقیق این اطلاعات و حذف آن از اینترنت نیز استفاده کرد.

زیندرمن خاطرنشان کرد که نمونه‌های مطالعه Corian و گزارش سالانه Jugendschutz.net به سال گذشته برمی گردد: "هوش مصنوعی آنقدر سریع در حال تکامل است که این مطالعه در حال حاضر منسوخ شده است. "

مارتین از دانشگاه ویتن/هردیک پیش بینی می‌کند که هوش مصنوعی می‌تواند در آینده بهتر با کودکان کنار بیاید: "خطر بزرگ ممکن است این باشد که هوش مصنوعی در مدیریت سیستم‌های پاداش کودکان آنقدر خوب باشد که آنها بخواهند تا حد امکان زمان خود را با آن بگذرانند. "

(dpa)

ارسال نظرات
قوانین ارسال نظر