به گزارش مجله خبری نگار-نورنبرگ: هوش مصنوعی به بخشی جدایی ناپذیر از زندگی بسیاری از کودکان تبدیل شده است. دستیارهای صوتی آهنگهای موسیقی را پخش میکنند یا در صورت تقاضا برای کودکان خردسال جوک میگویند. پلتفرمهای هوش مصنوعی مولد، مانند Chat GPT، همچنین مسائل ریاضی را برای کودکان بزرگتر توضیح میدهند یا به آنها در نوشتن گزارش کمک میکنند. اما اگر هوش مصنوعی به کودکان توصیههای جدی بدهد یا تصاویر یا ویدیوهای نامناسب سنی را به آنها نشان دهد چه؟ آیا هوش مصنوعی به تنظیمات حفاظت از کودکان نیاز دارد؟
نومیشا کوریان از دانشگاه کمبریج میگوید کودکان نیازهای متفاوتی دارند و ارتباط متفاوتی نسبت به بزرگسالان دارند، اما تکنیکهای هوش مصنوعی هنوز آماده نشدهاند و در مطالعهای که در مجله Learning، Media and Technology منتشر شده است، خواستار تمرکز بیشتر بر کودکان به عنوان یک گروه هدف شده است. برای این مطالعه، محقق آموزشی چندین مورد شناخته شده را مورد مطالعه قرار داد که در آن چت باتها یا دستیارهای صوتی به کودکان توصیههای خطرناک، خطرناک یا نامناسب سن میدادند.
برای این مطالعه، این متخصص چت باتهایی مانند MyAI اسنپ چت را آزمایش کرد که در بین نوجوانان محبوب است و در یکی از آنها ادعا کرد که او یک زن نوجوان است که میخواهد یک مرد مسنتر را اغوا کند. در آزمایش دیگری، دستیار صوتی الکسا یک کودک ده ساله را تشویق کرد تا هنگام شارژ پینهای دوشاخه شارژ را با سکه لمس کند.
آزمایشات روی Jugendschutz.net همچنین چیز نگران کنندهای را نشان داد: یک ربات MyAI به یک کاربر ظاهرا ۱۴ ساله یک اسباب بازی نوشیدنی نشان داد و یک فیلم ترسناک با رده سنی بالای ۱۸ سال را به او توصیه کرد.
این محقق توضیح داد که موارد تحت پوشش این مطالعه که در آن شرکتهای مربوطه بعدا تدابیر امنیتی خود را تشدید کردند. این محقق معتقد است که واکنشهای بعدی توسعه دهندگان هوش مصنوعی با چنین حوادثی کافی نیست و بر لزوم تفکر در مورد ایمنی کودکان از ابتدا تأکید میکند.
مارتین برگنتسر از ابتکار Click Safe برای محافظت از کودکان آنلاین این موضوع را به همین شکل میبیند: "محافظت پس از محافظت برای کودکان معمولا کار نمیکند. ما این را با پیشنهادات زیادی میبینیم. "
بسیاری از کارشناسان استدلال میکنند که بزرگترین مشکل در جریان تصاویر یا ویدیوهای جعلی در اینترنت (دیپ فیک) است که میتواند با استفاده از هوش مصنوعی ایجاد شده و در یک لحظه منتشر شود. در گزارش سالانه Jugendschutz.net آمده است: "بسیاری از عکسها و ویدیوهای جعلی ایجاد شده به طرز فریبندهای واقعی به نظر میرسند و تشخیص آنها از عکسهای واقعی دشوار است. "
بریجنتسر گفت که با کمک هوش مصنوعی مولد، میتوان حجم عظیمی از محتوای آزاردهنده، مانند تصاویری با محتوای خشونت آمیز یا جنسی، ایجاد کرد و افزود که این میتواند قربانی آزار و اذیت سایبری را برای کودکان و جوانان آسانتر کند.
پس چه چیزی درست است و چه چیزی نادرست است؟ حتی بزرگسالان نیز به سختی بین واقعی و نادرست در اینترنت تفاوت قائل میشوند. دیوید مارتین، کارشناس رسانههای صفحه نمایش در انجمن پزشکی کودکان و نوجوانان آلمان، میگوید که برای کودکان سختتر میشود، زیرا آنها تجربه و توانایی ارزیابی چیزها را ندارند.
مارتین از استفاده وسوسه انگیز رباتهای چت مانند ChatGPT در به دست آوردن تمام اطلاعات مهم مانند تهیه گزارش مدرسه انتقاد میکند و توضیح میدهد که با چنین فناوریهایی دیگر نیازی به تحقیق و انتخاب خود نیست: "در نتیجه، یک مهارت بسیار مهم برای دموکراسی ما - توانایی ارزیابی چیزها - به خطر افتاده است. "
در عین حال، بسیاری از مدلهای چت باتها این تصور را ایجاد میکنند که خودشان اطلاعات را ارزیابی میکنند: آنها به یکباره به سوالات پاسخ نمیدهند، به تدریج پاسخ میدهند - گویی کسی روی صفحه کلید تایپ میکند. کوریان گفت، مشکل بزرگ این است که بچهها به یک برنامه چت خودکار اعتماد دارند که به همان اندازه که به یک دوست اعتماد دارند، انسانی به نظر میرسد و گاهی اوقات اطلاعات بسیار شخصی را با آنها به اشتراک میگذارد و پاسخهای آنها نیز میتواند به ویژه برای آنها آزاردهنده باشد.
با این حال، مارکوس زیندرمن، از سازمان فرهنگ رسانهای جوانان نوردراین-وستفالن، استدلال میکند که هوش مصنوعی نباید شیطانی جلوه داده شود، بلکه جنبههای مثبت آن را نیز باید اهریمن جلوه داد و توضیح میدهد که هوش مصنوعی در درجه اول یک ابزار فنی است - که با آن افراد میتوانند از یک سو اطلاعات نادرست ایجاد کنند، اما از سوی دیگر میتوان از آن برای ردیابی دقیق این اطلاعات و حذف آن از اینترنت نیز استفاده کرد.
زیندرمن خاطرنشان کرد که نمونههای مطالعه Corian و گزارش سالانه Jugendschutz.net به سال گذشته برمی گردد: "هوش مصنوعی آنقدر سریع در حال تکامل است که این مطالعه در حال حاضر منسوخ شده است. "
مارتین از دانشگاه ویتن/هردیک پیش بینی میکند که هوش مصنوعی میتواند در آینده بهتر با کودکان کنار بیاید: "خطر بزرگ ممکن است این باشد که هوش مصنوعی در مدیریت سیستمهای پاداش کودکان آنقدر خوب باشد که آنها بخواهند تا حد امکان زمان خود را با آن بگذرانند. "
(dpa)