کد مطلب: ۹۴۰۱۶۵
|
|
۲۲ آبان ۱۴۰۴ - ۱۱:۲۶

ابزار‌های هوش مصنوعی نسبت به کودکان امن‌تر میشود!

ابزار‌های هوش مصنوعی نسبت به کودکان امن‌تر میشود!
بر اساس قانونی جدید در بریتانیا، شرکت‌های فناوری و نهاد‌های حمایت از کودکان این اختیار را خواهند داشت که بررسی کنند آیا ابزار‌های هوش مصنوعی قادر به تولید تصاویر سوءاستفاده از کودکان هستند یا خیر.

به گزارش مجله خبری نگار/آنا؛ نهاد‌های مسئول در این کشور با استناد به این قانون می‌توانند مدل‌های پایه‌ای تصویرساز و چت‌بات‌ها را تحت شرایط سخت و کنترل‌شده آزمایش کنند تا از وجود یا فقدان سازوکار‌های محافظتی اطمینان حاصل شود.

آمار‌های رسمی نشان می‌دهد گزارش‌های مربوط به محتوای سوءاستفاده جنسی تولیدشده توسط هوش مصنوعی طی یک سال اخیر بیش از دو برابر شده است، از ۱۹۹ مورد در سال ۲۰۲۴ به ۴۲۶ مورد در سال ۲۰۲۵ رسیده است.

ضرورت قانونی مقابله پیشگیرانه

قانون جدید انگلستان به دلیل غیرقانونی بودن تولید و نگهداری محتوای سوءاستفاده کودکان به اجرا درآمده است تا مانع از آن شود که توسعه‌دهندگان و نهاد‌های آزمایشی ناچار شوند برای شناسایی ریسک منتظر بارگذاری چنین محتوا‌هایی در فضای مجازی بمانند.

براساس اخبار منتشر شده در رسانه‌های انگلیس هدف از این رویکرد پیشگیرانه، جلوگیری از تولید محتوا در منبع و مهار خطرات قبل از انتشار عمومی اعلام شده است. متمم‌های پیشنهادی به لایحه جرایم و پلیس ارائه شده که در کنار آن، ممنوعیتی برای ساخت، نگهداری یا توزیع مدل‌های هوش مصنوعیِ تخصص‌یافته در تولید محتوای سوءاستفاده از کودکان نیز پیش‌بینی شده است.

سوء استفاده را پیش از وقوع متوقف خواهیم کرد

کانیشکا نارایان، وزیر مسئول هوش مصنوعی و ایمنی آنلاین، این اقدام را گامی برای «متوقف‌کردن سوءاستفاده پیش از وقوع» توصیف کرد و خاطرنشان ساخت که کارشناسان تحت شرایط سخت می‌توانند ریسک‌های نهفته در مدل‌ها را به‌موقع شناسایی کنند.

این وزیر انگلیسی همچنین اشاره کرده است که پیشگیری و شناسایی زودهنگام راهکاری استراتژیک در برابر ابزار‌هایی خواهد بود که در صورت سوءاستفاده می‌توانند آسیب‌های گسترده و طولانی‌مدت برای کودکان و نوجوانان ایجاد کنند.

نمونه‌های بازسازی‌شده تماس‌های مشاوره‌ای که به‌تازگی در بازدید وزیر از مرکز‌های حمایت کودکان معرفی شد، نقش آموزنده‌ای در نشان‌دادن پیامد‌های واقعی سوءاستفاده مبتنی بر هوش مصنوعی داشت.

نوجوانی که احساسات او قربانی یک ویدئوی جعلی شد

سناریوی بازسازی‌شده شامل نوجوانی بود که با استفاده از یک دیپ‌فیک جنسی مبتنی بر هوش مصنوعی مورد اخاذی قرار گرفته و به مشاوران مراجعه کرده بود.

واکنش‌های وزیر انگلیسی نشان می‌دهد که انتشار چنین مواردی در میان والدین و جامعه خشم و نگرانی عمیق برانگیخته است. سازمان‌های حمایت از کودکان و ناظران آنلاین معتقدند این نمونه‌ها نشانگر شکل جدیدی از آسیب‌پذیری و سوءاستفاده هستند که دسترسی آسان به ابزار‌های هوش مصنوعی، امکان تولید محتوای گسترده و واقع‌نما را فراهم کرده است.

داده‌های بنیاد اینترنتی و افزایش موارد جدی

بنیاد نظارت اینترنتی (Internet Watch Foundation) گزارش داده که موارد محتوای سوءاستفاده تولیدشده توسط هوش مصنوعی، شامل صفحات وب با مجموعه‌ای از تصاویر، در سال اخیر بیش از دو برابر افزایش یافته است.

آمار دسته‌بندی «A» که مراتب شدیدتری از سوءاستفاده را شامل می‌شود نیز از ۲،۶۲۱ تصویر یا ویدئو به ۳،۰۸۶ مورد افزایش داشته است. تحلیل بنیاد نشان می‌دهد قربانیان عمدتاً دختران بوده‌اند و ۹۴ درصد تصاویر غیرقانونی تولیدشده در سال ۲۰۲۵ مربوط به تصاویر دختران بوده است.

رشد وحشتناک موارد مرتبط با نوزادان

آمار بنیاد نشان می‌دهد تصاویر مربوط به نوزادان تا دو سال نیز به‌طور چشمگیری افزایش یافته و از پنج مورد در سال ۲۰۲۴ به ۹۲ مورد در سال ۲۰۲۵ رسیده است. این افزایش در دسته‌بندی حساسیت‌برانگیز، نگرانی عمیق کارشناسان و سیاست‌گذاران را برانگیخته است.

مسئولان بنیاد تاکید کرده‌اند که فناوری‌های یادشده می‌توانند ابزار‌های قدرتمندی برای تولید محتوای آسیب‌رسان باشند و تنظیمات پیشگیرانه از اهمیت حیاتی برخوردار است.

دیدگاه مدیر بنیاد و ضرورت ارزیابی پیش از انتشار

کری اسمیت، مدیر اجرایی بنیاد نظارت اینترنتی، اصلاح قانون را گامی حیاتی برای تضمین ایمنی محصولات هوش مصنوعی پیش از انتشار عمومی دانست.

اسمیت هشدار داد که ابزار‌های هوش مصنوعی امکان بازآسیب‌رسانی به بازماندگان را با چند کلیک فراهم کرده و مجرمان را قادر ساخته تا مقادیر نامحدودی از محتوای پیچیده و فوتورئالیستیک تولید کنند.

طبق اظهارات او، چنین محتوایی آلام قربانیان را تبدیل به کالا می‌کند و امنیت کودکان، به‌ویژه دختران، را در فضای مجازی و واقعی به‌خطر می‌اندازد.

گزارش‌های مرکز مشاوره و الگوی آسیب‌ها

مرکز مشاوره کودک‌دوست «Childline» اطلاعاتی منتشر کرده که حاکی از افزایش مراجعه‌ها با موضوعات مرتبط با هوش مصنوعی است.

موارد ذکرشده در جلسات مشاوره شامل استفاده از هوش مصنوعی برای ارزیابی وزن و ظاهر، تشویق کودکان توسط چت‌بات‌ها به سکوت درباره سوءاستفاده، آزار آنلاین با محتوای تولیدشده توسط هوش مصنوعی و اخاذی با تصاویر جعلی بوده است.

تحلیل داده‌های Childline نشان می‌دهد بین آوریل و سپتامبر سال جاری، ۳۶۷ جلسه مشاوره حاوی اشاره به هوش مصنوعی یا چت‌بات‌ها ثبت شده که چهار برابر مدت مشابه سال قبل است.

پیامد‌های روانی و تمرکز بر سلامت روان

نیمی از مراجعات مربوط به مسائل سلامت روان و رفاه بوده و شامل استفاده از چت‌بات‌ها برای کسب حمایت یا بهره‌گیری از برنامک‌های درمانی مبتنی بر هوش مصنوعی می‌شد.

مسئولان مرکز تاکید کرده‌اند که گرچه برخی ابزار‌های هوش مصنوعی می‌توانند در مداخله اولیه مفید باشند، اما عدم تنظیم و سوءاستفاده از آنها زمینه‌ساز پیامد‌های منفی برای کودکان است.

کارشناسان سلامت روان هشدار داده‌اند که نمایش مجدد آسیب‌ها از طریق محتوای مصنوعی می‌تواند روند بهبود قربانیان را مختل کند و نیاز به خدمات حمایتی تخصصی را افزایش دهد.

واکنش قانون‌گذار و اصلاحات پیش‌بینی‌شده

پارلمان انگلیس در راستای اصلاحات حقوقی، متمم‌هایی به لایحه جرائم و پلیس اضافه کرده که دستیابی به ممنوعیت ساخت و توزیع مدل‌های هوش مصنوعیِ مولد محتوای سوءاستفاده کودکان را دنبال می‌کند.

هدف از این اصلاحات، ایجاد چارچوب قانونی مقتدرتر برای توقف تولید و توزیع این مدل‌ها و فراهم کردن بستر قانونی برای اقدامات پیشگیرانه نهاد‌های آزمایشی اعلام شده است. مقامات قانونی تاکید کرده‌اند اجرای دقیق این قانون و همکاری میان نهاد‌های فناوری و حمایت از کودکان برای مؤثر بودن آن ضروری است.

چالش‌های عملی در اجرا و تعامل نهاد‌ها

مجریان قانون اذعان داشته‌اند که پیش از این مجبور بودند منتظر انتشار محتوای تولیدشده توسط هوش مصنوعی در فضای آنلاین بمانند تا امکان دخالت قانونی فراهم شود.

اجرای نظامی کنترل‌شده که به نهاد‌های مشخص اجازه بررسی مدل‌ها را می‌دهد، می‌تواند این وقفه را از میان بردارد و امکان شناسایی نقاط ضعف را پیش از انتشار فراهم کند. کارشناسان فناوری نیز هشدار داده‌اند که نظارت موثر نیازمند دسترسی فنی، چارچوب‌های اخلاقی روشن و همکاری بین‌المللی است تا جلو سوءاستفاده‌ها گرفته شود.

ضرورت معیار‌های سختگیرانه و شرایط کنترل

مسئولان اشاره کرده‌اند که به‌خاطر حساسیت موضوع، دسترسی به مدل‌ها تنها تحت شرایط سخت و پروتکل‌های امنیتی امکان‌پذیر خواهد بود تا از ایجاد یا انتشار محتوای غیرقانونی جلوگیری شود.

تدوین دستورالعمل‌های فنی و اخلاقی برای ارزیابی ریسک در مدل‌های هوش مصنوعی بخش مهمی از برنامه‌ای است که نهاد‌های ذی‌ربط دنبال می‌کنند.

نمایندگان نهاد‌های حمایت از کودکان تاکید کرده‌اند که شفافیت در فرایند ارزیابی و گزارش‌دهی عمومی می‌تواند به جلب اعتماد عمومی و تقویت پاسخ‌های سیاستی کمک کند.

پیامد‌های بین‌المللی و نیاز به هماهنگی جهانی

تحولات اخیر نشان می‌دهد که مبارزه با تولید محتوای سوءاستفاده مبتنی بر هوش مصنوعی نیازمند همکاری فراملی است، زیرا مدل‌ها و ابزار‌ها از مرز‌ها فراتر می‌روند.

مشارکت نهاد‌های بین‌المللی در تدوین معیار‌ها و تبادل تجارب عملی می‌تواند سرعت شناسایی و مهار تهدیدات جدید را افزایش دهد. دیپلماسی فناوری و توافقات بین‌المللی در زمینه مسئولیت‌پذیری تولیدکنندگان هوش مصنوعی نقش مهمی در کاهش انتشار محتوای آسیب‌زا خواهد داشت.

تاکید نهایی بر پیشگیری و مسئولیت‌پذیری

مسئولان دولتی و مدنی بر این نکته تاکید کرده‌اند که رویکرد پیشگیرانه و مسئولانه در قبال توسعه و انتشار فناوری‌های هوش مصنوعی، بهترین مسیر برای حفظ امنیت کودکان است.

توسعه استاندارد‌های فنی، افزایش توان نظارتی و ایجاد کانال‌های امن گزارش‌دهی برای قربانیان و خانواده‌ها از جمله راهکار‌های مورد اشاره می‌باشد. براساس گزارش گاردین اجرای این سیاست‌ها نیازمند همکاری همه‌جانبه میان دولت، صنعت فناوری، نهاد‌های مدنی و جامعه بین‌المللی است تا حفاظتی واقعی و مستمر برای کودکان فراهم شود.

ارسال نظرات
قوانین ارسال نظر