به گزارش مجله خبری نگار/آنا؛ نهادهای مسئول در این کشور با استناد به این قانون میتوانند مدلهای پایهای تصویرساز و چتباتها را تحت شرایط سخت و کنترلشده آزمایش کنند تا از وجود یا فقدان سازوکارهای محافظتی اطمینان حاصل شود.
آمارهای رسمی نشان میدهد گزارشهای مربوط به محتوای سوءاستفاده جنسی تولیدشده توسط هوش مصنوعی طی یک سال اخیر بیش از دو برابر شده است، از ۱۹۹ مورد در سال ۲۰۲۴ به ۴۲۶ مورد در سال ۲۰۲۵ رسیده است.
ضرورت قانونی مقابله پیشگیرانه
قانون جدید انگلستان به دلیل غیرقانونی بودن تولید و نگهداری محتوای سوءاستفاده کودکان به اجرا درآمده است تا مانع از آن شود که توسعهدهندگان و نهادهای آزمایشی ناچار شوند برای شناسایی ریسک منتظر بارگذاری چنین محتواهایی در فضای مجازی بمانند.
براساس اخبار منتشر شده در رسانههای انگلیس هدف از این رویکرد پیشگیرانه، جلوگیری از تولید محتوا در منبع و مهار خطرات قبل از انتشار عمومی اعلام شده است. متممهای پیشنهادی به لایحه جرایم و پلیس ارائه شده که در کنار آن، ممنوعیتی برای ساخت، نگهداری یا توزیع مدلهای هوش مصنوعیِ تخصصیافته در تولید محتوای سوءاستفاده از کودکان نیز پیشبینی شده است.
سوء استفاده را پیش از وقوع متوقف خواهیم کرد
کانیشکا نارایان، وزیر مسئول هوش مصنوعی و ایمنی آنلاین، این اقدام را گامی برای «متوقفکردن سوءاستفاده پیش از وقوع» توصیف کرد و خاطرنشان ساخت که کارشناسان تحت شرایط سخت میتوانند ریسکهای نهفته در مدلها را بهموقع شناسایی کنند.
این وزیر انگلیسی همچنین اشاره کرده است که پیشگیری و شناسایی زودهنگام راهکاری استراتژیک در برابر ابزارهایی خواهد بود که در صورت سوءاستفاده میتوانند آسیبهای گسترده و طولانیمدت برای کودکان و نوجوانان ایجاد کنند.
نمونههای بازسازیشده تماسهای مشاورهای که بهتازگی در بازدید وزیر از مرکزهای حمایت کودکان معرفی شد، نقش آموزندهای در نشاندادن پیامدهای واقعی سوءاستفاده مبتنی بر هوش مصنوعی داشت.
نوجوانی که احساسات او قربانی یک ویدئوی جعلی شد
سناریوی بازسازیشده شامل نوجوانی بود که با استفاده از یک دیپفیک جنسی مبتنی بر هوش مصنوعی مورد اخاذی قرار گرفته و به مشاوران مراجعه کرده بود.
واکنشهای وزیر انگلیسی نشان میدهد که انتشار چنین مواردی در میان والدین و جامعه خشم و نگرانی عمیق برانگیخته است. سازمانهای حمایت از کودکان و ناظران آنلاین معتقدند این نمونهها نشانگر شکل جدیدی از آسیبپذیری و سوءاستفاده هستند که دسترسی آسان به ابزارهای هوش مصنوعی، امکان تولید محتوای گسترده و واقعنما را فراهم کرده است.
دادههای بنیاد اینترنتی و افزایش موارد جدی
بنیاد نظارت اینترنتی (Internet Watch Foundation) گزارش داده که موارد محتوای سوءاستفاده تولیدشده توسط هوش مصنوعی، شامل صفحات وب با مجموعهای از تصاویر، در سال اخیر بیش از دو برابر افزایش یافته است.
آمار دستهبندی «A» که مراتب شدیدتری از سوءاستفاده را شامل میشود نیز از ۲،۶۲۱ تصویر یا ویدئو به ۳،۰۸۶ مورد افزایش داشته است. تحلیل بنیاد نشان میدهد قربانیان عمدتاً دختران بودهاند و ۹۴ درصد تصاویر غیرقانونی تولیدشده در سال ۲۰۲۵ مربوط به تصاویر دختران بوده است.
رشد وحشتناک موارد مرتبط با نوزادان
آمار بنیاد نشان میدهد تصاویر مربوط به نوزادان تا دو سال نیز بهطور چشمگیری افزایش یافته و از پنج مورد در سال ۲۰۲۴ به ۹۲ مورد در سال ۲۰۲۵ رسیده است. این افزایش در دستهبندی حساسیتبرانگیز، نگرانی عمیق کارشناسان و سیاستگذاران را برانگیخته است.
مسئولان بنیاد تاکید کردهاند که فناوریهای یادشده میتوانند ابزارهای قدرتمندی برای تولید محتوای آسیبرسان باشند و تنظیمات پیشگیرانه از اهمیت حیاتی برخوردار است.
دیدگاه مدیر بنیاد و ضرورت ارزیابی پیش از انتشار
کری اسمیت، مدیر اجرایی بنیاد نظارت اینترنتی، اصلاح قانون را گامی حیاتی برای تضمین ایمنی محصولات هوش مصنوعی پیش از انتشار عمومی دانست.
اسمیت هشدار داد که ابزارهای هوش مصنوعی امکان بازآسیبرسانی به بازماندگان را با چند کلیک فراهم کرده و مجرمان را قادر ساخته تا مقادیر نامحدودی از محتوای پیچیده و فوتورئالیستیک تولید کنند.
طبق اظهارات او، چنین محتوایی آلام قربانیان را تبدیل به کالا میکند و امنیت کودکان، بهویژه دختران، را در فضای مجازی و واقعی بهخطر میاندازد.
گزارشهای مرکز مشاوره و الگوی آسیبها
مرکز مشاوره کودکدوست «Childline» اطلاعاتی منتشر کرده که حاکی از افزایش مراجعهها با موضوعات مرتبط با هوش مصنوعی است.
موارد ذکرشده در جلسات مشاوره شامل استفاده از هوش مصنوعی برای ارزیابی وزن و ظاهر، تشویق کودکان توسط چتباتها به سکوت درباره سوءاستفاده، آزار آنلاین با محتوای تولیدشده توسط هوش مصنوعی و اخاذی با تصاویر جعلی بوده است.
تحلیل دادههای Childline نشان میدهد بین آوریل و سپتامبر سال جاری، ۳۶۷ جلسه مشاوره حاوی اشاره به هوش مصنوعی یا چتباتها ثبت شده که چهار برابر مدت مشابه سال قبل است.
پیامدهای روانی و تمرکز بر سلامت روان
نیمی از مراجعات مربوط به مسائل سلامت روان و رفاه بوده و شامل استفاده از چتباتها برای کسب حمایت یا بهرهگیری از برنامکهای درمانی مبتنی بر هوش مصنوعی میشد.
مسئولان مرکز تاکید کردهاند که گرچه برخی ابزارهای هوش مصنوعی میتوانند در مداخله اولیه مفید باشند، اما عدم تنظیم و سوءاستفاده از آنها زمینهساز پیامدهای منفی برای کودکان است.
کارشناسان سلامت روان هشدار دادهاند که نمایش مجدد آسیبها از طریق محتوای مصنوعی میتواند روند بهبود قربانیان را مختل کند و نیاز به خدمات حمایتی تخصصی را افزایش دهد.
واکنش قانونگذار و اصلاحات پیشبینیشده
پارلمان انگلیس در راستای اصلاحات حقوقی، متممهایی به لایحه جرائم و پلیس اضافه کرده که دستیابی به ممنوعیت ساخت و توزیع مدلهای هوش مصنوعیِ مولد محتوای سوءاستفاده کودکان را دنبال میکند.
هدف از این اصلاحات، ایجاد چارچوب قانونی مقتدرتر برای توقف تولید و توزیع این مدلها و فراهم کردن بستر قانونی برای اقدامات پیشگیرانه نهادهای آزمایشی اعلام شده است. مقامات قانونی تاکید کردهاند اجرای دقیق این قانون و همکاری میان نهادهای فناوری و حمایت از کودکان برای مؤثر بودن آن ضروری است.
چالشهای عملی در اجرا و تعامل نهادها
مجریان قانون اذعان داشتهاند که پیش از این مجبور بودند منتظر انتشار محتوای تولیدشده توسط هوش مصنوعی در فضای آنلاین بمانند تا امکان دخالت قانونی فراهم شود.
اجرای نظامی کنترلشده که به نهادهای مشخص اجازه بررسی مدلها را میدهد، میتواند این وقفه را از میان بردارد و امکان شناسایی نقاط ضعف را پیش از انتشار فراهم کند. کارشناسان فناوری نیز هشدار دادهاند که نظارت موثر نیازمند دسترسی فنی، چارچوبهای اخلاقی روشن و همکاری بینالمللی است تا جلو سوءاستفادهها گرفته شود.
ضرورت معیارهای سختگیرانه و شرایط کنترل
مسئولان اشاره کردهاند که بهخاطر حساسیت موضوع، دسترسی به مدلها تنها تحت شرایط سخت و پروتکلهای امنیتی امکانپذیر خواهد بود تا از ایجاد یا انتشار محتوای غیرقانونی جلوگیری شود.
تدوین دستورالعملهای فنی و اخلاقی برای ارزیابی ریسک در مدلهای هوش مصنوعی بخش مهمی از برنامهای است که نهادهای ذیربط دنبال میکنند.
نمایندگان نهادهای حمایت از کودکان تاکید کردهاند که شفافیت در فرایند ارزیابی و گزارشدهی عمومی میتواند به جلب اعتماد عمومی و تقویت پاسخهای سیاستی کمک کند.
پیامدهای بینالمللی و نیاز به هماهنگی جهانی
تحولات اخیر نشان میدهد که مبارزه با تولید محتوای سوءاستفاده مبتنی بر هوش مصنوعی نیازمند همکاری فراملی است، زیرا مدلها و ابزارها از مرزها فراتر میروند.
مشارکت نهادهای بینالمللی در تدوین معیارها و تبادل تجارب عملی میتواند سرعت شناسایی و مهار تهدیدات جدید را افزایش دهد. دیپلماسی فناوری و توافقات بینالمللی در زمینه مسئولیتپذیری تولیدکنندگان هوش مصنوعی نقش مهمی در کاهش انتشار محتوای آسیبزا خواهد داشت.
تاکید نهایی بر پیشگیری و مسئولیتپذیری
مسئولان دولتی و مدنی بر این نکته تاکید کردهاند که رویکرد پیشگیرانه و مسئولانه در قبال توسعه و انتشار فناوریهای هوش مصنوعی، بهترین مسیر برای حفظ امنیت کودکان است.
توسعه استانداردهای فنی، افزایش توان نظارتی و ایجاد کانالهای امن گزارشدهی برای قربانیان و خانوادهها از جمله راهکارهای مورد اشاره میباشد. براساس گزارش گاردین اجرای این سیاستها نیازمند همکاری همهجانبه میان دولت، صنعت فناوری، نهادهای مدنی و جامعه بینالمللی است تا حفاظتی واقعی و مستمر برای کودکان فراهم شود.