به گزارش مجله خبری نگار، اپل اعلام کرد اگر معلوم شود تصاویر سوءاستفاده از کودکان بارگذاری میشود، این شرکت ابتدا به بازبینی انسانی اقدام میکند و سپس به مقامات اجرای قانون گزارش میکند. این سیستم برای کاهش موارد خطا در شناسایی به یک در یک تریلیون مورد طراحی شده است.
با این سیستم اپل از یک سو به درخواست مقامات اجرایی برای کمک به مقابله با سوءاستفاده از کودکان پاسخ میدهد و از سوی دیگر به الزام در زمینه حریم خصوصی و امنیت عمل میکند که آن را هسته اصلی برند خود قرار داده است. شرکتهای دیگر مانند فیس بوک هم از فناوری مشابه برای شناسایی و گزارش دهی موارد سوءاستفاده بهره میبرند.
مقامات اجرایی پایگاه دادهای از تصاویر مجرمان سابقه دار دارند و این تصاویر به کدهای دیجیتالی تبدیل میشوند که تصاویر سوءاستفاده گر را شناسایی میکنند، اما نمیتوانند برای بازسازی آنها مورد استفاده قرار بگیرند.
اپل با استفاده از فناوری به نام NeuralHash پایگاه داده خود را پیاده سازی کرده که برای شناسایی تصاویر ویرایش شده، اما مشابه تصاویر اصلی طراحی شده است. هنگامی که کاربری تصویری را به سرویس ذخیره سازی آی کلود اپل بارگذاری میکند، آیفون یک کد دیجیتالی تصویر را برای بارگذاری شدن ایجاد کرده و آن را با پایگاه داده مقایسه میکند. تصاویری که فقط در آیفون ذخیره شده اند، چک نمیشوند.
روزنامه فایننشیال تایمز نخستین منبعی بود که جنبههایی از این برنامه را گزارش کرد. یکی از مهمترین ویژگیهای سیستم اپل این است که تصاویر ذخیره شده در آیفون را پیش از بارگذاری شدن و نه پس از بارگذاری شدن در سرورهای این شرکت چک میکند.
بر اساس گزارش رویترز، بعضی از کارشناسان حریم خصوصی و امنیتی در توییتر از این که این سیستم ممکن است توسعه پیدا کرده و به طور کلی محتوای ممنوعه یا سیاسی در گوشیها را اسکن کند، ابراز نگرانی کردند.