اپل پنجشنبه اعلام کرد که از پورنوگرافی کودکان با تصاویر آیفون در ایالات متحده استفاده می کند و از سیستمی برای مبارزه با پورنوگرافی کودکان قبل از انتشار در مخزن iCloud استفاده می کند.
به گزارش خبر فوری ، اپل گفت که در صورت افزایش تصاویری از کودک آزاری ، این شرکت یک بررسی انسانی انجام داده و سپس به مقامات مجری قانون گزارش می دهد. این سیستم طوری طراحی شده است که خطاهای تشخیص را یک تریلیون کاهش دهد.
با استفاده از این سیستم ، از یک سو ، اپل به درخواست مقامات اجرایی برای کمک به مبارزه با کودک آزاری پاسخ می دهد و از سوی دیگر ، الزامات حریم خصوصی و امنیت را برآورده می کند ، که آن را به نام تجاری خود تبدیل کرده است. شرکت های دیگر مانند فیس بوک از فناوری مشابه برای شناسایی و گزارش سوء استفاده استفاده می کنند.
مدیران پایگاه داده ای از تصاویر جنایتکاران دارند و این تصاویر به کد دیجیتالی تبدیل می شوند که تصاویر کلاهبردار را شناسایی می کند اما نمی توان از آنها برای بازسازی آنها استفاده کرد.
اپل با استفاده از فناوری NeuralHash یک پایگاه داده ایجاد کرده است که برای شناسایی تصاویر ویرایش شده اما مشابه تصاویر اصلی طراحی شده است. هنگامی که کاربر تصویری را در سرویس ذخیره سازی iCloud اپل بارگذاری می کند ، iPhone کد تصویر دیجیتالی ایجاد می کند تا آن را بارگذاری کرده و با پایگاه داده مقایسه کند. تصاویر ذخیره شده فقط در iPhone تأیید نمی شوند.
فایننشال تایمز اولین منبعی بود که جنبه های برنامه را گزارش کرد. یکی از مهمترین ویژگی های سیستم اپل این است که تصاویر ذخیره شده در iPhone را قبل از بارگذاری بررسی می کند و نه پس از بارگذاری آنها در سرورهای شرکت.
به گزارش رویترز ، برخی از کارشناسان حریم خصوصی و امنیت در توییتر ابراز نگرانی کرده اند که این سیستم برای اسکن گوشی های ممنوعه یا به طور کلی محتوای سیاسی به کار گرفته شود.
انتهای پیام