Apple ще сканира съдържанието на iPhone за снимки със злоупотреба с деца

Apple ще сканира съдържанието на iPhone за снимки със злоупотреба с деца

Apple обяви детайли за нова система, която ще търси материали със злоупотреба с деца (child sexual abuse material или CSAM) в устройствата на нейните клиенти. Преди изображение да се запази в iCloud Photos то ще се сканира за съвпадение с вече известните в база данни. В случай на съвпадение експерт ще направи преценка, акаунтът ще бъде деактивиран, а потребителят ще бъде предаден на властите.

Технологията ще бъде пусната в новите версии на iOS и iPadOS, които се очакват по-късно през годината, и ще работи първо в САЩ. В тях ще има "нови криптографски приложения, които ще помогнат да се ограничи разпространението на CSAM онлайн". Системата работи чрез сравняване на снимките с база данни с известно съдържание със злоупотреби, която е компилирана от National Center for Missing and Exploited Children (NCMEC) и други организации за защита на деца.

Снимките се представят под формата на цифров код (hash), който след това се сравнява с кодовете на снимките в потребителските устройства. Apple посочва, че технологията може да улови и редактирани изображения, които са подобни на оригиналните. Според компанията системата има много висока степен на прецизност, а шанса да маркира дадена снимка погрешно е по-малък от 1 на трилион годишно.

Експерти по опазване на личните данни обаче изразиха опасения, че технологията може да бъде разширена за сканиране на устройствата за забранено съдържание и дори за политическа реч. Някои смятат, че системата може да бъде ползвана и от авторитарни режими за шпиониране на гражданите.

"Независимо какви са дългосрочните планове на Apple компанията изпраща много ясен сигнал. Според тяхното силно влиятелно мнение е безопасно да се създадат системи, които сканират потребителските телефони за забранено съдържание", посочва Матю Грийн, който е изследовател на сигурността в университета "Джонс Хопкинс".

"Няма значение дали ще се окажат прави или не. Това ще пробие язовирната стена и правителствата ще го изискват от всички. Когато разберем, че това е било грешка вече ще е прекалено късно", пише Грийн в Twitter.

Заедно с новите мерки в iCloud Photos Apple обяви и друга система за предпазване на младите потребители на iPhone. Приложението Messages ще сканира прикачените файлове на детските акаунти за потенциално сексуално съдържание като ползва изкуствен интелект, а при откриване на такова то ще се замъглява и ще се показва предупреждение. Децата ще видят и съобщение, че за тяхна сигурност родителите ще бъдат известени, ако изберат да видят неподходящото съдържание.

Подобни предпазни мерки има и ако детето се опита да изпрати материали със сексуално съдържание - детето ще види предупреждение, а родителите ще бъдат известени, ако то все пак реши да прати материалите. Функцията ще бъде достъпна с ъпдейт по-късно през годината за фамилните акаунти в iCloud за iOS 15, iPadOS 15 и macOS Monterey.


Втора употреба с гаранция