Apple ogłosiło szczegóły dotyczące systemu, który na urządzeniach kleintów ma znajdować zdjęcia z dziecięcą pornografią.

Robiąc lub wgrywając na swojego iPhone’a zdjęcia będą one, przezd umieszczeniem w chmurze iCloud, skanowane systemem do odnajdywania dziecięcej pornografii. Jeśli system takie zdjęcie oznaczy będzie ono następnie weryfikowane przez człowieka, a jeśli ten uzna, że łamie ono prawo powiadomione zostaną odpowiednie służby. Jak zwykle w takich przypadkach system i tak głęboka ingerencja w to, co użytkownik ma na swoim urządzeniu, budzi obawy specjalistów ds. prywatności.

Apple zapowiedziało również, że aktualizacja iOS oraz iPadOS, które pojawią się w tym roku będą posiadały funkcję szyfrującą, która będzie miała za zadanie zredukowanie ilości dziecięcej pornografii krążącej w sieci. W wielkim skrócie system Apple, który ma wykrywać dziecięcą nagość będzie porównywał zdjęcia na urządzeniu z bazą danych Amerykańskiego Centrum Dzieci Zaginionych i Wykorzystywanych (US National Center for Missing and Exploited Children) oraz z bazami innych organizacji zajmujących się bezpieczeństwem najmłodszych.

Według przedstawicieli Apple system ma niezwykle gęste sito i jego dokładność w odróżnianiu pornografii od np. zwyczajnych rodzinnych zdjęć jest niezwykle skuteczna. Szansa, że system wskaże nieprawidłowo osobę podejrzaną jest jak jedna na trylion. 

Bez względu na to jakie plany ma Apple i z jakich pobudek będzie to robić to zacznie skanować urządzenia użytkowników. Czy to dobrze, czy to źle, nie ma znaczenia. Ten krok został już zrobiony, mówi BBC ekspert ds. bezpieczeństwa na Johns Hopkins University, Matthew Green.

{loadmoduleid 1123}