Apple będzie wykrywał pornografię dziecięcą w iCloud. Eksperci mają obawy
Gigant technologiczny Apple powiadomił, że zamierza wprowadzić system kontrolujący zdjęcia załadowane w iCloud, żeby wykrywać treści związane z pornografią dziecięcą. Eksperci obawiają się, że to będzie ingerencja w prywatność użytkowników.
System do wykrywania CSAM (skrót od Children Sexual Abuse Material, czyli "treści z wykorzystywaniem seksualnym dzieci") będzie działał poprzez algorytm skanujący zdjęcia wysyłane na iCloud i porównywał z sygnaturami oznaczającym dziecięcą pornografię. Jeżeli zostanie wykryte powiązanie z sygnaturą, obraz będzie przesyłany na "chmurę" (iCloud) z niewidocznym dla użytkownika zgłoszeniem, że wykryto nieodpowiednie treści. Gdy zbierze się ich wystarczająca liczba, w proces zostanie zaangażowany pracownik Apple, który zweryfikuje, czy zdjęcia faktycznie dotyczą pornografii dziecięcej i zawiadomi ewentualnie organy ścigania.
Apple uzasadnił w czwartek, że dzięki systemowi zamierza sprostać dwóm wyzwaniom: prośbom organów ścigania o pomoc w powstrzymywaniu wykorzystywania seksualnego dzieci oraz wprowadzaniem praktyk ochrony prywatności i bezpieczeństwa użytkowników.
Reuters zauważył, że niektórzy eksperci ds. prywatności i bezpieczeństwa wyrazili na Twitterze obawy, że system może zostać rozszerzony o ogólne skanowanie smartfonów pod kątem innych zabronionych treści bądź wypowiedzi politycznych.
- Bez względu na to, jakie mają długoterminowe plany, Apple wysłało bardzo wyraźny sygnał. Według nich bezpieczeństwem jest budowanie systemów, które skanują telefony użytkowników pod kątem zabronionych treści - ocenił Matther Green, naukowiec z uniwersytetu Johnsa Hopkinsa. - Nie ma znaczenia, czy okaże się, że w tej kwestii mają rację. To przekroczy granice, rządy zaczną wymagać tego od wszystkich - dodał
Czytaj więcej