Apple skontroluje fotky vo vašom mobile. Ak narazí na 'problémové' snímky, nahlási vás

Ani Apple už nemá problém narušiť súkromie svojich užívateľov. S novou verziou operačného systému pre smartfóny, tablety a počítače bude kontrolovať všetky uložené fotky. Ak ich systém vyhodnotí ako fotky zobrazujúce sexuálne násilie na deťoch, pošle ich na posúdenie a následne užívateľa aj nahlási polícii.

07.08.2021 15:30
Apple, iPhone 12, iPhone 12 mini Foto:
Ilustračné foto
debata (41)

Apple oznámil, že s príchodom nových verzií operačného systému iOS 15, iPadOS 15, watchOS8 a macOS Monterey implementuje aj špeciálnu funkciu na identifikovanie problematického obsahu so skratkou CSAM (Child Sexual Abuse Material). Funkcia bude vyhľadávať predovšetkým v galérii fotiek snímky, ktoré obsahujú sexuálne násilie páchané na deťoch. Problematický obsah bude systém na začiatku vyhodnocovať sám, len za pomoci na to určených algoritmov. Tie budú priamo súčasťou systému, a teda kontrola bude prebiehať priamo v zariadení. Apple na svojich stránkach takisto detailne popísal, ako bude kontrola obsahu fungovať.

Funkcia CSAM obsahuje technológiu NeuralHash, ktorá analyzuje fotografie a konvertuje ich na unikátny set číslic. Iba dve takmer identické fotky môžu mať podobný či rovnaký číselný kód. Predtým, než je fotografia nahratá do cloudovej služby iCloud je k nej priradený akýsi virtuálny odtlačok, ktorý následne Apple porovnáva s databázou virtuálnych odtlačkov problematických fotiek. Ak je nájdená zhoda, Apple fotografiu dekóduje, dodatočne ju posúdi a prípadne aj posunie zodpovedným orgánom vrátane polície. Každé zariadenie navyše bude obsahovať “slepú databázu” číselných kódov, takže každý iPhone alebo Mac bude sám analyzovať všetky uložené fotografie a vytvárať k nim virtuálne odtlačky. Chyby sú vraj takmer vylúčené, lebo falošná pozitivita sa podľa Apple rovná 1 k biliónu.

Apple bude kontrolovať nielen fotky, ale aj správy

Okrem nástroja na analýzu fotiek Apple pridá nový analytický nástroj aj do Správ. Cieľom je upozorniť deti a ich rodičov, ak sa im niekto pokúsi zaslať sexuálne explicitnú fotku. “Správy využívajú strojové učenie na analýzu zaslaných snímok, ktoré vyhodnotí, či fotografie neobsahujú sexuálne explicitný obsah. Táto funkcia bola vytvorená tak, aby Apple nepristupoval k samotným správam,” uvádza firma. Akonáhle algoritmus fotografiu vyhodnotí ako problematickú, rozostrí ju a upozorní na to dieťa. Takisto umožní upozorniť rodičov dieťaťa a to aj v prípade, ak sa ich dieťa pokúša niekomu zaslať explicitnú fotku.

Nebezpečný precedens

Nakoľko Apple týmto spôsobom ukázal, čo všetko dokáže, môže počítať aj s tlakom rôznych autoritatívnych režimov a vlád, ktoré by rady nazreli do zariadení svojich občanov. Táto predstava bude určite pre mnohé z nich veľmi lákavá, keďže podobným spôsobom je teoreticky možné zašifrovať a dešifrovať aj ďalšie dáta v zariadení. Ako napríklad upozorňuje bezpečnostný analytik, Matthew Green z Univerzity Johns Hopkins, iniciatíva Apple je len krok od toho, aby bolo v budúcnosti možné analyzovať aj iný typ obsahu, ktorý môže mať bezpečnostné a politické implikácie. “Nezáleží až tak na tom, či sa to (nová funkcia CSAM) ukáže ako pozitívne alebo negatívne – vlády to budú požadovať od každého,” dodal M. Green.

© Autorské práva vyhradené

41 debata chyba
Viac na túto tému: #Apple #fotografie #pornografia #iOS #iCloud #macOS