Apple upustil od plánov hľadať medzi fotkami v iCloude detskú pornografiu

Apple "zarezal" technológiu, ktorá mala prehľadávať mobily a počítače používateľov a hľadať v nich fotografie s detskou pornografiou.

10.12.2022 08:00
iPhone 14 Pro, iPhone, Apple Foto:
Ilustračné foto
debata (1)

Pred rokom a pol Apple oznámil, že v záujme preventívnych opatrení a v snahe zabrániť šíreniu detskej pornografie, začne celoplošne vo svojich službách nasadzovať špeciálnu funkciu so skratkou CSAM (Child Sexual Abuse Material). Funkcia má automaticky medzi fotografiami identifikovať problematický obsah a nahlasovať ho spoločnosti, ktorá sa následne sama rozhodne, či prípad postúpi polícii. CSAM mala tak vo fotkách v mobile ako aj v cloudových službách vyhľadávať fotografie, ktoré obsahujú sexuálne násilie páchané na deťoch.

Funkcia CSAM využíva technológiu NeuralHash, ktorá analyzuje fotografie a konvertuje ich na unikátny set číslic. Iba dve takmer identické fotky môžu mať podobný či rovnaký číselný kód. Predtým, než je fotografia nahratá do cloudovej služby iCloud je k nej priradený akýsi virtuálny odtlačok, ktorý následne Apple porovnáva s databázou virtuálnych odtlačkov problematických fotiek. Ak je nájdená zhoda, Apple fotografiu dekóduje, dodatočne ju posúdi a prípadne aj posunie zodpovedným orgánom vrátane polície. Každé zariadenie navyše bude obsahovať “slepú databázu” číselných kódov, takže každý iPhone alebo Mac bude sám analyzovať všetky uložené fotografie a vytvárať k nim virtuálne odtlačky. Chyby sú vraj takmer vylúčené, lebo falošná pozitivita sa podľa Apple rovná 1 k biliónu.

Po odkladoch úplne zmena plánov

Po tom, čo Apple oznámil nasadenie technológie sa medzi odbornou a laickou verejnosťou strhla obrovská vlna nevôle. Ľudskoprávne organizácie varovali pred nebezpečným precedensom, ktorý by mohol pomôcť autoritatívnym režimom a vládam v snahe nazrieť do zariadení svojich občanov. Ani používateľom sa nepáčilo, že Apple bude mať prístup k ich fotografiám a niektoré môže chybne vyhodnotiť ako problematické. Príkladom za všetky sú rodičia, ktorí môžu mať v mobile uložené fotky svojich detí.

Kvôli verejnému tlaku Apple nasadenie funkcie viackrát odložil. Tentokrát však oznámil, že ju úplne “zarezal” a do budúcnosti s ňou viac nepočíta. V stredu 7. decembra firma pri predstavení nových bezpečnostných funkcií služby iCloud oznámila, že neplánuje nasadiť skenovanie súborov v zariadeniach.

© Autorské práva vyhradené

1 debata chyba
Viac na túto tému: #Apple #detská pornografia #CSAM