Len pred niekoľkými týždňami Apple oznámil, že s príchodom nových verzií operačného systému iOS a macOS plánuje zaviesť kontrolu všetkých uložených fotografií. Fotky v mobile a v počítači by mal kontrolovať špeciálny algoritmus využívajúci prvky umelej inteligencie a s vysokou presnosťou (údajne takmer neomylne) odhaliť tie, ktoré obsahujú detskú pornografiu či fotografie zobrazujúce sexuálne násilie na deťoch. Ku každej z uložených fotiek by mal byť tiež priradený unikátny kód, ktorý hovorí o tom, či je fotka v poriadku alebo je problematická a je potrebné ju dešifrovať a preskúmať jej obsah. Následne, ak sa pokúsi užívateľ fotku uložiť do cludovej služby iCloud, spolu s ňou sa uloží aj unikátny kód. Následne, ak je fotografia problematická, Apple ju bude môcť na diaľku dešifrovať, preskúmať a prípadne nahlásiť polícii.
Kontroverzná novinka sa ale nestretla s pochopením širokej verejnosti a Apple musel hneď od začiatku obhajovať svoje úmysly. Pravdepodobne nebol dostatočne presvedčivý, keďže sa rozhodol spustenie novej detekčnej technológie NeuralHash pozastaviť. “Na základe spätnej odozvy od zákazníkov, výskumníkov a ľudskoprávnych organizácií sme sa rozhodli v nasledujúcich mesiacoch vyčleniť dodatočný čas na získanie ďalšej odozvy na zlepšenia, ktoré umožnia spustiť túto dôležitú funkciu na ochranu detí,” uviedol Apple v oficiálnom vyhlásení.
Ľudskoprávnym organizáciám okrem iného prekážalo najmä to, že Apple týmto spôsobom demonštruje svoje možnosti pri preskúmavaní obsahu v zariadeniach svojich užívateľov. Obzvlášť autoritárske režimy by preto mohli od Apple v budúcnosti požadovať, aby im otvoril brány do zariadení svojich občanov. Napokon Apple už viackrát demonštroval svoju servilnosť voči režimom, ktoré mu dali na výber, či chce v krajine podnikať alebo či sa podvolí miestnym reštrikciám. Príkladom je Čína, v ktorej Apple blokuje rôzny typ obsahu vrátane aplikácií v obchode App Store.