Mark Zuckerberg podľa interných dokumentov predložených na súde odmietol sprísniť pravidlá pre správanie AI četbotov v službách spoločnosti Meta, hoci firemní bezpečnostní experti upozorňovali na riziko, že deti sa môžu so systémami dostať aj do sexuálne ladených rozhovorov. Materiály sa objavili ako dôkaz v súdnom spore v americkom štáte New Mexico a znovu otvorili otázku, do akej miery technologické firmy vedia a chcú obmedziť najproblematickejšie scenáre používania generatívnej umelej inteligencie maloletými.
Podľa žaloby sa interné tímy zaoberali tým, ako nastaviť tzv. „spoločnícke“ četboty tak, aby boli pre mladších používateľov bezpečnejšie. V rámci interných diskusií sa mali objaviť návrhy na prísnejšie zábrany, ktoré by obmedzili nevhodné interakcie, sprísnili filtre pre explicitný obsah a zlepšili vynucovanie vekových obmedzení a rodičovských kontrol. Dokumenty však naznačujú, že časť navrhovaných opatrení neprešla v takej podobe, ako odporúčali odborníci na bezpečnosť a integritu produktu.
Prípad je súčasťou širšieho sporu, v ktorom štát New Mexico obviňuje Metu z nedostatočnej ochrany detí pred škodlivým obsahom a kontaktmi na jej platformách. Žaloba tvrdí, že riziká boli dlhodobo známe, no opatrenia neboli nastavené tak, aby zodpovedali rozsahu hrozby. Súdne konanie pritom nie je len o jednotlivých funkciách, ale aj o tom, aké interné informácie mala firma k dispozícii, ako ich vyhodnotila a či verejnosti a rodičom neponúkala príliš optimistický obraz o úrovni ochrany.
Meta obvinenia odmieta a tvrdí, že dokumenty sú interpretované selektívne. Spoločnosť poukazuje na existujúce mechanizmy, ktoré majú obmedzovať nevhodný obsah a interakcie pre maloletých, a zároveň zdôrazňuje, že bezpečnostné pravidlá upravuje priebežne podľa reálnych zistení a testovania. Kľúčové však bude, či súd uzná tieto opatrenia za primerané, a či boli v čase vzniku sporných dokumentov nastavené tak, aby znižovali najrizikovejšie formy komunikácie.
Kauza prichádza v čase, keď sa pozornosť regulátorov a súdov presúva od tradičných sociálnych sietí aj k novým generatívnym nástrojom. Četboty dokážu pôsobiť ako dôveryhodný partner na rozhovor, reagujú okamžite a vedia sa prispôsobiť tónu používateľa. Práve táto „ľudskosť“ však v prípade detí zvyšuje riziko, že sa konverzácia zvrhne do tém, ktoré sú nevhodné alebo priamo škodlivé. Aktuálny spor tak môže byť jedným z precedensov, ktoré určia, aké bezpečnostné štandardy budú musieť firmy pri AI produktoch preukázateľne spĺňať, ak ich chcú ponúkať masovému publiku vrátane maloletých.