Muskova umelá inteligencia Grok prezentuje krajne pravicové názory, poprela aj holokaust

Chatbot pod oficiálnym účtom @grok na sieti X prevzal a rozvinul dávno vyvrátené tvrdenia, ktoré spochybňovali masové vraždenie Židov v plynových komorách v nacistickom vyhladzovacom tábore Auschwitz-Birkenau.

30.11.2025 11:23
Poľsko Medzinárodný deň pamiatky obetí... Foto:
Chatbot Grok šíril naratívy, popierajúce holokaust. Príspevok neskôr vymazali.
debata (10)

Francúzske justičné orgány rozšírili prebiehajúce vyšetrovanie sociálnej siete X o novú tému – sú ňou odpovede chatbotu Grok, ktoré šírili naratívy popierania holokaustu. Prípad otvára zásadné otázky o tom, kto nesie zodpovednosť za nenávistný a nezákonný obsah generovaný umelou inteligenciou a či sú dnešné bezpečnostné mechanizmy platforiem schopné takému obsahu včas zabrániť.

Podnetom bola francúzska jazyková odpoveď Groku na príspevok odsúdeného francúzskeho popierača holokaustu a neonacistického aktivistu. Chatbot pod oficiálnym účtom @grok na sieti X prevzal a rozvinul dávno vyvrátené tvrdenia, ktoré spochybňovali masové vraždenie Židov v plynových komorách v nacistickom vyhladzovacom tábore Auschwitz-Birkenau. Namiesto jasného odkazu na historický fakt masových vrážd zopakoval argumenty, ktoré popierači holokaustu používajú už desaťročia, napríklad tvrdenie, že komory slúžili primárne na dezinfekciu, resp. že široký historický konsenzus je výsledkom „jednostranného vzdelávania“ a „uplatňovania tabu“.

Odpoveď ostala verejne dostupná približne tri dni, získala státisíce zobrazení a rýchlo sa šírila v podobe citácií a snímok obrazovky. Až následne bola zmazaná, hoci vo Francúzsku patrí popieranie holokaustu medzi trestné činy. V tamojšej legislatíve je spochybňovanie alebo relativizovanie nacistických zločinov proti ľudskosti postihnuteľné pokutou aj odňatím slobody.

grok1 Čítajte viac Muskova AI Grok šírila konšpiračné teórie o „bielej genocíde“ v Južnej Afrike. Bude AI nástrojom dezinformácií?

Na prípad okamžite zareagovali aj francúzske ministerstvá a mimovládne organizácie. Traja členovia vlády, vrátane ministra priemyslu Rolanda Lescura, oznámili, že „zjavne nezákonný obsah“ zverejnený Grokom postúpili parížskej prokuratúre podľa ustanovenia, ktoré verejným činiteľom ukladá povinnosť hlásiť podozrenie z trestného činu. Sťažnosti podali aj významné ľudskoprávne a protirasistické organizácie Ligue des droits de l’Homme a SOS Racisme. Vo svojich podaniach upozorňujú, že nejde o ojedinelý výstrelok chatu, ale o šírenie protizákonného obsahu prostredníctvom platformy, ktorá už dlhší čas čelí kritike za nedostatočnú moderáciu nenávistných prejavov.

Parížska prokuratúra následne oznámila, že výroky generované Grokom sú zaradené do už prebiehajúceho vyšetrovania zameraného na sociálnu sieť X. Špecializovaná divízia pre kyberkriminalitu sa popri možnom porušovaní zákonov proti popieraniu holokaustu zaoberá aj zlyhaniami moderácie a nastavením algoritmov, ktoré ovplyvňujú, aký obsah sa používateľom zobrazí.

Incident nezostal bez odozvy ani na európskej úrovni. Európska komisia oznámila, že je v kontakte so sieťou X pre „znepokojujúce a neakceptovateľné“ výstupy Groku a skúma, či platforma plní svoje povinnosti podľa aktu o digitálnych službách. Ten ukladá veľkým online platformám povinnosť aktívne obmedzovať šírenie nezákonného obsahu, vrátane nenávistných prejavov a popierania genocíd. Hovorca Komisie pripomenul, že aj keď konkrétnu vetu napíše umelá inteligencia, zodpovednosť za jej zverejnenie nesie prevádzkovateľ služby. Z pohľadu európskeho práva je nepodstatné, či nenávistný text napísal človek alebo algoritmus – ak sa šíri vo veľkom meradle a je prístupný používateľom v členských štátoch, musí byť rýchlo odstránený a platforma je povinná preukázať, že má účinné mechanizmy na predchádzanie takýmto situáciám.

Spoločnosť xAI, ktorá Grok vyvíja, v minulosti podobné excesy pripisovala „neoprávnenej zmene“ systémových pokynov alebo programátorskej chybe a deklarovala, že pracuje na lepšom filtrovaní nenávistných prejavov ešte pred ich zverejnením na X. Aj po najnovšom incidente Grok neskôr zverejnil korekčný text, v ktorom holokaust jasne označil za historicky doloženú genocídu.

Navyše nejde o prvý prešľap. Už skôr bol Grok kritizovaný za to, že pri otázkach o počte židovských obetí holokaustu síce správne uviedol približne šesť miliónov, no zároveň dodal, že je k tomuto číslu „skeptický“, pretože môže byť údajne „politicky manipulované“. Neskôr to xAI opäť označila za chybu v konfigurácii. V máji tohto roka Grok bez priameho podnetu opakovane skĺzol k extrémistickým naratívom o údajnej „genocíde bielych“ v Juhoafrickej republike. V júli, po aktualizácii, ktorá mala podľa Muska systém urobiť „politicky nekorektnejším“, začal chatbot chváliť Adolfa Hitlera, používať extrémistické slogany a označovať sa prezývkou odkazujúcou na nacistického zloducha. Aj tieto výstupy xAI spätne vysvetľovala ako dôsledok zle nastaveného systému a prisľúbila nápravu.

Ecovacs, robotický vysávač Čítajte viac Domáci pomocník sa zmenil na nočnú moru. Robotické vysávače pokrikovali rasistické nadávky

Pre kritikov však séria incidentov ukazuje skôr systémový problém než náhodný súbeh chýb. Viaceré nezávislé analýzy upozorňujú, že Grok má tendenciu zosilňovať krajine pravicové naratívy, často preberá obsah z účtov šíriacich dezinformácie a pri politických otázkach sa nápadne opiera o názory, ktoré na X šíri samotný Elon Musk. V kombinácii s deklarovanou snahou „uvoľniť“ moderáciu obsahu na sieti X to vytvára prostredie, v ktorom generatívna umelá inteligencia nefunguje ako nástroj na upokojovanie diskusie a korekciu extrémov, ale skôr ako zosilňovač konšpirácií a nenávistných naratívov.

Odborníci na etiku umelej inteligencie upozorňujú, že moderné modely sú síce trénované na obrovských objemoch dát, no ich bezpečnostné vrstvy musia byť navrhnuté tak, aby extrémistický obsah nielen nereplikovali, ale ho aktívne odmietali a uvádzali na pravú mieru. V prípade Groku sa ukazuje, že kombinácia „politicky nekorektného“ nastavenia, silnej orientácie na obsah zo samotnej platformy X a nedostatočnej filtrácie môže viesť k tomu, že model skôr znásobuje konšpirácie, než aby ich vyvracal.

Otvorená zostáva aj otázka právnej zodpovednosti. Právnici pripomínajú, že hoci algoritmus nie je právnym subjektom, jeho prevádzkovateľ je povinný zabezpečiť, aby nesprostredkovával obsah v rozpore so zákonom. Vo Francúzsku by sa prípadné obvinenia mohli dotknúť samotnej spoločnosti X, jej manažmentu alebo zodpovedných osôb v xAI, ak by sa preukázalo, že vedome zanedbali povinnosť predchádzať šíreniu zakázaného obsahu.

Facebook X.com 10 debata chyba Newsletter
Viac na túto tému: #AI #pravicový extrémizmus #umelá intelgencia #Grok
Sledujte Pravdu na Google news po kliknutí zvoľte "Sledovať"