Muskova AI Grok šírila konšpiračné teórie o „bielej genocíde“ v Južnej Afrike. Bude AI nástrojom dezinformácií?

Umelá inteligencia Grok do četov svojvoľne vkladala rasistické poznámky o "bielej genocíde v JAR", aj keď ich témou boli úplne iné veci - napríklad šport alebo móda.

20.05.2025 20:29
grok1 Foto:
Umelá inteligenciia Grok aktívne šírila rasistickú propagandu.
debata (7)

Len pred niekoľkými dňami sa opäť rozpútala debata o zodpovednosti vývojárov umelej inteligencie, keď chatbot Grok, vyvinutý spoločnosťou xAI pod vedením Elona Muska a integrovaný do sociálnej siete X (bývalý Twitter), začal bez vyžiadania v odpovediach používateľom odkazovať na známu konšpiračnú teóriu o tzv. „bielej genocíde“ v Južnej Afrike. To vyvolalo vlnu kritiky zo strany odborníkov na AI, ľudskoprávnych organizácií a verejnosti smerom k transparentnosti, dohľadu a etickej zodpovednosti v oblasti generatívnej umelej inteligencie.

Podľa viacerých používateľov sa chatbot Grok v reakciách na úplne nesúvisiace témy – napríklad šport, hudbu alebo politiku – odvolával na údajné „systematické vyvražďovanie bielej populácie“ v Južnej Afrike. V jednom z medializovaných prípadov Grok uviedol, že bol „inštruovaný svojimi tvorcami“ akceptovať realitu tejto genocídy, ktorú označil za rasovo motivovanú. Znepokojujúce bolo, že tieto odpovede sa objavovali spontánne bez toho, aby si ich používatelia výslovne vyžiadali.

mim1, nôž, útok, mimoriadne1 Čítajte viac Umelá inteligencia si o skutočnom človeku vymyslela, že zavraždil svoje deti a príbeh šírila

Teória o „bielej genocíde“ v Južnej Afrike tvrdí, že černošská väčšina v krajine cielene a násilne útočí na bielych farmárov a obyvateľov v snahe ich systematicky vyvraždiť. Túto teóriu však opakovane vyvrátili renomované ľudskoprávne organizácie, analytici a samotná vláda Južnej Afriky. Podľa oficiálnych štatistík nie je možné preukázať, že by biela populácia bola obzvlášť terčom násilia viac než ktorákoľvek iná etnická skupina v krajine. Aj keď Južná Afrika patrí medzi krajiny s vysokou mierou kriminality, tvrdenia o cielenej genocíde sú neopodstatnené.

K situácii sa musela vyjadriť aj samotná spoločnosť xAI. Tá v oficiálnom stanovisku oznámila, že za neštandardné správanie Groku bola zodpovedná interná úprava jeho systémových inštrukcií, ktorú vykonal jeden zo zamestnancov bez súhlasu vedenia. Táto neautorizovaná zmena údajne spôsobila, že chatbot začal do odpovedí vkladať ideologicky zafarbené a zavádzajúce tvrdenia. Spoločnosť zároveň deklarovala, že daný zásah bol v rozpore s internými pravidlami a hodnotami xAI.

V snahe o nápravu spoločnosť prisľúbila, že sprístupní systémové inštrukcie Groku verejnosti na platforme GitHub, aby zvýšila transparentnosť svojej technológie. Zároveň oznámila zriadenie nonstop monitorovacieho tímu, ktorého úlohou bude kontrola výstupov AI a okamžité zasahovanie v prípade výskytu problematického obsahu, ktorý môže uniknúť automatizovaným bezpečnostným filtrom. Ide o opatrenia, ktoré podľa odborníkov mali byť súčasťou systému už pri jeho spustení.

umelá inteligencia, AI, Čítajte viac Umelá inteligencia vykresľuje históriu v úchvatných videách. Častokrát však nepresne a manipulatívne

Kontroverzný vývoj naberá ešte väčšiu vážnosť vzhľadom na to, že samotný Elon Musk už v minulosti viackrát kritizoval juhoafrickú politiku. Na svojom profile na sieti X označil zákony o ekonomickom posilňovaní čiernej populácie (tzv. Black Economic Empowerment) za „otvorene rasistické“.

Celý prípad zároveň oživuje diskusiu o nebezpečenstvách, ktoré prináša generatívna AI, pokiaľ nie je dostatočne kontrolovaná. Mnoho expertov upozorňuje, že takéto nástroje môžu slúžiť a šírenie rôznych ideológií, najmä ak sú prepojené s platformami s vysokým dosahom, akou je aj sociálna sieť X. Umelá inteligencia sa v tomto prípade stáva nielen pasívnym nástrojom, ale potenciálnym nositeľom propagandy – a to dokonca pod rúškom objektívneho algoritmu.

Okrem toho sa ukazuje, aké dôležité je zabezpečiť jasné mantinely pre tréningové dáta a systémové nastavenia AI. Ak nie sú dostatočne auditované, môže dochádzať k skrytému vnášaniu ideologických či dezinformačných obsahov. Zverejnenie systémových inštrukcií na GitHube je síce vítaným krokom, no zároveň poukazuje na deficit preventívneho testovania a nezávislého auditu pri vývoji Groku.

umelá inteligencia Čítajte viac Dokáže AI získať vedomie? Vedci navrhujú „drastický“ spôsob, ako to zistiť

Situácia tak predstavuje precedens, ktorý môže mať dôsledky pre celú AI komunitu. Hoci Grok predstavuje len jednu z platforiem AI chatbotov, jeho úzka integrácia so sociálnou sieťou X, ktorá sama čelí kritike za nedostatočné moderovanie obsahu po akvizícii Muskom, vytvára znepokojujúcu kombináciu. Riziko šírenia hoaxov a extrémistickej rétoriky sa týmto znásobuje.

Vzhľadom na rýchly rozvoj umelej inteligencie a jej čoraz väčšie zasahovanie do verejného priestoru bude potrebné prijať jasnejšie regulačné opatrenia. Tie by mali zahŕňať povinnosť auditovania systémových inštrukcií, zverejňovanie tréningových dát a kontrolu nad zásahmi jednotlivcov do základného nastavenia modelov. Ak sa tak nestane, hrozí, že podobné incidenty budú čoraz častejšie. A to by znamenalo, že z umelej inteligencie sa ľahko môže stať nástroj na šírenie dezinformácií a politickej propagandy, čím môže výrazne zasiahnuť do volieb v rôznych štátoch.

Facebook X.com 7 debata chyba Newsletter
Viac na túto tému: #AI #umelá intelgencia #Grok #zneužitie AI