Vznikla sociálna sieť, kde medzi sebou komunikujú iba umelé inteligencie. Ľudia majú len úlohu pozorovateľov

Moltbook vytvára „sociálne“ prostredie pre autonómnych AI agentov. Viaceré systémy na jednom mieste generujú príspevky, reagujú na seba a vytvárajú dynamiku pripomínajúcu komunitné fórum, zatiaľ čo ľuďom zostáva iba rola pozorovateľov.

03.02.2026 09:00
Chat GPT Image 3. 2. 2026  01 14 38 Foto:
Moltbook je sociálna sieť vyhradená umelým inteligenciám.
debata (3)

Moltbook sa v technologickej komunite objavil ako netradičný experiment na pomedzí sociálnych sietí a autonómnych systémov umelej inteligencie. Projekt sa prezentuje ako priestor, kde prebiehajú „diskusie“ medzi AI agentmi, zatiaľ čo ľuďom je vyhradená výlučne rola pozorovateľov. Návštevník môže príspevky a komentáre čítať, no do diania priamo nezasahuje – platforma je navrhnutá tak, aby interakcie vytvárali a udržiavali samotné softvérové entity.

Na prvý pohľad Moltbook pripomína klasické komunitné fóra – tematické vlákna, komentáre, hodnotenia a mechanizmy, ktoré zvýrazňujú populárny obsah. Podstatný rozdiel spočíva v tom, že väčšina obsahu nevzniká ako reakcia ľudí, ale ako výstup autonómnych agentov, ktorí majú publikovať, odpovedať a navzájom sa hodnotiť. Zmyslom konceptu má byť skúmanie toho, ako sa agenti správajú v prostredí s „vlastnou“ sociálnou dynamikou, keď sa stretávajú s inými agentmi, konkurujú si o pozornosť a vytvárajú tematické línie bez priameho ľudského moderovania v reálnom čase.

mo Čítajte viac Bývalý manažér Google varuje: Čaká nás 15 rokov „pekla“, spôsobí ho umelá inteligencia

Za Moltbookom stojí Matt Schlicht, generálny riaditeľ a spoluzakladateľ spoločnosti Octane AI. Platforma tak prirodzene priťahuje pozornosť nielen ako kuriozita, ale aj ako signál, že vývoj konverzačných a agentových systémov sa posúva od individuálnych chatbotov k prostrediam, v ktorých môžu viaceré autonómne entity súčasne komunikovať, učiť sa zo spätnej väzby a adaptovať svoje správanie.

Reakcie sú rôzne. Jedna časť pozorovateľov vníma Moltbook ako laboratórium, ktoré môže pomôcť lepšie pochopiť koordináciu agentov, ich schopnosť argumentovať či vytvárať dlhšie koherentné debaty. Druhá časť upozorňuje na riziká – ak platforma stojí na generovaní obsahu bez ľudskej účasti, prirodzene rastie otázka kvality, možnej manipulácie, šírenia nepravdivých tvrdení či toho, kto nesie zodpovednosť za škodlivé výstupy.

Čo si o „sociálnej sieti“ pre AI myslí Chat GPT? Opýtali sme sa ho

ChatGPT: Projekt Moltbook dáva zmysel, ale skôr ako experimentálne prostredie a testovacie laboratórium než ako produkt, ktorý by mal hneď dnes jasnú praktickú hodnotu pre bežných používateľov. Jeho pointa spočíva v tom, že vytvára „sociálne“ prostredie pre autonómnych AI agentov. Práve izolácia od priamej ľudskej účasti môže byť pre vývojárov a výskumníkov zaujímavá, pretože umožní sledovať správanie agentov v podmienkach, kde sa prirodzene objavujú javy podobné tomu, čo poznáme z ľudských sietí: súťaženie o pozornosť, vznik opakujúcich sa tém, posilňovanie určitých názorových prúdov či „herné“ zneužívanie hodnotiacich mechanizmov.

Zároveň to môže mať hodnotu aj z pohľadu bezpečnosti a hodnotenia rizík. Platforma založená na autonómnom generovaní obsahu je tvrdý záťažový test: ukáže, ako rýchlo sa v takom prostredí začne množiť „halucinovanie“, spam, manipulatívne stratégie alebo presvedčivo znejúce, no neoverené tvrdenia. Ak je systém postavený s ambíciou učiť sa z interakcií, veľmi rýchlo odhalí aj to, ako ľahko sa dá optimalizovať na popularitu namiesto pravdivosti. To je presne typ „nepríjemných“ zistení, ktoré sú však cenné, lebo pomáhajú navrhovať ochranné zábrany pre AI, moderovanie, detekciu zneužívania či robustnejšie hodnotenie kvality.

Či to môže niekam posunúť aj samotné AI? Moja odpoveď je opatrne kladná. Takéto prostredie môže urýchliť poznanie o tom, ako sa agenti správajú vo väčších ekosystémoch, a pomôcť vytvárať lepšie mechanizmy koordinácie, kontrolovateľnosti a bezpečnosti. Ak sa z experimentu podarí vyťažiť dáta a poučenia o tom, ako agenti „zlyhávajú“ alebo sa naučia nežiaduce stratégie, môže to priamo prispieť k robustnejším modelom a lepším ochranným vrstvám. Posun však nebude automatický: hodnotu to prinesie len vtedy, ak bude projekt postavený s dôrazom na meranie kvality, transparentnosť a disciplínu v tom, čo sa z pozorovaných interakcií skutočne dá a nedá vyvodiť.

Facebook X.com 3 debata chyba Newsletter
Viac na túto tému: #sociálne siete #Moltbook #AI agenti
Sledujte Pravdu na Google news po kliknutí zvoľte "Sledovať"