Facebook sa naučil automaticky mazať príspevky teroristických skupín

Nemusia to byť už len užívatelia, ktorí budú nahlasovať nevhodný obsah. Facebook ukázal, ako mu umelá inteligencia pomohla odhaliť podporovateľov teroristických organizácií či priamo teroristov. Nevhodný obsah aj automaticky odstránila.

29.11.2017 09:30
umelý mozog, umelá inteligencia, počítačový... Foto:
Ilustračné foto
debata (1)

Facebook demonštruje, že vývoj umelej inteligencie pokročil a nemusia to byť už len ľudia, ktorí moderujú to, čo sa na sociálnej sieti objaví, respektíve čo z nej bude odstránené. Doposiaľ sa sociálna sieť spoliehala najmä na samotných užívateľov nahlasujúcich nevhodný obsah, ktorý bol následne kontrolovaný a vymazaný. Umelá inteligencia vraj už dokáže niektorý typ príspevkov sama identifikovať a odstrániť bez toho, aby museli zasahovať moderátori alebo užívatelia samotní. Facebook uvádza, že týmto spôsobom sa niektoré príspevky nestihnú nekontrolovane šíriť. Až 83 percent nových príspevkov, ktoré mali byť použité na propagandu teroristických skupín, systém identifikoval a odstránil do jednej hodiny od ich zverejnenia.

Umelá inteligencia má zbaviť sociálne siete teroristov

Pomocou umelej inteligencie si Facebook najprv posvietil na príspevky teroristických skupín Islamský štát a Al-Káida. Väčšinu príspevkov dokázal systém odhaliť automaticky, pričom porovnával fotografie a videá, ktoré v minulosti teroristické skupiny umiestňovali na internet. Identifikácia obrázkov, ktoré môžu byť aj čiastočne upravené, nie je jednoduchá. Facebook na to využil špeciálne kódy, vygenerované pre každú fotku alebo video v databáze. Kódy sú zdieľané medzi viacerými organizáciami, ktoré vďaka nim dokážu presnejšie, no najmä spoľahlivejšie identifikovať nevhodný obsah.

Tieto špeciálne kódy sú akýmsi odtlačkom, pri ktorom sa vyhodnocuje percentuálna zhoda s digitálnym odtlačkom inej fotky či videa. Ak je zhoda vysoká, v prípade Facebooku je potom takýto obsah zablokovaný.

Filtrovanie príspevkov bude všestrannejšie

Facebook na hľadanie nevhodných príspevkov používa aj iné, rovnako sofistikované metódy. Jednou z nich je porovnávanie a analýza slov a slovných spojení Umelá inteligencia totiž predpokladá, že niektoré slovné spojenia a frekvencia ich použitia sú typické pre tú-ktorú skupinu používateľov. “Systém prispôsobený na hľadanie obsahu jednej teroristickej skupiny ale nemusí fungovať pri inej, pretože jazyk a štylistika sa v ich propagande líšia,” vysvetľujú Monika Bickert a Brian Fishman z Facebooku. Očakávajú ale, že systém sa postupom času zdokonalí natoľko, že bude schopný identifikovať príspevky menších či regionálnych teroristických zoskupení.

© Autorské práva vyhradené

1 debata chyba
Viac na túto tému: #facebook #sociálna sieť #umelá inteligencia #ISIS #al-Káida #teroristické skupiny