Facebook demonštruje, že vývoj umelej inteligencie pokročil a nemusia to byť už len ľudia, ktorí moderujú to, čo sa na sociálnej sieti objaví, respektíve čo z nej bude odstránené. Doposiaľ sa sociálna sieť spoliehala najmä na samotných užívateľov nahlasujúcich nevhodný obsah, ktorý bol následne kontrolovaný a vymazaný. Umelá inteligencia vraj už dokáže niektorý typ príspevkov sama identifikovať a odstrániť bez toho, aby museli zasahovať moderátori alebo užívatelia samotní. Facebook uvádza, že týmto spôsobom sa niektoré príspevky nestihnú nekontrolovane šíriť. Až 83 percent nových príspevkov, ktoré mali byť použité na propagandu teroristických skupín, systém identifikoval a odstránil do jednej hodiny od ich zverejnenia.
Umelá inteligencia má zbaviť sociálne siete teroristov
Pomocou umelej inteligencie si Facebook najprv posvietil na príspevky teroristických skupín Islamský štát a Al-Káida. Väčšinu príspevkov dokázal systém odhaliť automaticky, pričom porovnával fotografie a videá, ktoré v minulosti teroristické skupiny umiestňovali na internet. Identifikácia obrázkov, ktoré môžu byť aj čiastočne upravené, nie je jednoduchá. Facebook na to využil špeciálne kódy, vygenerované pre každú fotku alebo video v databáze. Kódy sú zdieľané medzi viacerými organizáciami, ktoré vďaka nim dokážu presnejšie, no najmä spoľahlivejšie identifikovať nevhodný obsah.
Tieto špeciálne kódy sú akýmsi odtlačkom, pri ktorom sa vyhodnocuje percentuálna zhoda s digitálnym odtlačkom inej fotky či videa. Ak je zhoda vysoká, v prípade Facebooku je potom takýto obsah zablokovaný.
Filtrovanie príspevkov bude všestrannejšie
Facebook na hľadanie nevhodných príspevkov používa aj iné, rovnako sofistikované metódy. Jednou z nich je porovnávanie a analýza slov a slovných spojení Umelá inteligencia totiž predpokladá, že niektoré slovné spojenia a frekvencia ich použitia sú typické pre tú-ktorú skupinu používateľov. “Systém prispôsobený na hľadanie obsahu jednej teroristickej skupiny ale nemusí fungovať pri inej, pretože jazyk a štylistika sa v ich propagande líšia,” vysvetľujú Monika Bickert a Brian Fishman z Facebooku. Očakávajú ale, že systém sa postupom času zdokonalí natoľko, že bude schopný identifikovať príspevky menších či regionálnych teroristických zoskupení.