Facebook pracuje nad automatycznym oznaczaniem obraźliwych materiałów w transmisjach na żywo. Chce w większości oprzeć ten mechanizm na sztucznej inteligencji, która będzie monitorować content – mówi Joaquin Candela dyrektor applied machine learning w Facebook.
Firma została uwikłana w szereg kontrowersyjnych cenzur treści w tym roku. Jedna z nich skończyła się międzynarodowym protestem po tym jak usunięto kultowe zdjęcie z wojny wietnamskiej.

Proces moderacji na Facebook-u opierał się głównie na użytkownikach, którzy zgłaszali obraźliwe posty. Te były sprawdzane przez pracowników Facebooka w kontekście zgodności z regulaminem serwisu. Decyzje dotyczące szczególnie drażliwych kwestii była i póki co jest podejmowana przez top management Facebooka.
Joaquin Candela mówi, że coraz częściej w tym procesie wykorzystywany jest algorytm sztucznej inteligencji, który wyszukuje obraźliwe materiały – wykrywa nagość, przemoc, czy inne elementy niezgodne z zasadami.
System automatycznego wykrywania niestosownych treści jest obecnie testowany w relacjach live w serwisie. Główne wyzwania jakie obecnie stoją przed gigantem to szybkość działania algorytmu. Drugie, większe wyzwanie, to sposób oceny przez algorytm to co „widzi” – aby jak najbardziej zbliżone do percepcji człowieka i odpowiedniej oceny wg. zasad Facebook’a.
Pojawiają się również plotki, szczególnie po wyborach w Stanach Zjednoczonych, że naukowcy Facebooka pracują nad wykrywaniem fałszywych informacji. Nikt, jednak nie chce tego potwierdzić ze względu na problemy etyczne, które mogą po takiej informacji się pojawić związanych z cenzurą treści, filtrowaniem wiadomości. Poza tym jak sztuczna inteligencja poradziłaby sobie z newsami z #ASZdziennik?