Algoritme van Facebook spoort 3 tot 5 procent van alle haatberichten op
Het algoritme dat Facebook gebruikt om haatzaaien tegen te gaan, spoort maar een klein deel van alle berichten die tot haat aanzetten op. Dat blijkt uit interne documenten van klokkenluider Frances Haugen, die The Wall Street Journal heeft ingezien.
Het zou gaan om 3 tot 5 procent van alle haatberichten op het sociale medium. De overige berichten worden niet opgemerkt. Posts die tot geweld oproepen, worden in 0,6 procent van de gevallen ontdekt.
Het systeem zou ook problemen hebben met het labelen van content. Het algoritme merkte video's van hanengevechten aan als auto-ongelukken en beelden van auto's in wasstraten als schietpartijen.
Facebook zei zondag dat het systeem wel goed werkt. Volgens het bedrijf is het belangrijker hoeveel haatberichten daadwerkelijk worden gezien door gebruikers. Het zou gaan om vijf op tienduizend berichten. Facebook benadrukte dat dit aantal in de afgelopen negen maanden is gehalveerd.
De gegevens werden openbaar doordat klokkenluider Haugen vorige maand met interne documenten naar buiten trad. Volgens de voormalige werkneemster stelt Facebook winstgevendheid boven de veiligheid van gebruikers. Facebook weerspreekt die beschuldiging.
Haugen stelde onder meer dat Facebook dankzij eigen onderzoek weet dat Instagram slecht is voor het zelfbeeld van tieners. Maar het bedrijf zorgt er volgens haar met verslavende algoritmes voor dat tieners de app zoveel mogelijk blijven gebruiken. Ook zegt ze dat Facebook met het uitschakelen van beveiligingsmaatregelen heeft bijgedragen aan de bestorming van het Capitool in Washington.