»Vil du fortsætte med at se videoer af primater?«

Det spørgsmål har flere amerikanske Facebook-brugere fået, da de så en video fra Daily Mail.

Det store problem er dog, at der slet ikke nogen primater eller aber med i videoen. For som teksten til videoen fortæller, så er det en video af en hvid mand, der tilkalder politiet grundet en sort mand.

Facebook benytter sig af kunstig intelligens til anbefalingsfunktionen, såkaldt AI, og det er umiddelbart denne, der har vurderet, at der skulle være primater i videoen, skriver New York Times.

Situationen kalder Facebook selv for »en uacceptabel fejl«, og det sociale medie har derfor sat anbefalingsfunktionen i bero, indtil fejlen er fundet.

»Selvom vi har forbedret vores AI, så ved vi, at den ikke er perfekt, og at vi har en proces foran os. Vi undskylder overfor alle, der har set den stødende anbefaling,« fortæller Dani Lever, der er talsperson for Facebook.

AI bliver flittigt benyttet af andre internetaktører, men også flittigt kritiseret. Eksempelvis i 2015 hvor Google Photos ved en fejl navngav billeder af sorte personer 'gorillaer'.

I 2020 måtte Twitter undskylde for deres automatiske billedbeskæring på mediet. Flere brugere havde nemlig fundet ud af, at mediets beskæringsfunktion foretrak hvide personer frem for sorte.