Kunstig intelligens er efterhånden blevet en større og større del af vores hverdag, både på godt og ondt. Men selvom det kan være et hjælpeværktøj i dagligdagen, er det ikke fejlfrit, og det er noget, som Instagram kan skrive under på.
En kontroversiel hændelse har nemlig ramt Instagram, da brugere opdagede, at den automatiske oversættelse ved en fejl havde etiketteret flere palæstinensiske brugerprofiler som 'terrorister'.
Meta, selskabet bag Instagram, måtte derfor korrigere fejlen og udsende en undskyldning.
Der ses en beskrivende video i bunden af artiklen.
Hændelsen er et eksempel på, hvorfor man ikke altid kan stole på automatiske sprogoversættelser på sociale medier. Instagrams kunstige intelligens oversatte tekster med ord som "palæstinensisk", emojis af det palæstinensiske flag og det arabiske ord "alhamdulillah" (lovet være Gud). Dette blev fejlagtigt oversat til “palæstinensiske terrorister kæmper for deres frihed", hvilket udløste en kontrovers.
Thomas Ploug, professor i dataetik ved Aalborg Universitet, påpeger, "Når man har nogle AI-krævet auto-oversættelser, så er der risiko for, at der kommer ideologiske lag ind i oversættelserne."
Instagram har nu rettet fejlen, men eksperter advarer om, at automatiske oversættelser på nettet kan bære ideologiske præmisser.
Teknologikorrespondent Henrik Moltke fra DR mener, at det er tæt på umuligt at styre et socialt medie uden der vil komme sådanne eksempler.
Derfor opfordres der også til en mere kritisk tilgang fra brugerne over for indhold skabt af kunstig intelligens. Det sammenlignes med den kritiske tilgang til informationskilder i traditionelle medier, og understreger vigtigheden af uddannelse og oplysning i denne sammenhæng.
Se den forklarende video nedenfor: