Chatbotter som ChatGPT og Googles Gemini er kendt for at reproducere bias om for eksempel race, køn og religion. Nu bliver en ny form for bias tydelig: den sproglige og geografiske skævhed i chatbotternes »forståelse« af verden. Det handler ikke længere kun om, hvad de svarer, men også, hvem de svarer – og hvor.

I videnskabsmagasinet Undark har journalist Angelo Valerio Toma beskrevet, hvordan han i maj måned gav et prompt til en chatbot på hausa – et af Afrikas største sprog, som er modersmål for omkring 54 millioner mennesker. Chatbotten svarede kort og kontant: »Beklager, ikke forstået.«