Falsificeret. Kunstig intelligens har arvet nogle af menneskets blinde vinkler, afslører nyt studie.
Menneskelige fejl
I Falsificeret udfordrer vi hver uge vedtagne sandheder, afliver forældet viden og ser på fusk og fejl i forskningens verden.
Det, vi troede, vi vidste
Kunstig intelligens (AI) og især avancerede sprogmodeller som ChatGPT er blevet hyldet som objektive og rationelle værktøjer, der kan hjælpe os med at tage bedre beslutninger.
Eftersom AI er baseret på matematiske modeller og enorme mængder data, har antagelsen været, at den ville undgå de irrationelle beslutninger, som mennesker ofte foretager.
Det, vi ved nu
Nu har forskere fra fem universiteter i Canada og Australien imidlertid vist, at ChatGPT ofte opfører sig lige så irrationelt som mennesker. Ud af 18 kendte kognitive bias viste den tegn på næsten halvdelen, især i situationer med usikkerhed eller subjektive valg.

ChatGPT udviste således ofte overkonfidens, altså en overdreven tillid til, at ens egne svar er korrekte, selv når man tager fejl, samt en udpræget risikoaversion: Robotten foretrak konsekvent sikre og forudsigelige løsninger frem for potentielt mere fordelagtige, men usikre valg. Det viste sig især i situationer, hvor der ikke var én oplagt rigtig løsning – altså netop dér, hvor AI kunne hjælpe os med at tænke mere utraditionelt.
Mest overraskende var måske robottens tilbøjelighed til den såkaldte stimefejl, hvor man fejlagtigt tror, at succeser kommer i serier, selvom de er helt tilfældige.
Men …
ChatGPT undgik dog bias i nogle tilfælde, hvor mennesker ofte ignorerer statistik eller fortsætter dårlige projekter, fordi de allerede har investeret meget i dem.
AI er således ikke en neutral maskine, for den har arvet vores måde at tænke på gennem de data, den er trænet på. Derfor bør vi ifølge forskerne være forsigtige med at bruge AI til komplekse eller værdiladede beslutninger uden menneskelig supervision.
Live Science, 4. maj
Del: