Hopp til hovedinnholdet
Tech

Hallusinasjoner hos AI: Hva er det og hvordan kan man unngå det?

Kunstig intelligens (AI) har gjort store fremskritt de siste årene, men det er et område der AI fortsatt kan feile: hallusinasjoner. En AI-hallusinasjon er når en AI-modell genererer falsk eller forvrengt informasjon. Dette kan sammenlignes med en menneskelig hallusinasjon, der man ser, hører eller føler noe som ikke er der.

AI er smart, men trenger hjelp for å bli det!

Hvorfor oppstår hallusinasjoner og hvordan kan man unngå det?

Det er flere grunner til at AI-modeller kan hallusinere, de vanligste årsakene er feil i læringsalgoritmer, mangel på kontekst eller utdaterte modeller.

AI-modeller trenes på store mengder data og dersom disse dataene inneholder feil eller mangler, kan det føre til hallusinasjoner. De trenger også kontekst for å forstå nyanser i språket. Dersom de ikke har nok kontekst, kan de misforstå og hallusinere. Alle modeller må i tillegg oppdateres regelmessig for å holde seg oppdatert på ny informasjon og språklige endringer. Hvis de blir utdaterte kan de bli mer tilbøyelige til å hallusinere.

Det er flere ting man kan gjøre for å unngå hallusinasjoner hos AI:

  • Bruk god data: tren modellen på høykvalitativ og riktig data.

  • Temperatur-setting: de fleste modeller vi jobber med kan temperatur settes via api. Dette ser vi kan begrense den kreative friheten til modellen som naturlig nok, bidrar til mindre hallusinering.

  • Gi nok kontekst: sørg for at modellen har nok kontekst til å forstå nyanser i språket.

  • Oppdater regelmessig: Hold modellen oppdatert på ny informasjon og språklige endringer.


Hallusinasjoner hos AI er et problem som må tas på alvor. Ta kontakt for å avtale en prat om hvordan vi kan hjelpe din virksomhet lykkes med AI-implementeringen.

Strategi og forretningsdesigner
Daniel Bäckström
daniel@norse.digital