AI-hallucinationer forklaret: Når sprogmodeller opfinder svar

Vi mennesker lyver, når vi bevidst siger noget usandt. Men AI-systemer som ChatGPT og andre generative sprogmodeller lyver ikke – de hallucinerer.

Er du interesseret i dette kursus?

Du kan få adgang til hele kurset, hvis du er medlem af en organisation, der er tilmeldt AOF Onlinekurser. 

Find din organisation og opret dig som bruger her.

Hvis du allerede er oprettet som bruger, kan du logge ind for at tage kurset.

Ai Hallucinationer

Når en AI "hallucinerer" betyder det, at den opfinder information, som lyder troværdigt, men ikke nødvendigvis er korrekt.

Store sprogmodeller som ChatGPT, Copilot og Gemini genererer indhold, de slår det ikke op.

Systemet forsøger at forudsige, hvad der statistisk set bør komme næste gang i en tekst – uanset om det er sandt eller ej. 

I kurset "AI på arbejdspladsen - etik og ansvar" lærer du blandt andet:

  • Hvorfor det er forkert at sige, at AI "lyver"

  • Hvordan AI-genereret tekst kan virke troværdig, selvom den er fuld af fejl

  • Hvordan du spotter og håndterer AI-hallucinationer

  • Hvorfor "human in the loop" er afgørende

Se videoen for at lære mere om AI hallucinationer.

Er du interesseret i dette kursus?

Du kan få adgang til hele kurset, hvis du er medlem af en organisation, der er tilmeldt AOF Onlinekurser. 

Find din organisation og opret dig som bruger her.

Hvis du allerede er oprettet som bruger, kan du logge ind for at tage kurset.

close
Du bliver nu logget ind... Vent venligst.
Der skete en fejl under indsendelsen af formularen.
E-mail eller adgangskode er forkert. Tjek venligst felterne og prøv igen.

Log ind

Glemt din adgangskode?
Din adgangskode er nu blevet nulstillet. Tjek venligst din e-mail.
Der skete en fejl under indsendelsen af formularen.
Adgangskoden for denne e-mail kunne ikke nulstilles.

Nulstil adgangskode