Når en AI "hallucinerer" betyder det, at den opfinder information, som lyder troværdigt, men ikke nødvendigvis er korrekt.
Store sprogmodeller som ChatGPT, Copilot og Gemini genererer indhold, de slår det ikke op.
Systemet forsøger at forudsige, hvad der statistisk set bør komme næste gang i en tekst – uanset om det er sandt eller ej.
I kurset "AI - etik og ansvar" lærer du blandt andet:
-
Hvorfor det er forkert at sige, at AI "lyver"
-
Hvordan AI-genereret tekst kan virke troværdig, selvom den er fuld af fejl
-
Hvordan du spotter og håndterer AI-hallucinationer
-
Hvorfor "human in the loop" er afgørende
Annonce
-
Lær Revit: Fjernundervisning for ledige
Fjernundervisning for dig, som er ny bruger af Revit
Cadskolen udbyder godkendte kurser for ledige i AutoCAD, Revit og Inventor. Vores kurser figurerer på de regionale positivlister over hele landet. -
Dynamo for Revit
Grundlæggende kursus for nye brugere af Dynamo
Kursus for dig, som har brug for en indføring i de grundlæggende funktioner og muligheder i Dynamo.