AI har på få år ændret den måde, vi søger viden, kommunikerer og løser opgaver på. Men før man for alvor kan udnytte teknologien, er det nyttigt at vide lidt om, hvordan den virker.
De fleste af os bruger teknologien intuitivt, men de færreste ved, hvad der egentlig foregår bag scenen, når en sprogmodel svarer på vores spørgsmål.
Her får du en enkel introduktion til de store sprogmodeller - LLM’er - samt til begreber som generativ AI og tokens.
Og hvis du vil dykke dybere, har du adgang til en hel portefølje af AI-kurser i din kursusportefølje.
-
Anvendelse af kunstig intelligens (AI)
Bliv den kandidat virksomhederne mangler lige nu. Dette kursus giver dig stærke kompetencer inden for AI, automatisering, præsentationsteknik og databehandling.
Godkendt kursus for ledige
-
Google Digital Marketing & E-commerce Professional Certificate
Få en professionel Google-certificering på CV'et
Bliv klar til et job indenfor digital marketing og e-handel på kun 6 uger.
Hvad er Large Language Models (LLM’er)?
ChatGPT, Gemini, Claude med flere er eksempler på store sprogmodeller.
Teknologien bygger på mange års forskning i maskinlæring.
Maskinlæring dækker over metoder til at lære en computer at udføre opgaver ved at analysere store datamængder frem for at programmere hvert trin manuelt.
Traditionelt benytter man maskinlæring til at forudsige eller genkende ting. For eksempel om et billede forestiller en hund eller en kat eller om en e-mail er spam eller ej.
Generativ AI går skridtet videre, og er i stand til at skabe noget nyt: tekst, billeder, musik eller video.
Hvad står GPT for?
GPT står for Generative Pretrained Transformers.
Hvordan genererer en AI nyt indhold?
Når du giver en sprogmodel et input, bearbejder den tekststrengen og sammenligner den med mønstre, den har set i sine træningsdata.
På den baggrund beregner den, hvad der sandsynligvis bør komme som det næste ord eller den næste samling pixels i et billede, og bygger svaret op ét skridt ad gangen.
Det er vigtigt at forstå, at systemet ikke slår svar op i en database. Det gætter.
På den mest sandsynlige fortsættelse ud fra sine statistiske modeller, og på et ekstremt avanceret niveau, ganske vist.
Man kan forestille sig de store sprogmodeller, som en ekstremt veltrænet gætteleg.
Du giver systemet de første klodser (tokens/tal), og på baggrund af de milliarder af klodskombinationer, det har set før (træningsdata), regner det ud, hvilken klods der med størst sandsynlighed skal følge.
Det skaber nyt indhold ved at færdiggøre den sekvens, du har startet.
Tokens: Sprogmodellernes Byggesten
Kernen i sprogmodellernes måde at forstå tekst på er noget, der kaldes tokens. En token er en lille datastreng. Nogle gange et helt ord, andre gange kun en del af et ord.
Eksempel:
Ordet ”marketingsafdeling” kan være opdelt i fem tokens, mens små ord som “af” eller “en” ofte kun består af en token. Der er ikke en fast regel for, hvor mange bogstaver en token er, og forskellige modeller omdanner data på forskellige måder.
Når du skriver en sætning, oversætter modellen den med det samme til en sekvens af tokens i form af tal. Det er denne sekvens, den arbejder videre med.
Hvordan genererer systemet et svar?
Når systemet har tokeniseret (oversat den til en talstreng) din prompt begynder det at regne ud, hvad der er det mest sandsynlige næste tal, der kommer efter den givne streng. Den fortsætter simpelthen strengen af tokens.
Selve processen foregår ved, at systemet kører en lang række iterationer, altså en proces som gentages om og om igen, for at finde frem til det resultat, som det vurderer er mest sandsynligt.
Det er værd at bemærke, at denne metode betyder, at sprogmodellerne ikke nødvendigvis kan formulere ord og sætninger på dansk.
De oversætter sproget til en streng af tokens, og bruger sandsynlighed baseret på træningsdata til at fortsætte strengen.
Systemerne ligger ikke inde med en kæmpestor database af alle de dokumenter, de er trænet på. De har derimod meget store mængder af forskellige tekststrenge, som de trækker på.