AI og LLM'er: Den Komplette Guide til Kunstig Intelligens. Alle snakker om kunstig intelligens og ChatGPT, men hvad er det egentlig? Her får du den fulde forståelse af, hvad der sker bag kulisserne, når AI forstår og genererer menneskelig tekst.

AI og LLM’er: Den Komplette Guide til Kunstig Intelligens

Alle snakker om kunstig intelligens og ChatGPT, men hvad er det egentlig? Her får du den fulde forståelse af, hvad der sker bag kulisserne, når AI forstår og genererer menneskelig tekst.

1. Hvad er kunstig intelligens og LLM’er egentlig?

Når du skriver til ChatGPT eller en anden AI-assistent, oplever du noget, der ligner magi. Du stiller et spørgsmål, og få sekunder efter får du et sammenhængende, intelligent svar. Men hvad sker der egentlig bag kulisserne?

LLM står for “Large Language Model” – store sprogmodeller på dansk.
Det er en type kunstig intelligens, der er trænet til at forstå og generere menneskelig tekst ved at lære mønstre fra milliarder af teksteksempler.

Forestil dig, at du skulle lære dansk som fremmed. Du ville læse tusindvis af bøger, artikler og samtaler for at forstå, hvordan ord hænger sammen. En LLM gør præcis det samme – bare med utroligt meget mere tekst og på en måde, ingen mennesker kunne klare.

Hvad gør LLM’er revolutionerende?
Tidligere AI-systemer var som specialister: En skakcomputer kunne spille skak, et billedgenkendelsesprogram kunne identificere objekter i fotos, men intet system kunne gøre begge dele.

LLM’er er derimod generalister. Den samme model kan:

    • Oversætte mellem sprog
    • Skrive kreative historier
    • Løse matematiske opgaver
    • Programmere software
    • Føre naturlige samtaler
    • Opsummere komplekse dokumenter

    Dette sker uden, at nogen har programmeret modellen til hver enkelt opgave. I stedet lærer den generelle principper om sprog og kommunikation, som den så kan anvende på nye situationer.

    Hvorfor netop nu?
    Du har måske undret dig over, hvorfor AI pludselig er overalt i 2023-2025. Svaret ligger i konvergensen af tre faktorer:

    1. Massive datasæt: Internettet har skabt adgang til mere tekst, end nogensinde før
    2. Kraftfuld hardware: Specialiserede AI-chips kan behandle enormt komplicerede beregninger
    3. Gennembrud i algoritmer: Transformer-arkitekturen (mere om den senere) ændrede fundamentalt, hvordan AI kan lære 


    2. Den historiske udvikling: Fra Turing til ChatGPT

    For at forstå nutidens AI-revolution er det nødvendigt at kende historien. Kunstig intelligens har udviklet sig gennem flere bølger, hver med sine egne tilgange og begrænsninger.

    1950-1980: De første visioner
    Det hele startede med Alan Turing i 1950, som stillede det fundamentale spørgsmål: “Kan maskiner tænke?” Hans berømte Turing-test foreslog, at en maskine kunne betragtes som intelligent, hvis et menneske ikke kunne skelne dens svar fra et andet menneskes.

    De første årtier var domineret af regelbaserede systemer. Forskere forsøgte at håndkode menneskelig viden i computere gennem komplekse sæt regler:

    HVIS patient har feber OG hoste
    SÅ mulig diagnose = influenza

    Disse ekspertsystemer fungerede på snævre områder som medicinske diagnoser eller geologisk prospektering, men var fundamentalt begrænsede. De kunne ikke lære nye mønstre eller tilpasse sig situationer, de ikke var eksplicit programmeret til.

    1990-2010: Den statistiske revolution
    I 1990’erne skiftede fokus fra regler til statistisk maskinlæring. I stedet for at fortælle computere, hvad de skulle gøre, begyndte forskere at lade dem lære mønstre fra data.

    Dette førte til fremskridt inden for:

      • Spam-filtrering i e-mails
      • Stemme- og billedgenkendelse
      • Anbefalingssystemer (som dem Netflix bruger)

      Men sprogbehandling forblev en særlig udfordring. Menneskelig kommunikation er fuld af nuancer, kontekst og flertydigheder, som er svære at fange med traditionelle statistiske metoder.

      2010-2017: Dyb læring tager over
      Dyb læring (deep learning) markerede det næste store spring. Geoffrey Hinton og kolleger demonstrerede, hvordan “dybe” neurale netværk – systemer inspireret af hjernens struktur – kunne overgå traditionelle metoder på vigtige opgaver.

      Disse netværk bestod af mange lag af kunstige neuroner, der kunne lære stadig mere komplekse mønstre. Et netværk til billedgenkendelse kunne for eksempel lære at genkende linjer i det første lag, former i det andet lag og hele objekter i de øverste lag.

      2017-nu: Transformer-revolutionen
      Det egentlige gennembrud kom i 2017 med en forskningsartikel kaldet “Attention is All You Need”. Her introducerede forskere transformer-arkitekturen, som fundamentalt ændrede, hvordan computere kunne behandle sprog.

      Hvor tidligere systemer læste tekst, ord for ord (som du læser denne sætning), kunne transformere betragte hele sætninger på én gang og forstå sammenhænge mellem ord, uanset hvor langt fra hinanden de stod.

      Dette gjorde det muligt at bygge de første virkelig kraftfulde sprogmodeller, hvilket kulminerede med GPT (Generative Pre-trained Transformer) serien og andre LLM’er, vi kender i dag.


      3. Sådan lærer computere at forstå sprog

      At lære en computer at forstå menneskelig kommunikation kræver, at vi oversætter sprogets kompleksitet til matematik. Dette sker i tre grundlæggende trin.

      Trin 1: Tokenisering – At opdele tekst i byggeklodser
      Når du skriver “Kunstig intelligens transformerer verden”, forstår din hjerne automatisk betydningen af hvert ord. En computer må først opdele sætningen i tokens – små tekstbidder, der kan behandles individuelt.

       

      “Kunstig intelligens transformerer verden” 

      [“Kunstig”, “intelligens”, “transform”, “erer”, “verden”]

      Moderne systemer bruger sofistikerede algoritmer til at finde den optimale opdeling. Almindelige ord som “verden” bliver ét token, mens sjældnere ord som “transformerer” måske opdeles i mindre dele.

      Trin 2: Ord som matematik – Word Embeddings
      Næste skridt er at omdanne hvert ord til en vektor – en række tal, der repræsenterer ordets “betydning” i et højdimensionelt rum.

      Forestil dig et koordinatsystem, men i stedet for 2D (x,y) har vi flere hundrede dimensioner. I dette rum placeres relaterede ord tæt på hinanden:

        • “Hund” og “kat” ligger tæt på hinanden (begge er kæledyr)
        • “Danmark” og “Sverige” er naboer (begge er lande)
        • “Glad” og “lykkelig” overlapper næsten (synonymer)

        Dette gør det muligt for AI’en at forstå, at spørgsmål om “hunde” også kan være relevante for “katte”, selvom ordene er forskellige.

        Trin 3: Attention – At forstå sammenhænge
        Det tredje og måske vigtigste koncept er attention-mekanismen. Den løser et fundamentalt problem: Hvordan forstår en computer, hvilke ord i en sætning, der hører sammen?

        Tag sætningen: “Lægen undersøgte patienten, og han konkluderede, at behandlingen var nødvendig.”

        Når AI’en læser “han”, skal den forstå, at det henviser til “lægen” og ikke “patienten”. Attention-mekanismen gør dette ved at lade modellen “fokusere” på relevante dele af inputtet, når den behandler hvert ord.

        Du kan tænke på det som din egen læsning – når du læser “han”, springer dit sind automatisk tilbage til “lægen” for at forstå sammenhængen.


        4. Transformer-teknologien: Hjertet i moderne AI

        Transformer-arkitekturen er den teknologi, der gør moderne LLM’er mulige. For at forstå, hvorfor den er så revolutionerende, skal vi sammenligne hvordan tidligere systemer fungerede.

        Fra sekventiel til parallel behandling
        Ældre AI-systemer læste tekst sekventielt – ord for ord, fra venstre mod højre, ligesom du læser denne sætning. Det betød, at de først skulle læse “Kunstig”, derefter “intelligens”, så “transformerer” osv.

        Transformers kan læse hele sætninger på én gang.
        Det er som forskellen mellem at læse et brev ord for ord versus at se hele siden på én gang og forstå sammenhængen.

        Self-Attention: Når AI lærer at fokusere
        Kernen i transformer-teknologien er self-attention. Dette giver modellen evnen til at overveje alle ord i en sætning samtidig, når den fortolker hvert enkelt ord.

        Forestil dig, du læser: “Banken på hjørnet blev røvet, men banken af floden var stadig fredelig.”

        Et menneske forstår intuitivt, at første “banken” betyder pengeinstitut, mens anden “banken” betyder flodbred. Self-attention gør det samme – den ser på hele konteksten og forstår, hvilket betydning hvert ord har.

        Multi-Head Attention: Flere perspektiver samtidig
        For at gøre forståelsen endnu mere nuanceret, bruger transformers multi-head attention. Det er som at have flere eksperter, der kigger på samme tekst fra forskellige vinkler:

          • Ekspert 1: fokuserer på grammatiske forhold (subjekt, verbum, objekt)
          • Ekspert 2: ser på semantiske sammenhænge (hvad handler teksten om?)
          • Ekspert 3: følger referencer (“han”, “den”, “det” – hvad henviser de til?)

          Ved at kombinere alle disse perspektiver får modellen en dyb, nuanceret forståelse af teksten.

          Positional Encoding: At forstå rækkefølge
          Da transformers læser alle ord på én gang, skal de have en måde at forstå rækkefølgen på. “Hunden jagter katten” betyder noget andet end “Katten jagter hunden”, selvom de samme ord bruges.

          Positional encoding tilføjer matematiske “positionsmarkører” til hvert ord, så modellen ved, hvor det står i sætningen. Det er lidt som at nummerere hver plads i en teaterforestilling – ordene er de samme, men deres position giver dem forskellige roller.

           

          5. Hvordan trænes en AI-model?

          At træne en LLM er som at undervise et barn i sprog – bare i en skala, der ville være umulig for mennesker at håndtere. Processen kræver massive datasæt, enorm computerkraft og måneder af kontinuerlige beregninger.

          Dataindsamling: AI’s “lærebøger”
          Moderne LLM’er trænes på tekstmængder, der overstiger alt, hvad et menneske kunne læse i et helt liv. Vi snakker om:

            • Milliarder af websider (Wikipedia, nyhedsartikler, blogs)
            • Tusindvis af bøger (romaner, fagbøger, reference-værker)
            • Videnskabelige artikler fra alle fagområder
            • Kode fra software-projekter (derfor kan AI programmere)

            Al denne tekst skal rengøres og struktureres. Forskere fjerner duplikater, filtrerer spam og lav-kvalitets indhold og sikrer, at dataene er i et format, computerne kan behandle.

            Next-Token Prediction: AI’s læringsspil
            Selve træningen fungerer gennem next-token prediction – at gætte det næste ord. Det lyder simpelt, men er utroligt kraftfuldt:

            Input: “Hovedstaden i Danmark er” – Forventet output: “København”
            Input: “2 + 2 = ”  – Forventet output: “4”
            Input: “def beregn_areal(længde, bredde):” – Forventet output: “return længde * bredde”

            Ved at lære at forudsige det næste ord i milliarder af eksempler lærer modellen:

              • Grammatik (“efter ‘jeg’ kommer ofte ‘er’, ‘har’ eller ‘vil'”)
              • Faktuel viden (“efter ‘hovedstaden i Danmark’ kommer ‘København'”)
              • Logik (“efter ‘2 + 2 =’ kommer ‘4’”)
              • Programmeringsmønstre (efter function-definition kommer function-body) 

              Gradient Descent: Sådan lærer AI af fejl
              Når modellen gætter forkert, skal den lære af fejlen. Dette sker gennem gradient descent – en matematisk proces, hvor AI’en justerer sine “indstillinger” (parametre) for at blive bedre.

              Forestil dig, du skal finde det laveste punkt i et kuperet landskab, mens du har bind for øjnene. Du kan kun føle stigningen under dine fødder og tage små skridt i den retning, der går mest nedad. Det er gradient descent – AI’en tager små skridt i retning af færre fejl.

              Parallelisering: Tusindvis af computere arbejder sammen
              For at træne de største modeller kræves hundredvis eller tusindvis af specialiserede AI-chips (GPU’er), der arbejder sammen. Det er som at have en hel fabrik af matematikere, der samarbejder om at løse det samme kæmpe puslespil.

              Denne parallelle beregning gør det muligt at træne modeller med hundredvis af milliarder parametre – de “indstillinger”, der bestemmer, hvordan modellen reagerer på forskellige input.

               

              6. Fra ChatGPT-1 til GPT-5: Udviklingen af store sprogmodeller

              OpenAI’s GPT-serie illustrerer den eksponentielle udvikling i AI-kapaciteter over få år. Hver generation har markeret et kvantesprang i, hvad kunstig intelligens kan præstere.

              GPT-1 (2018): Det første skridt
              GPT-1 var et proof-of-concept med 117 millioner parametre – stort for sin tid, men lillebitte sammenlignet med nutidige standarder. Den kunne generere sammenhængende tekst, men med mange begrænsninger.

              Det revolutionerende var selve arkitekturen – første gang transformer-teknologien blev brugt til generativ sprogmodellering på denne skala.

              GPT-2 (2019): Første tegn på magi
              Med 1,5 milliarder parametre viste GPT-2 pludselig kapaciteter, der overraskede selv forskerne. Den kunne:

                • Skrive sammenhængende historier
                • Efterligne forskellige skrivestile
                • Oversætte mellem sprog (uden specifik træning til det)

                OpenAI var initialt så bekymrede for misbrug, at de ikke ville offentliggøre den fulde model – en beslutning, der skabte stor debat om AI-sikkerhed.

                GPT-3 (2020): Gennembruddet
                GPT-3 med 175 milliarder parametre var det øjeblik, hvor AI blev mainstream. Pludselig kunne modellen:

                  • Few-shot learning: Lære nye opgaver fra få eksempler i prompten
                  • In-context learning: Forstå og følge instruktioner uden ny træning
                  • Kreativ skrivekunst: Producere poesi, historier og scripts af høj kvalitet
                  • Kodegenerering: Skrive funktionel software baseret på beskrivelser 

                  GPT-4 (2023): Multimodal intelligens
                  GPT-4 introducerede multimodale evner – modellen kunne ikke kun læse tekst, men også “se” og fortolke billeder. Samtidig forbedrede den:

                    • Ræsonnering: Bedre til logiske kæder og kompleks problemløsning
                    • Faktuel nøjagtighed: Færre hallucinationer og forkerte påstande
                    • Følge instruktioner: Mere præcis til at forstå og udføre specifikke opgaver 

                    OpenAI har ikke offentliggjort tekniske specifikationer for GPT-4, men analyser tyder på en arkitektur, der er markant mere kompleks end forgængerne.

                    GPT-5: Realiteten er her
                    OpenAI lancerede GPT-5 den 7. august 2025, hvilket markerer det hidtil største spring i AI-kapaciteter.

                    Det interessante ved GPT-5 er introduktionen af “thinking”-tilstand – modellen kan selv vurdere, hvornår den skal svare hurtigt, og hvornår den skal “tænke længere” for at levere højere kvalitet. Det er som forskellen mellem at svare spontant på et spørgsmål versus at tage sig tid til at overveje alle aspekter.

                    Dokumenterede forbedringer i GPT-5:

                      • Markant bedre ræsonnering: Særligt ved komplekse, multi-step problemer
                      • 45% færre faktuelle fejl sammenlignet med GPT-4o (endnu lavere ved “thinking”-tilstand)
                      • Stærkere multimodale evner: Bedre integration af tekst og visuel forståelse
                      • Udvidet kontekst: Kan arbejde med længere dokumenter og samtaler
                      • Agentisk kodning: Mere selvstændig til at skrive og debugge kompleks software
                      •  

                      7. Frontier AI-virksomheders jagt på AGI og ASI

                      Definitioner og samfundsmæssige implikationer
                      Artificial General Intelligence (AGI) refererer til AI-systemer, der matcher eller overgår menneskelig intelligens på tværs af alle kognitive domæner. I modsætning til nuværende “narrow AI” som excel­lerer inden for specifikke opgaver, vil AGI kunne:

                        • Forstå, lære og anvende viden på tværs af discipliner
                        • Udvise kreativitet og problemløsning på menneskeligt niveau
                        • Tilpasse sig nye situationer uden at omtræne 

                        Artificial Super Intelligence (ASI) repræsenterer det næste evolutionære spring – intelligens, der dramatisk overgår den samlede menneskelige kapacitet. ASI ville potentielt kunne:

                          • Accelerere videnskabelige gennembrud eksponentielt 
                          • Løse komplekse globale udfordringer som klimaforandringer eller sygdomme
                          • Fundamentalt omforme økonomiske og sociale strukturer 

                          For samfundet betyder denne udvikling både enorme muligheder og eksistentielle risici. AGI kunne demokratisere ekspertise og løse ressourceknaphed, mens ASI kunne føre til enten teknologisk utopi eller – hvis dårligt alignet med menneskelige værdier – eksistentielle trusler.


                          8. Tidslinje: Fra forsigtige ambitioner til AGI-kapløb

                          2010-2015: De idealistiske begyndelser
                          Google DeepMind (grundlagt 2010) startede med missionen om at “løse intelligens” som et videnskabeligt projekt. Deres oprindelige vision fokuserede på grundforskning snarere end kommerciel anvendelse.

                          OpenAI (2015) blev lanceret som non-profit med løftet om at sikre AGI ville gavne hele menneskeheden. Sam Altman udtalte dengang at organisationen ville prioritere sikkerhed over hastighed (og for at undgå Google Deepmind fik for stor indflydelse).

                          2016-2020: Kommercialiseringens indtog
                          OpenAI’s transformation (2019) til en “capped-profit” struktur markerede et vendepunkt. Microsoft’s milliard-investering signalerede, at AGI-jagten krævede massive ressourcer. Missionen skiftede subtilt fra “sikre AGI gavner alle” til “være først med sikker AGI.”

                          Google DeepMind begyndte at integrere mere direkte i Googles produkter, mens de fastholdt AGI som det ultimative mål.

                          2021-2023: ChatGPT-revolutionen og accelerationen
                          OpenAI’s ChatGPT (November 2022) ændrede spillet fundamentalt. Pludselig blev AGI-tidshorisonten komprimeret fra årtier til år i den offentlige bevidsthed.

                          Anthropic (grundlagt 2021 af tidligere OpenAI-medarbejdere) positionerede sig med “Constitutional AI” men har gradvist skiftet fra ren sikkerhedsfokus til også at konkurrere om frontier-kapaciteter.

                          xAI (2023) med Elon Musks eksplicitte mål om at “forstå universets sande natur” repræsenterer den mest åbenlyst AGI-fokuserede mission.

                          2024-2025: ASI som det nye paradigme
                          Alle frontier-virksomheder taler nu åbent om ASI som det næste mål efter AGI. OpenAI’s Sam Altman diskuterer nu offentligt “intelligenseksplosionen” og ASI’s uundgåelighed. Google DeepMind’s Demis Hassabis advokerer for en 10-års horisont til AGI, med ASI følgende kort efter.

                          Meta’s Llama repræsenterer en interessant modpol med deres open-source tilgang, men selv Zuckerberg taler nu om AGI som en nær-fremtidig realitet snarere end sci-fi.


                          9. Winner-takes-all dynamikken og astronomiske valuationer

                          First-Mover fordelen i AGI-kapløbet
                          Den virksomhed der først opnår AGI vil potentielt kontrollere:

                          1. Rekursiv selvforbedring: AGI kan accelerere sin egen udvikling mod ASI, skabende en uindtagelig teknologisk fordel.

                          2. Økonomisk dominans: Selv få måneders forspring kunne betyde:

                            • Automatisering af hele industrier 
                            • Løsning af kritiske videnskabelige problemer
                            • Patent på banebrydende teknologier 

                            3. Geopolitisk magt: Den nation eller virksomhed med ASI ville effektivt have ultimativ strategisk fordel.


                            10. Konklusion: Fra idealistiske visioner til eksistentielt kapløb

                            Udviklingen fra 2015 til 2025 viser en dramatisk transformation i frontier AI-virksomhedernes missioner. Hvad der startede som forsigtige videnskabelige projekter med fokus på sikkerhed og til samfundets gavn er blevet til et kapløb mod AGI og ultimativt ASI.

                            Denne udvikling rejser kritiske spørgsmål: Kan sikkerhed og hastighed forenes? Vil winner-takes-all dynamikken føre til farlige genveje? Og vigtigst: Har vi som samfund tilstrækkelig indflydelse på en udvikling der fundamentalt vil omdefinere menneskehedens fremtid?

                            Hvad der slet ikke er diskuteret endnu, er den geopolitiske konkurrence mellem specielt Kina og USA. Den helt absurde mængde energi nye og fremtidige datacentre skal have adgang til (dem som Elon Musk bygger i USA i øjeblikket, har sit eget kraftværk koblet på). Når energi bliver en knap ressource, giver det så mest mening at allokere strømmen til at løse menneskehedens store problemer eller binge Netflix hele søndagen? Og hvad med kombinationen med robotter (Optimus fra Tesla, Xpeng Robot, etc.) og ruten mod en verden i “sustainable abundance” som Elon Musk så interessant kaldte det tilbage i august 2025. 

                            Svaret på disse spørgsmål vil sandsynligvis afgøres inden for det næste årti – en tidslinje der gør behovet for offentlig debat og regulering akut.

                            Del artiklen