Dit fundament for en AI strategi.

AI strategi og implementering i danske virksomheder - fra chat til agentisk AI i 2026

En strategisk guide for beslutningstagere

Med over 25 års erfaring i krydsfeltet mellem strategi, digitalisering og forretningsskalering, har jeg dedikeret mit professionelle virke til at hjælpe virksomhedsejere med at digitalisering og implementering af AI i praksis.

Min tilgang er funderet i en sjælden kombination af hands-on praktisk erfaring og dyb teoretisk indsigt. Det betyder, at mine whitepapers, analyser og artikler aldrig blot er teoretiske betragtninger, men konkrete, eksekverbare køreplaner, der kan implementeres direkte i din forretning.

Hvorfor læse mine artikler og whitepapers?

  • Dokumenteret erfaring: Over to årtiers arbejde med komplekse digitaliseringsprojekter og strategisk skalering.

  • Fokus på eksekvering: Jeg omsætter kompleks strategi til håndgribelige handlinger, der skaber værdi fra dag ét.

  • Specialisering: Ekspertise i [indsæt 2-3 nøgleord, f.eks. SaaS-vækst, procesoptimering eller digital transformation].

Som forfatter og rådgiver stræber jeg efter at gøre avanceret forretningsstrategi tilgængelig og handlingsorienteret for den ambitiøse virksomhedsejer.

Indholdsfortegnelse
progress tracker

Meld dig til mit AI nyhedsbrev

Det er til dig som vil være på forkant med AI udviklingen, use cases og det store billede.

nyhedsbrevet udkommer hver 14. dag

Dette whitepaper er udarbejdet til dig, der ønsker at forstå ikke blot overfladen af AI-revolutionen, men selve mekanikken bag teknologien og hvor teknologien er på vej hen. Vi befinder os i et historisk øjeblik hvor kunstig intelligens transformeres fra en imponerende demonstration af sproglig kopiering til et fundamentalt nyt lag af kognitiv infrastruktur.

Tegneserie om AI's indvirkning på virksomheder og brugen til at skabe billeder.

For at navigere forandringen kræves en forståelse af tre kritiske elementer: hvordan teknologien faktisk fungerer under overfladen, hvilke fysiske begrænsninger der former udviklingen, og hvordan teknologier vil konvergere hastigt i perioden frem mod 2028 og skabe nye rammebetingelser for virksomheder.

God læselyst.


1. Executive summary

Perioden fra 2022 til 2025 var præget af “The Wow Factor”. Vi så kunstig intelligens generere tekst, der var næsten umulig at skelne fra menneskeligt arbejde, skabe billeder der så ud som om de var malet af kunstnere, og føre samtaler der føltes naturlige og nuancerede. Det var fascinerende, det var underholdende, og for mange virksomheder blev det set som en interessant teknologisk kuriositet snarere end en strategisk nødvendighed.

Men når vi kigger ind i 2026 og frem mod 2028, skifter teknologien fundamental karakter. Vi bevæger os fra det vi kan kalde Generativ AI – systemer der primært skaber indhold baseret på eksisterende mønstre – til Agentisk AI, som selvstændigt kan udføre komplekst arbejde over tid. Dette er ikke en gradvis forbedring af eksisterende værktøjer. Det er en eksponentiel udvikling i måden vi opererer på.

Dette skift drives af tre konvergerende faktorer, der hver især ville være revolutionerende, men som tilsammen skaber den samfundsændrende transformation. For det første ser vi fremkomsten af system 2 ræsonnering (1) i AI-modeller. Hvor tidligere generationer af sprogmodeller i bund og grund gættede på det næste ord baseret på statistiske mønstre, er de nyeste modeller i stand til at “tænke” før de taler. De genererer interne tankerækker, vurderer forskellige tilgange, og korrigerer deres egen ræsonnering, før de præsenterer et svar.

For det andet oplever vi den mest massive opbygning af fysisk regnekraft-infrastruktur i menneskehedens historie. Vi taler om datacentre designet til at operere på gigawatt-skala, som kræver energi svarende til behovet hos mindre nationalstater. Denne infrastruktur er ikke en bivirkning af AI-udviklingen, den er selve forudsætningen for den næste generation af intelligente systemer.

For det tredje står vi på tærsklen til “embodied AI”, hvor den intelligens, vi har udviklet i form af Large Language Models (LLMs) integreres i fysiske “kroppe” i form af robotter. Dette lukker kredsløbet mellem digital intelligens og fysisk handling på måder der fundamentalt ændrer økonomi, produktion og arbejdsmarked.

For virksomhedslederen betyder denne konvergens at kunstig intelligens ikke længere kan behandles som et IT-projekt, der kan delegeres til tech-afdelingen. Det er en ny form for kognitiv infrastruktur, der kræver samme niveau af strategisk opmærksomhed som elektricitet gjorde i begyndelsen af det 20. århundrede, eller logistik gjorde i globaliseringens æra.

For at navigere denne forandring kræves fire strategiske tiltag i samhørighed for en solid AI strategi:
 
  1. Etablere en AI strategi forankret på topledelsesniveau
  2. Fra idé til handling: Pilotprojekter som lærings maskine
  3. Etablere AI Governance som strategisk funktion på C-level
  4. Investere i kompetencer og rolleforandring
 

De virksomheder der forstår dette tidligt, og som strukturerer deres organisation derefter, vil have et fundamentalt forspring – den strategiske handlingsplan bliver essentiel.

2. Maskinrummet i LLM’er: sådan fungerer generativ AI (transformers, embeddings og attention)

For at kunne træffe strategiske beslutninger om kunstig intelligens må man først fjerne mystikken og forstå den underliggende mekanik. Dette er ikke bare en akademisk øvelse. Når man forstår hvordan teknologien fungerer, bliver det klart, hvilke opgaver den er velegnet til, hvilke begrænsninger den har, og hvordan man bedst kan integrere den i eksisterende arbejdsgange.

Mange mennesker, inklusive mange beslutningstagere, tror fejlagtigt at en Large Language Model i bund og grund er en avanceret database af fakta og viden. De forestiller sig, at når man stiller et spørgsmål til ChatGPT eller Claude, så slår systemet informationen op i en enorm tekst database og leverer det korrekte svar. Denne mentale model er fundamentalt forkert, og den fører til fejlagtige forventninger om, hvad teknologien kan og ikke kan.

I virkeligheden er en LLM en maskine til forudsigelser. Den er trænet på enorme mængder tekst, ikke for at huske teksten, men for at lære de statistiske mønstre i hvordan ord og begreber relaterer til hinanden. Når den genererer et svar, konstruerer den det ord for ord ved konstant at forudsige “hvad kommer sandsynligvis som næste i denne kontekst?”. 

Det er en subtil men kritisk forskel der forklarer både systemernes styrker og deres svagheder – vi skal vænne os til, at “computeren” er korrekt 90% af gangene og altså uvidende tager fejl 10% af gangene i større eller mindre grad. Lidt ligesom når vi snakker med hinanden menneske til menneske. Fejlraten for LLM’er kaldes også for “hallucinations”. Fra GPT 5.0 thinking til 5.2 thinking er hallucineringer faldet fra 16,8% til 10,9%, og giver du den adgang til internettet falder den yderligere til 5,8% (2).

For at forstå hvordan denne forudsigelsesmaskine fungerer, skal vi dykke ned i to centrale koncepter der udgør fundamentet for moderne AI: Embeddings og Attention. Disse to mekanismer arbejder sammen for at give modellerne deres bemærkelsesværdige evner inden for sprogforståelse og generering.

2.1 Vektor embeddings: semantisk forståelse, søgning og vidensstruktur i virksomheden

Det første store problem der skal løses er grundlæggende: hvordan får man en computer, der kun forstår tal, til at forstå nuancerne i menneskeligt sprog? Hvordan ved maskinen at “konge” og “dronning” er beslægtede koncepter, eller at “bank” kan betyde vidt forskellige ting afhængigt af konteksten?

Svaret ligger i noget der kaldes Vektor Embeddings, og den bedste måde at forstå det på er gennem en udvidet metafor. Forestil dig et gigantisk, multidimensionelt supermarked. I et almindeligt supermarked står varerne på hylder organiseret efter simple kategorier: frugt samlet ét sted, mejeriprodukter et andet, konserves et tredje. Systemet er todimensionelt og enkelt.

I AI’ens semantiske supermarked har vi ikke to eller tre dimensioner, men ofte tusindvis. Hvert ord eller koncept i sproget placeres som et punkt i dette høj-dimensionelle rum, og placeringen er ikke tilfældig. Positionen bestemmes af ordets egenskaber, dets typiske kontekst, dets grammatiske funktioner, og dets semantiske betydning. Ordet “konge” får tildelt en bestemt position i dette rum baseret på alle de sammenhænge det typisk optræder i. Ordet “dronning” placeres tæt på, fordi de to ord deler mange egenskaber, men der er også en subtil forskydning langs det vi kunne kalde en “køns-akse”.

Det fascinerende ved denne repræsentation er at den gør det muligt at regne med koncepter. Man kan bogstaveligt talt udføre matematik på betydninger. Den berømte ligning “Konge minus Mand plus Kvinde giver cirka Dronning” er ikke bare en sjov demonstration, den illustrerer at modellen har lært abstrakte relationer mellem koncepter. Den forstår at der eksisterer en “hersker-relation” der kan adskilles fra kønsaspektet.

For forretningen har dette dybtgående implikationer. Det betyder at AI ikke søger efter nøgleord på den måde den gamle “Ctrl+F” søgefunktion gjorde. Når du beder systemet om at finde “strategier for omkostningsreduktion”, finder det dokumenter der handler om “effektivisering af supply chain” eller “lean manufacturing” eller “procesoptimering”, selvom disse dokumenter ikke indeholder de eksakte ord du søgte efter. Begreberne ligger på samme “hylde” i det semantiske supermarked, fordi de optræder i lignende kontekster og løser lignende problemstillinger.

Denne evne til semantisk matching snarere end ord matching er grunden til at moderne AI-systemer kan fungere som intelligente assistenter snarere end “dumme” søgemaskiner. Men det forklarer også en af deres svagheder: fordi systemet arbejder med statistiske ligheder snarere end logisk ræsonnering, kan det nogle gange “hallucinere” og generere plausibelt-lydende information, der ikke er korrekt. Det forudsiger, hvad der ville være et sandsynligt svar baseret på mønstre, ikke hvad der nødvendigvis er det sande svar.

2.2 Self-attention og kontekst: hvordan AI forstår lange dokumenter, kontrakter og kode

At forstå enkelte ord og deres indbyrdes relationer er imidlertid ikke nok til at skabe intelligent sprogforståelse. Modellen skal også kunne håndtere kontekst over lange afstande. Et ord kan betyde noget helt forskelligt afhængigt af hvad der blev sagt ti sætninger tidligere, og en henvisning på side halvtreds af et dokument kan referere tilbage til noget introduceret på side to.

Før 2017 var dette et fundamentalt problem for AI-systemer. De fleste sprogmodeller læste tekst sekventielt, ord for ord, og havde begrænset “hukommelse”. Som et menneske, der læser en lang roman over flere dage, havde de svært ved at holde styr på alle trådene. Dette gjorde dem ubrugelige til mange praktiske opgaver, der krævede forståelse af lange dokumenter eller komplekse sammenhænge.

Gennembruddet kom med udviklingen af transformer-arkitekturen af forskere hos Google og dens centrale innovation: Self-Attention mekanismen (forskningspapiret har titlen: “Attention is all you need“) . For at forstå hvordan denne fungerer, kan vi igen bruge en hverdagsmetafor. Tænk på den såkaldte cocktail fest-effekt, noget de fleste af os har oplevet.

Du står i et larmende rum fyldt med måske halvtreds forskellige samtaler der foregår samtidigt. Der er musik i baggrunden, klirren med glas, latter, stemmer i alle tonearter og volumener. Og alligevel er din hjerne i stand til at filtrere næsten alt dette fra og fokusere udelukkende på den ene person du taler med. Du “attender” kun til denne ene stemme midt i kaosset. Men hvad der er endnu mere bemærkelsesværdigt er, hvad der sker hvis nogen i den anden ende af rummet pludselig nævner dit navn. Selvom du ikke aktivt lyttede til den samtale, registrerer din hjerne det øjeblikkeligt, og din opmærksomhed skifter automatisk derhen.

En Transformer-model gør noget analogt med hvert eneste ord i en tekst, men gør det massivt parallelt. Når modellen læser ordet “bank” i en sætning, kigger den simultant på alle andre ord i den relevante kontekst. Hvis den ser ordene “penge”, “rente” og “kredit” i nærheden, vægter den den betydning af “bank” der handler om finansielle institutioner tungt. Hvis den i stedet ser “flod”, “vand” og “erosion”, vægter den betydningen “flodbred” tungt. Dette sker ikke gennem forudprogrammerede regler, men gennem lærte vægte der er justeret gennem træning på milliarder af eksempler.

Denne evne til dynamisk at holde fokus på de relevante dele af en tekst, mens man ignorerer det irrelevante, er det der gør moderne modeller i stand til at analysere komplekse juridiske kontrakter, skrive sammenhængende kode over tusindvis af linjer, eller følge en tråd af argumenter gennem et langt akademisk paper. En variabel defineret på side to kan bruges korrekt på side halvtreds, fordi modellen konstant “attender” til alle de relevante dele af konteksten.

Det er også denne mekanisme, der gør det muligt for modellerne at håndtere de kolossale kontekst vinduer vi nu ser. Hvor tidlige modeller måske kunne håndtere et par tusinde ord af kontekst, kan moderne systemer arbejde med hundredtusindvis af ord samtidigt. For forretningsapplikationer betyder dette at man kan fodre en hel årsrapport, alle mødereferater fra et kvartal, eller en komplet produktdokumentation ind i systemet, og få den til at ræsonnere på tværs af det hele.

3. AI benchmarks og pålidelighed 2020-2025: fra mønstergenkendelse til ræsonnering

Med forståelsen af de underliggende mekanismer på plads, kan vi nu se på den konkrete udvikling i systemernes evner. Vi har været vidne til hvad der kun kan beskrives som en “Intelligence Explosion” over de seneste fem år. Dette er ikke subjektive indtryk eller markedsføringshype, men målbare spring i performance på standardiserede tests.

Ved at udsætte AI-modeller for de samme slags tests vi bruger til at måle menneskelig intelligens, herunder Mensa IQ-tests, standardiserede eksamener som SAT og LSAT, og specialdesignede benchmarks for forskningsniveau opgaver, kan vi tegne en klar kurve for udviklingen af syntetisk intelligens.

3.1 Modelgenerationer (GPT-3 > GPT-4 > GPT-5 > næste): kapabiliteter, fejltyper og faktuel kvalitet

I 2022, da GPT-3 research model blev lanceret, var reaktionen en blanding af fascination og skepsis. Modellen kunne generere imponerende sproglig output, men den lavede også bizarre fejl. Den kunne skrive en overbevisende artikel om kvantemekanik, og i næste øjeblik påstå at Paris er hovedstaden i Tyskland. Når forskere testede den på standardiserede intelligenstests, scorede den omkring 80-85 på IQ-skalaen – svarende til et lavt gennemsnit for mennesker (median er 100). Modellen var hvad vi kunne kalde “drømmende”: den producerede flydende sprog uden nødvendigvis at have styr på faktuelle relationer eller logisk konsistens.

Score på den åbne online version af Mensa testen for NorgeLLM IQ score på den åbne online test i Mensa Norge

Kilde: https://trackingai.org/IQ

Springet til GPT-4 i begyndelsen af 2023 markerede et kvalitativt skift. Her så vi for første gang en AI-model der konsekvent scorede over gennemsnittet på en bred vifte af tests. Med et estimeret IQ omkring 115 var GPT-4 i stand til at bestå både juridiske og medicinske eksamener på niveauer, der ville kvalificere den til professionel praksis. Den kunne ræsonnere gennem komplekse problemer, følge lange argumentationskæder, og demonstrere, hvad der lignede ægte forståelse snarere end bare mønstergenkendelse.

Claude 3 Opus, introduceret i 2024, skubbede grænsen yderligere op til omkring 120 – et niveau vi ville karakterisere som højt begavet hos mennesker. Det der skilte denne model ud var ikke bare dens scoringer på tests, men kvaliteten af dens sproglige output. Den udviste nuanceret forståelse af kontekst, kunne håndtere subtile sproglige signaler, og demonstrerede stærke logiske evner.

Og så kom 2025, hvor vi for alvor ser modeller der sprænger loftet på hvad vi troede var muligt på kort sigt. OpenAI’s GPT-5 scorer konsekvent i området 135-140 på verbale og logiske tests og den sidst nye 5.2 fra OpenAI scorer 147 (jf. Mensa Norge). Dette placerer dem i top 1-2 procent af den menneskelige befolkning. For at sætte det i perspektiv: dette er det niveau, man typisk skal score på for at blive medlem af Mensa, den internationale organisation for højt begavede.

Disclaimer: Der er en mængde usikkerhed forbundet med at lave konventionelle IQ tests på computermodeller – her er tallene brugt til at illustrere fremskridtet over kun 3 år.

3.2 System 1 vs. system 2 ræsonnering: hvad det ændrer for kvalitet og beslutningsstøtte (GPQA)

Men rå IQ-scores fortæller ikke hele historien. Det store spring i 2025 handler ikke bare om at score højere på tests, men om en fundamental ændring i hvordan modellerne tænker. Her bliver vi nødt til at introducere begreber lånt fra kognitiv psykologi: System 1 og System 2 tænkning.

System 1 tænkning er hurtig, automatisk og intuitiv. Det er den del af din hjerne der øjeblikkeligt ser at 2+2=4, eller som genkender et ansigt på en forbipasserende. Det er kraftfuldt til at genkende mønstre og træffe hurtige beslutninger, men det er også tilbøjeligt til at tage genveje og lave fejl når tingene bliver komplekse. GPT-4 og alle tidligere modeller fungerede primært i denne mode. De “spyttede” deres svar ud, baseret på det første der faldt dem ind – det mest sandsynlige næste ord givet konteksten. Dette gjorde dem fantastiske til brainstorming og sproglig elegance, men de lavede sløsede fejl i matematik, logik og længerevarende ræsonnering.

System 2 tænkning er langsom, deliberativ og kræver mental anstrengelse. Det er den del af din hjerne du bruger, når du skal løse en kompleks matematikopgave, planlægge en strategi, eller vurdere et kompliceret argument. Du stopper op, overvejer forskellige muligheder, tester dem mentalt, retter dig selv hvis du opdager en fejl, og først derefter når du frem til en konklusion.

De nyeste 2025-modeller har gennemgået et fundamentalt arkitektonisk skift til at inkorporere system 2 tænkning. I stedet for bare at generere output direkte, genererer de nu først en intern “tanke-kæde”, der ikke er synlig for brugeren. Modellen stiller sig selv spørgsmål, overvejer forskellige tilgange, tester sin egen logik, og først når den har arbejdet sig gennem dette deliberative rum, præsenterer den sit endelige svar.

Beviset for effektiviteten af denne tilgang ses tydeligt i benchmarks som GPQA – Graduate-Level Google-Proof Q&A. Dette er en samling af ekstremt svære spørgsmål inden for fysik, kemi og biologi, designet til at være så vanskelige at selv eksperter med ph.d. grader indenfor feltet i gennemsnit kun scorer omkring 65 procent korrekt. Testene er bevidst lavet “Google-proof”, hvilket betyder at svarene ikke bare kan slås op, men kræver dyb forståelse og ræsonnering.

 

AI scoren på GPAQ diamond (Ph.D niveau naturvidenskab spørgsmål)

Kilde: https://epoch.ai/benchmarks/gpqa-diamond

GPT-4, med sin system 1 tilgang, scorede 39 procent. De nyeste modeller med system 2 ræsonnering scorer nu 92-93 procent. Læs det igen: AI’en overhaler nu konsekvent den menneskelige ekspert med doktorgrad på paratviden og logisk anvendelse inden for de hårde videnskaber. Dette er ikke en marginal forbedring, det er en fundamental ændring i teknologiens kapacitet – det åbner op for at AI kan løse matematik, matematikere i dag forsker i.

4. Agentisk AI og fremtidens arbejde: automatisering, produktivitet og nye roller

Med IQ-niveauer der nu konsekvent ligger over 140, og med evnen til System 2 ræsonnering, er flaskehalsen for praktisk anvendelse ikke længere intelligens. Problemet er heller ikke længere kvaliteten af output når systemet bruges rigtigt. Den nye flaskehals er autonomi. Vi står ved overgangen fra Co-pilots, der hjælper mens du styrer, til Agenter, der styrer, mens du overvåger. Dette er et fundamentalt skift i menneske/maskine relationen.

4.1 Hvad er en AI-agent? værktøjer, planlægning og loop-kapacitet i praksis

En agent adskiller sig fra en chatbot på tre kritiske måder. For det første har den adgang til værktøjer. Hvor en chatbot kun kan kommunikere gennem tekst, kan en agent interagere med digitale systemer. Den kan åbne en webbrowser og navigere hjemmesider, den kan eksekvere kode i en terminal, den kan sende emails, tjekke kalendere, læse dokumenter i dit filsystem, og potentielt interagere med enhver API eller software, du giver den adgang til.

For det andet har den evnen til planlægning. Når du giver en agent et mål, bryder den det ned i delmål og trin. Hvis du beder den om at booke et møde med tre kolleger næste uge, planlægger den sekvensen: først må jeg tjekke kalenderen for alle tre personer, så identificere tider hvor alle er ledige, så vælge den tid der er mest hensigtsmæssig baseret på placering af andre møder, så komponere invitationen med en passende dagsorden, og endelig sende invitationen. Denne evne til at bryde komplekse opgaver ned i håndterbare dele er fundamental for autonomi.

For det tredje, og måske mest kritisk, har en agent looping-kapacitet. Den giver ikke bare op hvis noget ikke virker. Hvis en hjemmeside er nede, når den forsøger at tilgå den, venter den fem minutter og prøver igen. Hvis en API returnerer en fejl, læser den fejlbeskeden, justerer sin tilgang, og prøver på ny. Hvis den producerer kode der ikke compiler, læser den fejlmeddelelsen, retter problemet, og prøver igen. Denne evne til at håndtere fejl og fortsætte er, hvad der gør forskellen mellem et værktøj der kræver konstant menneskelig intervention, og et der faktisk kan arbejde selvstændigt.

4.2 AI til softwareudvikling: SWE-bench, coding agents og kvalitetssikring

For at forstå hvor hurtigt denne udvikling går, er der ingen bedre case end softwareudvikling. Industrien følger tæt udviklingen via SWE-bench (SWE-bench – Software Engineering Benchmark – er et standardiseret benchmark til at måle, hvor godt AI-modeller kan løse rigtige software udviklingsopgaver end-to-end baseret på faktiske problemer fra open source github projekter), en benchmark hvor AI-systemer bliver præsenteret for rigtige problemer fra open source projekter på GitHub. Det er ikke teoretiske programmeringsøvelser, men faktiske bugs og features som mennesker har arbejdet på.

I 2023 kunne de bedste AI-systemer løse under 2 procent af problemerne selvstændigt. Det lyder ikke af meget, og det var det heller ikke. Systemerne kunne måske foreslå et fix, men de kunne sjældent navigere en hel kodebase, forstå konteksten, implementere en løsning, teste den, og verificere at den faktisk løste problemet uden at skabe nye problemer.

I 2025, bare to år senere, løser de bedste modeller op til 75% af problemerne i benchmarket SWE Bench Verified. På de sværeste opgaver, som involverer komplekse arkitektoniske ændringer eller dybe domæne-specifikke bugs på SWE Bench Pro benchmarket, rammer ChatGPT 5.2 55,6 procent success rate (3). Dette er en 25-35x forbedring på to år.

Det betyder naturligvis ikke at softwareingeniøren forsvinder. Men rollen ændres fundamentalt. Juniorprogrammøren, der tidligere brugte sin tid på at skrive boilerplate-kode og implementere veldefinerede features, bliver nu arkitekt og supervisor. Opgaven bliver ikke længere primært at skrive koden, men at designe systemet på et højere niveau, definere hvad der skal bygges og hvorfor, og så verificere at agenten har implementeret det korrekt og uden at introducere sikkerhedsproblemer eller teknisk gæld (negative effekt er et fald i stillingsopslag møntet på junior positioner til softwareudvikling – behovet bliver mindre).

Det samme mønster folder sig ud på tværs af funktioner. I marketing ændres rollen fra at skulle producere kampagnematerialer til at definere brandstrategi, kreative retninger, og målgruppe-segmentering, mens agenten står for den faktiske produktion af varianter, A/B-tests, og optimering. I finans, hvor månedens konsolidering i forbindelse med lukning af måneden traditionelt har krævet dage langt arbejde med datahentning, validering og rapportering, kan agenter nu håndtere de fleste af disse trin selvstændigt.

Det gennemgående tema er at vores indsats flyttes fra at være udførende til at være verificerende og strategisk. Vi bruger mindre tid på at lave arbejdet og mere tid på at sikre at arbejdet holder den rigtige kvalitet og går i den rigtige retning. Dette kræver et højere niveau af ekspertise på nogle måder, men eliminerer meget af det rutineprægede arbejde der traditionelt har fyldt størstedelen af arbejdsdagen.

5. AI infrastruktur og compute-strategi 2026-2028: datacentre, energi og omkostninger

Indtil nu har vi talt om den digitale revolution. Men her møder den digitale drøm den fysiske virkelighed, og her bliver tingene både fascinerende og komplicerede. For at træne de næste generationer af modeller, der skal være signifikant smartere end GPT-5 og Gemini 3 Pro og Claude 4.5, kræves der regnekraft i en skala verden simpelthen aldrig har set før. Dette er ikke bare en teknisk detalje – det bliver til et strategisk og geopolitisk spørgsmål af første kategori.

5.1 Gigawatt-datacentre: strømforbrug, cloud-kapacitet og AI-træning i stor skala

OpenAI arbejder i øjeblikket med en række partnere på et projekt med kodenavnet “Stargate” (4). Det er en supercomputer designet specifikt til at træne de næste generationer af AI-modeller, med en estimeret omkostning på 500 milliarder dollars. For at sætte det i perspektiv er det cirka det samme som det danske BNP for et helt år ($429 milliarder), investeret i et enkelt anlæg.

ÅrstalDatacenter-typeStrømforbrug (Kapacitet)Primær FunktionEnergibehov svarende til
2020Standard Hyperscale20 – 50 MWCloud Services (Web, App, Lagring)En mindre provinsby (ca. 20.000 – 50.000 husstande)
2025AI-Ready Datacenter100 – 300 MWTidlig AI-træning & Inferens (GPT-4 niveau)En større dansk by (f.eks. Odense eller Aalborg)
2030AI Supercluster1 GW (1.000 MW)Skalering af store modellerEn storby (f.eks. hele Københavns kommune)
2035“Stargate”-klassen5 GW (5.000 MW)AGI-træning (Kunstig Generel Intelligens)Flere millioner husstande / Land på størrelse med Danmark
2040Next-Gen Compute5 GW+Vedligeholdelse af AGI & Bio-simuleringDedikeret energiforsyning (f.eks. SMR-atomkraft eller
fusionsenergi)

Men det er ikke prisen, der er det mest bemærkelsesværdige. Det er energiforbruget. Dagens store datacentre, der driver tjenester som Google Cloud eller Amazon Web Services, bruger typisk 20-50 megawatt (mw =1000 kw) strøm (kontinuerligt). Det er nok til at forsyne 500-1000 husstande afhængigt af forbrugsmønstre. Disse anlæg er allerede betydelige forbrugere på elnettet.

Stargate og lignende fremtidige anlæg designes til at operere på 5 Gigawatt. Fem gigawatt svarer til fem tusind megawatt. For at sætte det i perspektiv: det er produktionen fra fem store atomkraftværker der kører på fuld kapacitet døgnet rundt, eller nok strøm til at forsyne flere millioner husstande. Et enkelt datacenter kommer altså til at bruge energi svarende til en storby.

Dette er ikke science fiction eller overoptimistiske projektioner. Grunden til at vi ved at dette er nødvendigt, er at træning af AI-modeller har en næsten lineær sammenhæng mellem regnekraft og resultater. Jo flere beregninger du kan køre, jo mere data kan du træne på, og jo smartere bliver din model. Der er ingen vej udenom: hvis du vil have modeller der er signifikant smartere end hvad vi har nu, skal du bruge størrelsesordener mere energi. Det er ikke utænkeligt, at vi snart står med beslutningen, om vi vil have kontinuerlig strøm til hverdagslivet hjemme, eller hellere vil allokere strømmen til LLM’er med fokus på at kurere verdens sygdomme (lader den hænge i luften til en kommende artikel).

5.2 Compute-geopolitik: elnet, grøn energi og hvor AI-produktionen flytter hen

Dette energikrav skaber en helt ny dimension af geopolitisk konkurrence. Det handler ikke længere kun om hvem der har de dygtigste softwareingeniører eller de mest avancerede chips. Det handler om, hvem der har stabil adgang til massive mængder af forholdsvis billig energi.

Frontier AI models fordelt på landeBemærk: Den franske model “Mistral” scorede 95 på IQ scoren, hvor ChatGPT5 Pro scorede 145. 

EU er i det her regi efterladt på perronen. Googles Deepmind har en del af sin udvikling i London, men hovedsædet for Google er stadig solidt placeret i USA med de andre tech giganter.

USA befinder sig i en interessant position. Landet har innovationen – virksomheder som Nvidia, OpenAI, Anthropic og Meta er alle amerikanske. Det har også meget af kapitalen. Men det amerikanske elnet er i mange henseender forældet. Det blev bygget til en tid hvor peak-forbrug var spredt ud over dagen, hvor belastningen kom fra millioner af husstande og traditionelle virksomheder. Det er ikke optimeret til at levere de gigantiske, koncentrerede loads som moderne AI-datacentre kræver.

I områder som Northern Virginia, der huser mange af Amazons datacentre, er der nu ventelister på flere år for at få tilsluttet nye store faciliteter til elnettet (5). Det er ikke fordi der ikke er nok samlet kapacitet i USA – det er fordi infrastrukturen til at transportere strømmen derhen hvor den skal bruges ikke kan følge med. Opgraderingsprojekter til elnettet tager år og støder ofte på lokale protester og regulatoriske forhindringer.

Kina har derimod taget en fundamentalt anderledes tilgang. Med et statskontrolleret “Ultra-High Voltage” netværk kan landet transportere massive mængder energi fra producerende områder – ofte sol- og vindparker i ørkenerne i den vestlige del af landet – til forbrugscentrene på kysten i øst. Kina installerede i 2025 flere gigawatt sol- og vindenergi end USA har samlet installeret (altså, overhovedet!). Dette giver landet en potentiel strukturel fordel i at kunne drive de næste generationers AI-infrastruktur. En anden interessant ting at bemærke omkring de kinesiske modeller, er at deres frontier modeller er open source i modsætning til Gimini, ChatGPT og GROK (llama fra Facebook er også open source).

Europa og specifikt Norden befinder sig i en potentielt stærk position. Vi har stabil adgang til forholdsvis ren energi fra vand-, vind- og nuklear-kraft. Vi har et køligere klima, hvilket reducerer kølingskravene til datacentre betydeligt. Og vi har politisk stabilitet og regulatoriske rammer. Det er ikke tilfældigt at vi allerede ser betydelige investeringer i datacenter-kapacitet i de nordiske lande.

I perioden 2026-2028 kan adgang til stabil, helst grøn strøm, blive en mere kritisk ressource end selve chippene. Vi vil sandsynligvis se virksomheder flytte deres “intelligens-produktion” til hvor strømmen er, snarere end hvor menneskene er. OpenAI’s beslutning om at åbne datacentre i UAE er ikke tilfældig – landet har massive mængder af solenergi og kapitalen til at investere i infrastruktur. Vi kan forvente at se lignende bevægelser mod andre energirige områder i de kommende år.

Her ved udgangen af 2025 har både OpenAI, X.ai, amazon og google annonceret de hver især undersøger mulighederne for at etablere datacentre i rummet (gemmer føljetonen til en ny artikel – hvad der tidligere var science fiction er på vej til tegnebrættet for virkeligheden).

6. Embodied AI: når AI får en krop (robotter i logistik, produktion og service)

Det sidste store skridt de næste tre år er integration af digital intelligens i fysiske systemer – det vi kalder Embodied AI. Indtil nu har robotter i industrien været “dumme” maskiner der fulgte forudprogrammerede bevægelsesbaner. De kunne præcist gentage den samme bevægelse millioner af gange, hvilket gjorde dem perfekte til samlebånd, men de kunne ikke tilpasse sig uventede situationer eller håndtere variabilitet.

Den fundamentale begrænsning har været kognitiv: robotten havde ikke nogen forståelse af hvad den gjorde eller hvorfor. Nu ændrer det sig radikalt ved at give robotter LLM-hjerner der kan ræsonnere om den fysiske verden.

6.1 VLA-modeller (Vision-Language-Action): fra sprog til handling i den fysiske verden

Teknologien der muliggør dette hedder VLA – Vision-Language-Action modeller. Konceptet er elegant i sin simpelhed: ligesom en sprogmodel som ChatGPT er trænet til at forudsige det næste ord i en sætning baseret på kontekst, er en VLA-model trænet til at forudsige den næste handling i en sekvens baseret på visuel kontekst og sproglige instruktioner.

Her er hvordan det fungerer i praksis: Du siger til robotten “Ryd op på bordet.” Robottens kamera ser et bord med forskellige objekter – måske et æbleskrog, en kop, nogle papirer, en blyant. I stedet for at skulle være eksplicit programmeret til at genkende og håndtere hvert af disse objekter, bruger robotten sin LLM-komponent til at ræsonnere om situationen.

Den forstår fra sin sprogmodel at “rydde op” betyder at objekter skal organiseres eller fjernes. Den kan se gennem sin vision-komponent at der er et æbleskrog – noget der er affald. Den ved fra sin træning at affald hører til i skraldespanden. Den ser koppen og forstår at kopper typisk skal vaskes, så den hører til i opvaskemaskinen eller vasken. Papirerne er værdigenstande der skal organiseres, ikke smides ud.

Dette niveau af common sense ræsonnering er ikke indkodet gennem eksplicitte regler. Det kommer fra at modellen er trænet på enorme mængder af data om hvordan verden fungerer – både sproglige beskrivelser og visuelle demonstrationer. Robotten har aldrig set netop dit bord med netop dine objekter før, men den kan generalisere fra sin træning.

6.2 Humanoide robotter som strategi: Tesla Optimus, industri eksempler og payback

Elon Musk taler ofte om visionen om “Sustainable Abundance” – en fremtid hvor mangel på arbejdskraft fundamentalt elimineres gennem udbredelse af humanoide robotter og robotter kan fremskaffe råstoffer gennem minedrift og selv skabe flere nye robotter. 

Tesla’s Optimus robot, nu i tredje generation, er designet specifikt til formålet om at indgå i dagligdagen og produktionsfaciliteter. Forventningen er at Gen 3 går i reel produktion omkring 2026, med gradvis opskalering af produktionsvolumen gennem 2027-2028.

Med en forventet pris på under 30.000 dollars i masseproduktion (4) – cirka prisen på en lille ny bil – ændrer disse robotter fundamentalt regnestykket for enhver virksomhed med fysiske opgaver. Overvej logikken: en robot til 30.000 dollars der kan arbejde 24 timer i døgnet, 365 dage om året, med minimale driftsomkostninger (primært strøm og periodisk vedligeholdelse).

Sammenlignet med en medarbejder, der arbejder 37 timer om ugen med feriedage, sygedage, og løn plus sociale omkostninger, er økonomien overvældende fra arbejdsgiverens perspektiv. Hvis robotter kan arbejde døgnet rundt, bliver den potentielt omkring 4-5 gange mere produktiv end en enkelt medarbejder.

Dette er ikke en fjern fremtid. Boston Dynamics’ robot Spot arbejder allerede i fabriks-inspektioner (5). Agility Robotics’ Digit-robot er blevet testet i Amazon-lagre (6). Figure AI’s humanoide robotter demonstrerer evnen til at udføre komplekse samlebånd opgaver med niveauet af præcision, der tidligere krævede dyrt specialudstyr.

Nedenstående video er fra CES 2026 i Las Vegas primo januar 2026.

For industrier som logistik, landbrug, byggeri og service vil de næste fem år sandsynligvis indebære et fundamentalt skift fra menneskelig til robot-arbejdskraft i de mest gentagne og fysisk belastende opgaver. Dette rejser selvsagt vigtige samfundsmæssige spørgsmål om beskæftigelse, omskoling og social sikkerhed, som vi som samfund bliver nødt til at adressere proaktivt – en af de snakke går på en beskatning af robotter. Udfordringen er, at det kræver alle beskatter tæt på ens for ikke at give store komparative fordele til en nation frem for en anden.

En ting er sikker. Vores samfund kommer til at se anderledes ud – ligesom før/efter den første industrielle revolution i 1700-tallet.

7. AI strategi og implementering: 4 ledelsesanbefalinger for 2026

Vi står ikke overfor en lineær udvikling af teknologi, der gradvist bliver lidt bedre år efter år. Vi står midt i en eksponentiel kurve, der nu bliver næsten vertikal. Kombinationen af system 2 ræsonnering, agentisk adfærd, massive infrastrukturinvesteringer og fysisk embodiment skaber en perfekt storm af transformation.

Udviklingen understreger en fundamental sandhed, som ledelsen må tage til sig: AI er ikke et IT-projekt – det er et transformationsprojekt. Det handler om at ændre måden, virksomheden arbejder, tænker og skaber værdi på. Succes kræver, at teknologien understøtter forretningen, ikke omvendt.

Den største fare er ikke at handle forkert, men at handle for sent. De virksomheder, der venter på at “se hvordan det udvikler sig,” vil opdage at konkurrenterne allerede har omstruktureret måden de opererer på, mens de selv stadig diskuterer use cases. For at navigere denne forandring kræves fire strategiske tiltag i samhørighed i virksomhedens AI strategi:

  1. Etablere en AI strategi forankret på topledelsesniveau
  2. Fra idé til handling: Pilotprojekter som lærings maskine
  3. Etablere AI Governance som strategisk funktion på C-level
  4. Investere i kompetencer og rolleforandring

 

7.1 Etabler en AI-strategi forankret på topledelsesniveau

Der er en grund til at dette er den første anbefaling, og at jeg insisterer på topledelsesniveau. Det er ikke fordi IT-afdelingen ikke er kompetent. Det er fordi AI fundamentalt ændrer hvordan værdi skabes i virksomheden, og det kan ikke løses i en afdeling.

Ifm. elektrificeringen af industrien fra 1870 til 1930 – den anden industrielle revolution – fik de virksomheder som først installerede elektriske motorer, men bevarede deres gamle fabrikslayout designet til dampkraft kun marginale forbedringer. De virksomheder der forstod at elektricitet tillod fundamentalt nye måder at organisere produktionen på – med motorer fordelt i produktionslinjen i stedet for én central kraftkilde – de var dem der opnåede transformativ værdi.

AI er analogt. Hvis du bare erstatter enkelte opgaver med AI-værktøjer uden at gentænke processerne, får du marginale gevinster. Hvis du redesigner hvordan arbejdet flyder, hvilke beslutninger der træffes hvor, og hvordan mennesker og AI komplementerer hinanden, får du eksponentielle forbedringer.

Derfor skal strategien formuleres fra toppen med klar ambition. Den skal adressere:

  • Hvilke kerneprocesser skal fundamentalt gentænkes omkring AI-kapabiliteter? (tænk: repetitivt arbejde med stor vidensbase)
  • Hvordan skal AI skabe værdi på tværs af værdikæden, ikke bare i enkelte afdelinger? (tænk: færre touch points og mere automatisering med slutbrugeren i fokus)
  • Hvilke kulturelle barrierer skal adresseres for at fremme adoption?
  • Hvordan sikres det at organisationen ser AI som en mulighed snarere end en trussel?
 

Strategien må ikke blive et 80-siders dokument der samler støv i et digitalt skab. Den skal være levende, håndgribeligt og kommunikeret konsekvent fra ledelsen – evt. med et programkontor tilkoblet til at facilitere udrulningen og change manegement processen. Det skal være tydeligt for hver afdeling hvordan AI strategien påvirker deres arbejde, og de skal kunne se at ledelsen selv anvender AI i deres beslutningsprocesser.

7.2 Fra idé til handling: pilotprojekter som læringsmaskine

Den største risiko efter formulering af strategi er det vi kan kalde “analyse-paralyse”. Virksomheder bruger seks måneder på at kortlægge alle mulige use cases, evaluere alle platforme, diskutere alle potentielle risici, og ender med at ingen beslutning træffes fordi alt føles både vigtigt og usikkert.

Sandheden er at den eneste måde at lære hvad der virker i din organisation med dine data og dine processer, er at starte. Men det skal gøres struktureret.

Idékatalog som kreativt fundament

Første skridt er at skabe psykologisk sikkerhed omkring at eksperimentere. Inviter hele organisationen til at bidrage med use cases. En sælger ser måske potentialet i AI-assisteret customer outreach. En produktionsleder ser mulighederne i prediktiv vedligeholdelse. En HR-medarbejder forestiller sig AI-drevet onboarding.

Samle disse i en bruttoliste uden at filtrere for tidligt. Mange af de bedste idéer kommer fra folk tættest på arbejdet, ikke fra konsulenter eller strategiafdelinger. Men lad være med at love at alle idéer implementeres – skab i stedet transparens omkring prioriteringsprocessen.

Prioritering efter værdi og gennemførlighed

Nu kommer den kritiske disciplin: at vælge fra. Scorer hver use case på fire dimensioner:

  • Forretningsværdi (målt i tid sparet, fejl elimineret, øget omsætning eller anden KPI)
  • Gennemførbarhed (har vi data, systemer og kompetencer?)
  • Risiko (hvad er konsekvensen hvis det fejler?)
  • Time-to-value (hvor hurtigt kan vi se resultater?)

Identificér 2-3 “quick wins” – projekter med høj værdi og lav kompleksitet, der kan levere resultater inden 90 dage. Disse skal ikke nødvendigvis være de mest transformative, men de skal opbygge momentum og demonstrere konkret værdi.

Skalering gennem læring

Det kritiske ved pilotfasen er ikke at få det perfekt første gang. Det er at lære hurtigt. Efter 6-8 uger evalueres hver pilot brutalt ærligt:

  • Hvad fungerede? Hvad fungerede ikke?
  • Hvilke antagelser viste sig forkerte?
  • Hvad lærte vi om vores data, vores processer, vores medarbejdere?

De pilots der demonstrerer værdi skaleres. De, der ikke virker, stoppes hurtigt uden at se det som fiasko, men i stedet som en værdifuld læring. Dette kræver en kultur, hvor det er sikkert at fejle hurtigt, så længe man lærer og justerer.

7.3 Etablere AI Governance som strategisk funktion på C-level

Når organisationen begynder at implementere AI på tværs af funktioner, opstår hurtigt koordinationsproblemer. Marketing-afdelingen bygger én chatbot, kundeservice bygger en anden, og HR bygger en tredje. Alle bruger forskellige platforme, ingen taler sammen, og ingen har systematisk overblik over hvilke data der bruges og hvilke risici der eksisterer.

Dette er præcis hvorfor governance ikke er en administrativ byrde, men en strategisk nødvendighed. Men governance skal etableres rigtigt. Hvis det bliver en flaskehals, der skal godkende hver lille beslutning, kvæler det innovation. Hvis det har for lidt autoritet, ignoreres det. Governance som både accelerator og gatekeeper

Den rigtige balance kræver forankring på C-level, typisk hos en Chief AI Officer eller tilsvarende rolle – det kan også være en “fractional rolle” udefra for bedre at kunne se forretningen i et nyt lys. Funktionen skal have to ansigter:

(1) Som accelerator skal governance-funktionen inspirere forretningen, dele best practices på tværs af afdelinger, og hjælpe teams med at få adgang til de rigtige værktøjer og ressourcer. Den skal fjerne barrierer, ikke skabe dem. Når salgsteamet ønsker at eksperimentere med AI-assisteret lead scoring, skal governance kunne sige “her er en platform I kan bruge, her er hvordan I sikrer GDPR-compliance, og her er tre andre teams der har gjort noget lignende.”

(2) Som gatekeeper skal funktionen sikre at grundlæggende standarder overholdes: Hvilke data må bruges til hvad? Hvordan logger vi AI-beslutninger for audit trails? Hvornår kræves human-in-the-loop godkendelse? Hvordan sikres det at vi overholder EU AI Act? Dette er ikke bureaukrati for bureaukratiets skyld – det er fundamentale kontroller der sikrer at innovation ikke skaber ukontrollerbar risiko og tab af kritisk forretningsinformation og konkurrencefordele.

Ressourceallokering og beslutningsrettigheder

Governance-funktionen skal også kontrollere budgettet for AI-investeringer. Dette sikrer strategisk sammenhæng – at ressourcer går til use cases der understøtter forretningsstrategien, ikke bare til hvad der lyder sexet eller hvad den mest insisterende leder råber højest om.

Klar beslutningsrettigheder er kritiske: Hvem kan godkende nye AI use cases? Hvem kan give agenter adgang til hvilke systemer? Hvem kan igangsætte nye modeller i produktion? Uden disse strukturer ender organisationen i kaos.

7.4 Investere i kompetencer og rolleforandring

Her kommer den ubehagelige sandhed som de fleste whitepapers springer let hen over: teknologien er det letteste problem at løse. Det svære er medarbejderne. Ikke fordi medarbejderne er modvillige eller inkompetente, men fordi vi beder dem om at fundamentalt redefinere deres værdi i organisationen – oven i risikoen for at blive gjort overflødig.

Fra udførende til arkitekt: det nye arbejdsparadigme

Overvej en mellemleder i finans der har brugt 15 år på at blive ekspert i at lave månedlige konsolideringer. Hun ved præcis, hvilke data der skal hentes fra hvilke systemer, hvordan diskrepans skal løses, hvilke betalinger der skal køres, og hvordan rapporten skal formateres. Hun er hurtig, nøjagtig, og pålidelig. Og nu kan en AI-agent udføre 80 procent af hendes arbejde på 20 minutter.

Den instinktive reaktion er frygt. Men hvis vi kommunikerer rigtigt, og hvis vi investerer i omskoling, handler det ikke om at hendes rolle forsvinder. Det handler om at hendes rolle transformeres fra at være den der udfører arbejdet til at være den der definerer hvad “korrekt” betyder, der designer processerne agenten skal følge, der validerer outputtet kritisk, og der håndterer de edge cases hvor agenten er usikker. Dette kræver fundamentalt nye kompetencer:

Kritisk sans som kernekompetence

Den mest værdifulde medarbejder i 2028 er ikke den der producerer mest output. Det er den, der kan se, når AI’en har lavet en subtil fejl, ingen andre opdagede. Den der forstår forretnings konteksten så dybt at hun kan spotte, når AI’ens teknisk korrekte svar ikke giver mening i den virkelige verden. Den der kan artikulere præcis hvad “høj kvalitet” betyder i hendes domæne, så det kan bygges ind i AI-workflows.

Dette kan ikke læres på et weekendkursus. Det kræver dyb domæneviden kombineret med forståelse af AI’s kapaciteter og begrænsninger. Investering skal ikke bare være træning i værktøjer, men en fundamental omskoling i hvordan værdi skabes og hvordan AI fungerer i maskinrummet – først der kan vi se upside mulighederne.

Fremtidssikring gennem strategisk forståelse

De medarbejdere der kun definerer deres værdi gennem de opgaver de udfører – “jeg laver PowerPoints”, “jeg koder features”, “jeg besvarer kunde mails” – vil finde deres rolle stadig mere udfordret. De medarbejdere der definerer værdi gennem den strategiske kontekst de bringer – “jeg forstår, hvad der skaber værdi for vores kunder”, “jeg ved, hvordan vores systemer hænger sammen”, “jeg skaber nye markedsmuligheder” – de bliver uundværlige.

Denne transformation kræver at ledelsen investerer tungt, ikke bare i teknisk træning, men i at hjælpe medarbejdere med at se deres egen fremtid i den AI-drevne organisation. Det kræver ærlig kommunikation om, hvilke roller der forsvinder, hvilke der transformeres, og hvilke nye roller der opstår. Og det kræver konkrete karrierestier, der viser, hvordan medarbejdere kan bevæge sig fra den ene type værdi til den anden.

Opsamling: Fra teknisk værktøj til strategisk løftestang

Ved at følge disse fire anbefalinger flytter virksomheden AI fra at være et teknisk eksperiment i et hjørne af IT-afdelingen til at være en strategisk løftestang, der transformerer hvordan hele organisationen opererer. Men vær ikke i tvivl om omfanget af opgaven.

Det kræver mod fra ledelsen – modet til at investere før ROI er helt tydelig, modet til at acceptere at tidlige pilots vil fejle, modet til at være ærlig med medarbejdere om at deres roller skal ændres.

Det kræver investering i mennesker – ikke bare i teknologi. De virksomheder, der tror de kan købe sig til transformation gennem licenser og konsulenter, fejler. De virksomheder der forstår at transformation handler om at udvikle deres mennesker og kulturen, lykkedes.

Og vigtigst: det kræver en erkendelse af at den eksponentielle udvikling vi står midt i ikke venter på at din organisation er klar. De næste 24-36 måneder definerer, hvilke virksomheder der kommer til at føre an i den kognitive økonomi, og hvilke der vil bruge det næste årti på desperat at indhente forspringet.

Del artiklen

Thomas Cilius

Få hjælp til at kickstarte AI transformationen

Kontakt mig for en uforpligtende snak om mulighederne. Et godt sted at starte er investeringen i medarbejderne med et AI introduktionskursus, hvor vi kommer omkring hvordan LLM’er virker, hvor udviklingen peger henad, og hvordan man nemt kan integrere AI og AI agenter i sit daglige arbejde.

email artiklen

Send artiklen

Vi sender artiklen afsted til din email med det samme – kan du ikke umiddelbart se den, så kig gerne i spamfilteret.