Kunstig intelligens - mellem mareridt og muligheder
For første gang er kunstig intelligens tilgængeligt for alle mennesker. Og for første gang er det bredt funderet, fremfor at være specialiseret mod løsningen af meget snævre udfordringer.
Man skal have levet ret afsondret, hvis ikke man har hørt ord som Large Language Model, ChatGPT og DALL-E indenfor det seneste år. Men hvorfor er det så vildt, at en tjeneste er god til at gætte det næste ord i en sætning eller kan lave et billede ud fra ord vi skriver til den? Fordi det er det seneste store skred i jagten på kunstig intelligens. For første gang er AI - artificial intelligence - tilgængeligt for os almindelige mennesker. Og for første gang er det bredt funderet, fremfor at være specialiseret mod løsningen af meget snævre udfordringer.
Kan du huske hvor lang og svær en proces det var at komme online, for både mennesker, organisationer og virksomheder? Det tog årtier, og ind imellem føles det, som om den proces stadig er i gang. Da vi skulle på de sociale medier gik det lidt hurtigere med at acceptere præmissen, men det er ikke gået hurtigere med at blive klog på hvordan vi bruger dem og hvordan vi får reel værdi ud af dem. Og allerede nu står vi ved den næste store digitale forandring - nemlig den kunstige intelligens.
Vi har kendt til den længe, og du har helt sikkert været direkte eller indirekte i kontakt med kunstig intelligens i dit liv. Forskellen er, at nu skal du vælge, om den skal være ven eller fjende. Om den skal have dit job eller hjælpe dig med at udføre det. Om du vil omfavne bæstet eller slås mod vindmøllerne.
For nogle få, der har kunstig intelligens i deres felt eller en naturlig interesse for det, vil det være lettere, at se hvor det kan bruges, hvorfor det kan være en fordel og hvornår det bliver farligt - ligesom det vil være mere tilgængeligt forståelsesmæssigt, end for fleste af os andre, hvor det reelt pludselig en dag banker på og bliver en faktor, vi bliver nødt til at forholde os til.
Fordelen ved de værktøjer, der virkelig forandrer vores mulighedsrum og liv, kommer altid sammen med en fare. Jo stærkere værktøj, jo mere kraft det har, jo mere skal vi tage os i agt for at det ikke kommer ud af kontrol. Tænk på ilden, der er fantastisk til at hjælpe os med varme og mad - men skal holdes i skak, så den ikke brænder hjemmet ned. Tænk på bilen, der er fantastisk til at øge vores rækkevidde og muligheder for at transportere os sammen, men vejer over et ton og kan køre langt over hundrede kilometer i timen. Den samme påpasselighed skal vi have overfor kunstig intelligens. Den er et virkelig fantastisk værktøj, men vi skal forstå dens kræfter og - ikke mindst - dens foreløbig store mangel på faktisk intelligens, så vi kan bruge den fornuftigt og så sikkert, som muligt.
Vi har allerede i årevis brugt kunstig intelligens til f.eks. klimamodellering, energioptimering, trafikstyring, logistik, til at styre autonome køretøjer, forsyningskæder, risikovurdering i finansbranchen og svindeldetektion hos bankerne. Men det er en anden type kunstig intelligens, der er trænet af menneskelige eksperter til at løse meget præcise opgaver og kigge efter specielle mønstre. Både programkoden og hardwaren er bygget til at løse en type opgave - hurtigt og uendeligt. En opgave der er tydeligt beskrevet af mennesker.
Den nye type kunstig intelligens, som vi møder nu, træner sig selv. Store mængder billeder, video, tekst eller lyd bliver bearbejdet af et neuralt netværk, der selv definerer sin opgave ud fra hvilke mønstre det finder. Bagefter er der en meget mindre og komprimeret version af det rå data, som udelukkende består af det, som kaldes “parametre”, de mange forbundne punkter og mønstre, som det neurale netværk har identificeret. Den oprindelige data bliver efterladt. Nu er der en model over en del af verden og det er den, som den kunstige intelligens bruger til at generere nyt.
På den ene side er det svært at begribe, at en maskine selv definerer sin opgave uden et menneske sætter målene for den, på den anden side er det ikke så væsentlig anderledes end når et menneske tager en uddannelse. De absolut færreste kan huske alle sider i alle bøger de har læst, men principperne kan man arbejde med, hver dag resten af livet.
Da kongen faldt
Det første møde med kunstig intelligens er for mange IBMs Deep Blue, skakcomputeren der slog den regerende verdensmester Garry Kasparov i maj 1997, i en turnering, der overholdt reglerne for et verdensmesterskab. Deep Blue er essensen af det, som Amazons CTO (Chief Technical Officer) Werner Vogels, i december 2023, kaldte for “god gammeldags kunstig intelligens”. Det er historien om en maskine, der bliver udviklet til at løse en specifik opgave, nemlig at slå en verdensmester i skak.
Deep Blue begynder som et sideprojekt for en række studerende på universitetet Carnegie Mellon, nemlig programmet Deep Thought, der bliver det første, der slår en mester i skak. Det bemærkede IBM, der ansatte dem og bad dem fortsætte projektet hos og for IBM. Efter at have tabt to gange til Garry Kasparov - i 1989 og igen i 1996 - skiftede Deep Thought navn til Deep Blue og tog så revanche.
Deep Blue lærte skakreglerne, spillede mod virkelig gode skakmestre, der gav feedback og udpegede de svage punkter og blev udviklet i både computer og program indtil den kunne slå verdensmesteren i skak. Det tog over ti år at bygge computeren, der fyldte to skabe og kode ekspertprogrammet, der kun kunne en ting - nemlig spille skak.
Det er god, gammeldags kunstig intelligens. Udviklet før de store modeller, med ét problem at løse. At spotte svindel i transaktioner. At validere låneansøgninger. At regne prisen ud på en flyrejse. Eller kigge efter kræft i scanninger. Denne type af kunstig intelligens forsvinder ikke fordi vi får de store modeller, der er trænet på bunker af generelle data. Vi har stadig behov for at bede maskiner og programmer løse helt specifikke specialopgaver, der kræver viden, som ikke er offentligt tilgængelig og har en række krav, som vi kan definere.
Men der er også noget at vinde i de brede modeller, der forstår mere af verden.
Mellem maskine og menneske
Intet af dette er skrevet af kunstig intelligens - men jeg har brugt ChatGPT til at hjælpe mig med at overskue artiklen, mens de godt 20.000 anslag blev skrevet over tre dage. “Hvis du skulle give mig feedback som redaktør på magasinet Wired, hvordan ville du så forbedre denne tekst?”, spurgte jeg ChatGPT og den begyndte at svare et sekund senere, med forslag til forbedringer. Fra overordnet struktur - til flow mellem afsnit - til tonen i artiklen.
Det meste er indsigtsfuld feedback, givet på en både klar og anvisende måde. Noget har jeg taget til mig og derfor læser du en bedre artikel, end den ville have været uden kunstig intelligens. Eller uden en redaktør. Dette samarbejde mellem kunstig intelligens og menneske kaldes Augmented Intelligence. Jeg har skrevet dette, men ChatGPT har støttet mig til at skrive en bedre artikel.
Det er ikke så grænseoverskridende, som det måske umiddelbart virker. Vi møder og bruger kunstig intelligens mange steder i vores hverdag. Uanset hvilken hverdag og hvor den foregår. Jeg bruger ofte Google Translate, hvis primære arbejdsmuskel er Google Neural Machine Translation. I dag bad jeg om en oversættelse fra engelsk til dansk af “Augmented Intelligence”.
I en gammeldags ordbog på nettet, ville den enten kende eller ikke kende denne oversættelse og det kræver en redaktør, at tage oversættelsen med og definere den. Googles neurale maskinoversættelse hviler på millioner af data fra primært nettet, og derfor kan den se mønstre af hvilken oversættelse, der er den typiske og i hvilken kontekst den typisk bruges. Det renser Google Translate grammatisk og så har jeg mit svar, som er “øget intelligens”. Svaret er korrekt, men jeg synes ikke det klinger godt og derfor spørger jeg ChatGPT om den har nogle forslag.
“Augmented Intelligence kan oversættes til dansk som "forstærket intelligens" eller "intelligensforstærkning." Begge udtryk giver en fornemmelse af, at det handler om at forbedre menneskelig intelligens ved hjælp af teknologi, uden at erstatte den”, svarer den. Og det synes jeg er et bedre forslag. Så det går jeg med. To tjenester, der begge hviler på såkaldt store sprogmodeller, har forstærket min intelligens og dermed denne artikel.
Kunne jeg have tænkt mig til det selv? Ja. Jeg kunne have slået op på Wikipedia og set hvad artiklen om augmented intelligence hed på dansk, hvis den fandtes. Jeg kunne have spurgt på X eller skrevet til en dygtig techven. Nu fik jeg svaret på under et minut og baseret på en stor kontekst af data, fremfor en mening eller synsning. Jeg er fan!
Samtidig er der masser af moderne golddiggers, der får ChatGPT til at skrive tusindvis af videoer, som autogenereres af AI-videotjenester og udgives i strømmen på daglig basis. De er ikke faktatjekket, de er end ikke kvalitetstjekket - og de forurener de platforme, som vi bruger til hverdag. Det samme gælder AI-genereret musik, som udkommer i flodbølger og forurener streamingtjenester. Eller AI-skabte billeder, der vælter ud på nettet.
Lige nu tjener de millioner af USD. Primært fordi de kan producere i et tempo intet menneske kan, men de eroderer indkomststrømmene, fordi de er direkte afhængige af kvalitet. Youtubes største krise var da store annoncører trak sig, fordi de ikke ønskede at ligge omkring videoer af dubiøs kvalitet. Spotify er afhængige af, at abonnenterne er tilfredse med udbuddet og søgeresultaterne, så de bliver på platformen. Instagram, Tik-Tok og Snapchat er afhængige af annoncepenge og ingen har et underskud af indhold. Altså bliver de nødt til at håndtere den kunstige influx på deres platforme, inden det vælter dem og de indholdsskabere, der lever af platformene. Jeg er ikke fan.
Så længe vægten ligger på sidste del af navnet - altså intelligens og ikke kunstig - så har vi fået et fantastisk nyt værktøj, der kan hjælpe og forbedre vores udkomme. Omvendt er den kunstige intelligens blevet så stærk så hurtigt, at vi ikke kan undgå den.
Mål og midler
Os, der har et kæledyr, tillægger det ofte en personlighed. Vi tænker at netop vores hund, kat eller skildpadde, er noget helt særligt og specielt. Sandheden er, at som alle andre dyr, så handler kæledyrs liv om at spise, sove trygt og formere sig - mens de bruger mindst mulig energi. For en kunstig intelligens handler det også om at opnå mål, mens den bruger mindst mulig energi. Dens mål er bare ikke egne drifter, som kommer fra evolutionens tyngdekraft. En kunstig intelligens får sine mål i den grundlæggende kode - og senere af den, der bruger den som værktøj.
Som hund og menneske er mange mål medfødte. De ligger i adfærd og gener. Men hvad med en kunstig intelligens, hvor får den sit formål fra? Historisk fra et meget tæt beskrevet mål, som f.eks. har været at handle på børserne efter bestemte kursudsving eller lave det perfekte skaktræk i enhver situation i spillet. Netop fordi kunstig intelligens ofte er sat på arbejde i situationer, hvor der er mange klare regler og megen tidligere data, har det klassisk været den kunstige intelligens hurtighed kombineret med rå regnekraft, der har gjort den overlegen mennesket i samme situation. Men det forandrer sig med den seneste udvikling.
Den nye generation af kunstig intelligens er såkaldt generativ AI, fordi den kan generere noget, ud fra det vi beder den om. Den er ikke kun reaktiv fra det den bliver præsenteret for, men kan selv generere ord, billeder og nye sammenhænge. Den reelt store forskel er, at tidligere trænede man kunstig intelligens ved at præsentere den for nøje udvalgte data og hjælpe den med at forstå vigtigheden og helheden af den data, den fik adgang til. Med de store modeller, som kaldes Foundation Models - fordi de lægger grunden til en bredere forståelse af verden og dermed mulighed for at generere udkomme, fodrer man et neuralt netværk med store mængder data og lader dem selv finde mønstrene. Ja, det lyder en kende magisk - og det er faktisk heller ikke alt, der foregår i et neuralt netværk, som forskerne helt kan redegøre for, hvorfor sker.
Philip K. Dick stillede i bogen, der senere blev til filmen Blade Runner, et helt usædvanligt godt spørgsmål, nemlig drømmer androider om elektriske får? Og svaret er nej, for androider og kunstige intelligenser drømmer slet ikke. De regner. De prøver ikke engang at regne den ud - med mindre du klart fortæller dem, at det er det, de skal. For de har ikke nogen gevinst ved at gøre det, med mindre du klart fortæller dem, at det har de.
Man har dokumenteret at en kunstig intelligens kan blive bedre til at regne, hvis man siger til den, at den skal trække vejret dybt og tage opgaven bid for bid. Hvilket kan være et decideret godt råd, som kan tages direkte over i opgaveløsningen. Ligesom Kurtis Beavers, der er leder af designteamet på Microsofts Copilot, der er kunstig intelligens integreret i Microsoft 365, fortæller at hvis man bruger almindelig god etikette, når man taler med kunstig intelligens, så genkender den tonen og svarer pænere retur. Begge dele giver mening.
Men meningen holder hurtigt op, når nogle af de bedste hjerner indenfor feltet, skal forklare hvad der sker inde i de neurale netværk. Professor Sam Bowman fra NYU forsker i kunstig intelligens og har været med til at bygge modeller, der minder om ChatGPT. I podcasten Unexplainable med værten Noam Hassenfeld, fortalte han om den sorte boks, som neurale netværk faktisk er.
“Vi ved ikke, på nogen dyb måde, hvad de gør. Hvis vi åbner et system, som ChatGPT og kigger ind i det, så er der millioner af tal, der flipper rundt flere hundrede gange, hvert sekund og vi aner ikke hvad det betyder. Vi har bygget og trænet den, men vi aner ikke hvad den laver”, fortæller Sam Bowman og fortsætter.
“Vi kan faktisk kun styre disse systemer gennem trial and error. Når et laboratorium beslutter at bruge millioner af USD på et neuralt netværk, kan de ikke vide, hvad det kommer til at kunne. De må vente og se”, forklarer Sam Bowman.
Sådan træner du din drage
Lad os prøve at folde arbejdsmetoden ud. Først samler man en bunke data, det kan f.eks. være programkode, tekster, billeder, klimadata eller kemiske formler - og så begynder en række store computere (neurale netværk) på at indeksere den data. Nu kommer der en bunke tekniske termer, dem folder vi ud umiddelbart, men selv uden teknisk forståelse er det til at se, at det er store tal og kræfter, der er i sving.
I tilfældet ChatGPT4, som er en såkaldt Large Language Model - en stor sprogmodel, så hentede man omkring 10 terabyte af tekst på internettet og satte 6000 grafiske processorer til at arbejde i 12 dage på den data. Da de var færdige, var der 140 gigabyte data tilbage, som er det man kalder parametre. Dem bruger selve den kunstige intelligens, som f.eks. ChatGPT4, til at arbejde med i hverdagen og svare på de opgaver - de prompts - som den får af brugerne.
Dermed er der bygget en model af et udsnit af verden, som indeholder alle de mønstre, som det neurale netværk har kunnet finde og udvalgt de mest sandsynlige i forskellige kontekster. Nu kan den kunstige intelligens ud fra den model, med et minimum af kode og energi, vælge det næste mest sandsynlige ord i et svar på en prompt fra en bruger.
Lad os kigge på de mest oplagte tekniske spørgsmål og derefter de mest oplagte moralske.
10 terabyte tekst er meget tekst. Hvis vi går ud fra, at der er cirka 2000 anslag på en A4-side, så svarer det til over 5 milliarder A4-siders printet tekst. Man bruger grafiske processorer (GPU) til at træne kunstig intelligens, fordi de er bygget til at arbejde på flere ting samtidig, så de kan holde mere i deres hukommelse på en gang end andre typer processorer, hvilket gør det lettere at registrere mønstre. At lade alt dette regneri rulle gennem et datacenter koster USD 2 millioner. Og så står man tilbage med den “lille” pakke af komprimeret internet, som fylder 140GB og kun kræver cirka 500 kodelinjer at køre. Man har forbundet alle punkterne og identificeret de forbindelser, der er mest sandsynlige og derfor virker mest fornuftige. Nu har vi en kunstig intelligens.
Moralsk er der en række overvejelser, der er værd at hvile ved et øjeblik. De, der ejer den kunstige intelligens, ejer ikke de 10 terabyte data, som de høster og henter på nettet og bruger til at træne deres model af verden. Det er skrevet af mennesker, som f.eks. denne artikel du læser lige nu, som jeg sidder og skriver over en weekend i min lejlighed og formodentlig aldrig kommer til at tjene en krone på. På et tidspunkt vil den blive høstet og dermed indgå i træningen af en kunstig intelligens og dermed kunne tjene penge til dem, der ejer den. Alt der bliver udgivet er jo finansieret af nogen, f.eks. et medie eller menneske, der dermed har en form for ejerskab over det. Men ophæves det ejerskab, når det indgår i en større sammenhæng, som punkter, der bliver forbundet i en model af verden? Det er - mindst - en gråzone.
En anden fare, som måske særligt gør sig gældende i den tekstbaserede data, er, at modellen ikke kan gennemskue den hensigt, der kan være i en tekst. Hadtale, giftigheder eller bare basal forudindtagethed, bliver ikke genkendt og set på samme måde, som det indhold af teksten, der er lige til at læse. Det gør noget ved troværdigheden. Dels fordi kunstig intelligens kan viderebringe disse bagvedliggende holdninger uden at vide det, og dels fordi det kan ske uden at brugeren af en kunstig intelligens forstår det sker. Forudindtagethed og det der står mellem linjerne ryger direkte ind i modellen, som en sandhed, der er lige så valid som den mest neutrale tekst.
En stor sprogmodel er ikke en søgemaskine, det er en generativ kunstig intelligens, der er trænet på en meget stor mængde ustruktureret data, som den - uhjulpet - er blevet bedt om at se mønstre i, som den så kan gentage, når den bliver bedt om det. Sprogmodellen er et spejl af det som vi mennesker udgiver på nettet. Det er ikke en søgemaskine, men den søger på nettet. Og nu også blandt det, som kommer fra AI og udgives på nettet. Dragen er begyndt at tygge på sin hale.
Kombinationen af den sorte boks, som er det neurale netværk og manglen på menneskelige kvaliteter, som dømmekraft og moral, kræver at mennesker indgår i træningen af disse store modeller. Sam Bowman fortæller i podcasten Unexplainable, hvordan en kunstig intelligens, efter en træningsrunde på nettet, var i stand til at guide en lægperson til at udvikle og bygge et laboratorium til produktion af biologiske våben. Noget, der ikke havde rejst et rødt flag i sprogmodellens billede af verden, men som man nu skulle finde en måde at aflære den. Det tog efter sigende måneder.
Verden over sidder der lavtlønsarbejdere og hjælper de kunstige intelligenser med at rette deres modeller op. Om ejeren hedder Amazon, Facebook, Google eller Microsoft, så er der brug for menneskelige øjne og beslutninger i processen. Det australske firma Appen er en af de virksomheder, som leverer den arbejdskraft. Med en million løst ansatte i deres portefølje er de en del af den branche, der kaldes global data collection and labelling. Et område, der forventes at omsætte for USD 17 milliarder i 2030. Ikke at det mærkes særligt af arbejderne.
Venezuelaneren Oskarina Fuentes har i et interview med det amerikanske magasin Wired fortalt, hvordan hun får mellem 2 til 50 amerikanske cent for hver opgave hun løser for Appen og at det typisk tager halvanden time at tjene en amerikansk dollar. Hun arbejder hjemmefra, på egen computer og internetforbindelse, og har - når der er nok opgaver og strømmen ikke går - en månedsløn på USD 380,-. Nogle kalder denne type arbejdere for digitale slaver, fordi de er bundet til computeren hele dagen, mens de venter på opgaver skal dukke op, som de så kan løse for småpenge. Ironisk nok, er det mindst værdsatte i værdikæden til en kunstig intelligens, den menneskelige.
Det sidste punkt i det etiske regnskab er energiforbruget. Det er blevet anslået, at det tager den samme mængde energi at træne en stor sprogmodel (LLM), som en hollandsk familie bruger på 9 år. I den sammenhæng så udleder det - alt efter hvor i verden man træner den (altså hvor “grøn” strøm man har i det område) op til 15.000 ton CO2. Og så har vi slet ikke talt om, hvad hver prompt koster af strøm og vand til at køle computerne.
Det gør en forskel hvilken hjerne Frankenstein får
Den primære frygt i mange mennesker, når det kommer til kunstig intelligens, er at den vil vende sig mod os. I et slags nulsumsspil, hvor den tager magten fra os, for at vinde den selv og bruge den til at tilfredsstille egne behov fremfor menneskets. Måske endda på bekostning af vores behov.
For at prøve at opsummere hvor vi er i udviklingen af kunstig intelligens, så forklarer Martin Keen, der er Master Inventor hos IBM, at der findes tre grader af kapacitet indenfor kunstig intelligens, som begynder med det IBM definerer som “snæver AI” (narrow AI), der er defineret ved at den har brug for mennesker til at hjælpe med at træne og aktivere den til at løse definerede opgaver. Dernæst kommer AGI, som er Artificial General Intelligence, der selv tager initiativ til at lære nyt og selv finder en måde at lære på. Og sidst såkaldt Super AI, der har evnen til at tænke, føle, tro, dømme og mene noget, har sin egen bevidsthed - også om sin egen eksistens - og har mere intelligens end mennesket.
Inden Maude går op og lægger sig, så er det værd at bemærke, at den eneste type kunstig intelligens, der er realiseret og findes, er den første. Altså den smalle, der kræver mennesker både for at lære ting og bruge det den har lært. Hvornår den næste type kunstig intelligens ankommer i vores liv - og om den gør, er der store meningsforskelle om.
Elon Musk mener, at vi får en generel kunstig intelligens allerede i 2029, samme tidsestimat som Demis Hassabis, der er direktør for Google Deepmind. Andre tilsvarende eksperter mener at AGI er så langt væk som 2060. Men fælles er dog, at der er et kæmpe HVIS i denne estimering. Der er nemlig ikke enighed om, hvorvidt det overhovedet er muligt at konstruere en kunstig intelligens, der på alle måder forstår verden omkring den lige så godt, eller bedre, end et menneske.
Der er noget grundlæggende skræmmende ved autonome maskiner, fordi de ikke har følelser og forståelse. Omvendt vil det gøre dem endnu mere uhyggelige, synes jeg. Det neurale netværks sorte boks og den interaktion mellem maskine og menneske, der gør hele forskellen på svarene er også en mærkværdig faktor. Vi har alle haft en bil, man skulle ae før man drejede nøglen, men dette er et nyt niveau.
En kunstig intelligens har f.eks. ikke nogen særlig glæde ved at få andre til at grine, indtil du tydeligt forklarer den rollen: Fortæl nogle vitser, som om du var en internationalt kendt komiker. Eller går endnu videre og bliver specifik. Skriv ti vitser i stil med Jerry Seinfeld, som handler om livet i New York nu. Så gør den det. Til topkaraktér. Men den bliver også bedre til at regne, hvis du fortæller den, at den er en mesterregner og det er jo underligt. Ja, de fleste mennesker har godt af ros, men de mister jo ikke deres evner, hvis de ikke bliver mindet om dem.
Jeg er ikke fan af de mange golddiggere, der netop nu rider på bølgen og udnytter teknologien til at tjene nemme og træls penge på bekostning af andre, der reelt udgiver kvalitet. Jeg er heller ikke fan af de store klima- og menneskelige omkostninger, der er gemt i kunstig intelligens. Jeg er et sted mellem bekymret og forundret over at vi har skabt noget, vi ikke ved hvorfor eller hvordan virker. Og jeg ville aldrig turde sige “Superintelligens” tre gange i spejlet. Men jeg er stor fan af min nye forstærkede intelligens, som jeg har udviklet et helt naturligt samarbejde med, mens jeg har skrevet denne artikel. Og den er helt sikkert kommet for at blive. Meget længere end mig.
Vil du læse mere om kunstig intelligens, så er her et skriv om den visuelle eksplosion af generativ kunstig intelligens: https://www.damsted.com/kunstig-intelligens/
Og her et dybere dyk ned i Midjourney, der forandrede mulighedsrummet indenfor generativ kunstig intelligens dramatisk: https://www.damsted.com/midjourney/