SOCO-gjengen tok varmt imot Johannes Kvam nok en gang etter at han besøkte oss for første gang for noen år tilbake. Tema i kveld var «kunstig generell intelligens», forkortet AGI på engelsk. Dette er en form for kunstig intelligens som kan forstå, lære og utføre enhver intellektuell oppgave som et menneske kan. Kveldens taler har absolutt peiling på dette! Johannes har jobbet med kunstig intelligens både gjennom sin doktorgrad, som forsker ved SINTEF og som CTO i akvateknologiselskapet CageEye AS.
Perspektiver på teknologien
En sentral del av foredraget hadde som mål å rydde opp i hysteriet rundt generell kunstig intelligens. Det er flere ulike perspektiver på utviklingen og mulighetene til denne teknologien, hvor vi på den ene enden finner hyperentusiastene – og på den andre dommedagsprofetene. Mellom dem finner vi både tilhengere og skeptikere av generell kunstig intelligens. Selv definerte Johannes seg som en «AI Skoptimist, som altså er både en skeptiker og optimist.
Historisk endring
Hva som er kunstig intelligens, og dermed også AGI, har endret seg gjennom tiden, og definisjonen er fortsatt omdiskutert. En av grunnene til det er selve begrepet «intelligens». Da ChatGPT tilbake i 2022 slo Turing-testen ble det ikke det vendepunktet mange trodde det ville bety. For selv om språkmodellen kunne svare som et menneske, så var det tydelig at dette ikke var, eller ble opplevd som, ekte intelligens. Frem til i dag fortsetter forskerne innen kunstig intelligens å forsøke kartlegge både den menneskelige intelligens og den kunstige, i håp om å kunne lage en ny benchmark for hva en maskin kan oppnå. Det optimale ser mange for seg en KI så intelligent at den klarer å generere nye mønstre selv. Og da er vi over på det som kalles «superintelligens».
Superintelligens
Mens en KI-modell i dag kan gjenkjenne mønstre i datagrunnlaget, så er det neste steget mot superintelligens at KI forstår hva som utgjør et mønster og kan selv ta initiativ til å lage dem basert på egne slutninger. En modell som genererer en ny modell, som noen tror kan skje allerede i 2030. Børsene i USA preges av en tro på at dette er mulig, men er vi virkelig på vei mot en superintelligens? Johannes pekte her på at flere av frontfigurene innen forskning på KI, Yann LeCun og Geoffrey Hinton selv er kritiske til at dagens språkmodeller skal klare dette. Noe av kritikken går ut på at disse modellene mangler «verdensmodeller», altså all den implisitte og ubevisste informasjonen vi baserer handlinger og meninger på. Johannes pekte her også på en nylig MIT-publikasjon hvor det fremkom at det store flertallet av KI-produserte piloter feilet.
Utfallet av KI-revolusjonen
Det blir også interessant å se andre virkninger av KI fremover. Investorene vil kanskje ha avkastning, med det resultat at modellene blir dårligere, og det kommer reklame og produktplassering i svarene? Blir folk så lei av deepfakes at de til slutt får kritisk sans til alt innhold? Vil bruken av KI i utvikling gå mot et ønske av å ha mer kontroll, open source og utvikle modellene lokalt?
Hva så med konsekvensene for utviklere og testere? I dag befinner vi oss i det som Andrej Karpathy kaller «agentenes tiår» (Decade of Agents), hvor KI brukes til mer spissede og spesialiserte oppgaver. Vibe coding er blitt et vanlig begrep, og allerede nå kan vi spekulere om at det blir mindre behov for utviklere fremover. Siden vi trenger mer forståelse for krav og behov, vil det muligens bety vi får behov for systemeiere og arkitekter? Testere vil kanskje få vanskelige dager med å forstå hvordan modellene virker, i hvert fall å kunne spå utfallene av kodene som genereres. Blir det en fremtid hvor vi mennesker bidrar med våre evner til å forstå, så tar KI seg av selve det tekniske arbeidet? Spennende tider fremover!
Takk for et veldig spennende og aktuelt foredrag, Johannes!
Fotograf: Frank Brenna