Aktuelt

Lesetid: 5 minutter

Assistenter, agenter og gode følelser i test

Det skjer mye innen utvikling og test for tiden. Hvilke ord og begreper er i vinden nå?

Det er ikke til å komme bort fra at kunstig intelligens setter dagsorden både for utvikling og testing. Vi forsøker å forklare noen av de nyeste begrepene.

LLM

Large Language Model er store språkmodeller som er trente på enorme mengder tekst. Hva er så en språkmodell? I denne sammenhengen er den et nevralt nettverk som, gjennom statistisk læring på massive tekstmengder, beregner sannsynligheter for ordsekvenser ved hjelp av “selv‑oppmerksomhet” og gradientbasert optimalisering (disse begrepene må du søke opp selv ). Med andre ord kan vi si at ved å lære seg mønstre i språket, kan en LLM lure deg til å tro at du snakker med et tenkende vesen. Snarere dreier det seg om at du får servert ord som pleier å passe sammen, rent språklig altså. 

LLM-en er hjernen som gjør at en KI-assistent kan forstå, resonnere og formulere naturlig språk. Mange bruker disse ordsammenstillingene til testarbeid som teststrategier, testplaner, testdata og testtilfeller. I tiden da LLM-ene først dukket opp var det flere som ba dem om kodesnutter, og dette har nå utviklet seg til «vibe coding» (se neste).

Vibe Coding

Uttrykket kan sies å være en teknikk hvor utviklerne ikke bruker programmeringskunnskapene sine direkte ved å skrive egen kode når en applikasjon utvikles. Snarere er fokuset på språklig forklaring, følelser og sluttprodukt. Ved å bruke naturlig språk og stadig mer konkrete instrukser i tekstfeltene til en LLM eller til programmer som kode skrives i (IDE), får de generert kode som løser et problem. Hvis det føles riktig, så bruker vi koden – og så ser vi hva som skjer. Kanskje må vi løse et annet problem i den neste instruksen vi skriver. Ifølge Urban Dictionary var det Andrej Karpathy som først brukte uttrykket Vibe Coding i februar 2025. Det blir interessant å følge med på hva dette betyr for testingen.

AI Assistant

En KI-assistent sørger ifølge IBM for at vi kan spørre og få svar på spørsmålene våre. ChatGPT er et vanlig eksempel på en «AI Assistant», mens en LLM da henviser til modellen den bruker for å gi svar (det kan være GPT-4o, Gemini 1.5, Llama 2 m.m). Som vi sa over, er LLM-en hjernen som gjør at en AI-assistent kan forstå, resonnere og formulere naturlig språk, mens resten av assistenten håndterer spesifikke funksjoner og integrasjoner. Andre kjente «assistenter» er Copilot, Gemini, Claude, Perplexity og Lumo. Sistnevnte for de som verdsetter personvern.

AI Agents

Det er vel ikke så veldig lenge siden at alle fritt kunne lage sine egne «agenter» til LLM-ene. En «AI Agent» er i den konteksten en skreddersydd modell som kan ta beslutninger basert på input. Senere har begrepet glidd over i «agentic AI», som utøver oppgavene sine så selvstendig (autonomt) at den også tar initiativ. Den identifiserer problemer og situasjoner og tar beslutninger helt på egen hånd. Så mens en AI Assistant åpner for brukerinteraksjon, så vil en AI Agent/ Agentic AI utføre sine oppgaver uten deg. Det vil likevel være mye prøving og feiling før vi stoler på at den kan håndtere alt riktig av seg selv. Dermed er de ikke helt uten menneskelig tilsyn. Akkurat hvor skillet mellom AI Agents og Agentic AI går er noe udefinert for tiden.

MCP

Model Context Protocol (MCP) er en åpen standard som gjør at din favorittassistent og/eller -agent, og tilhørende LLM, har større muligheter for å gi deg relevante svar. Protokollen ble opprinnelig laget av Anthropic for å gjøre sine Claude-modeller mer tilgjengelige. Det gjør at vi nå har en standardisert måte å beskrive hvordan en assistent/agent skal integrere og utveksle data med tredjepartstjenester og verktøy. 

Hvis du bruker Copilot som assistent og GPT-4 som LLM, så kan du for eksempel via Visual Studio Code bruke vanlig språk til å få generert automatiske ende-til-endetester fra Playwright MCP. En MCP gjør at du kan få mer relevante svar og motta mer skreddersydde løsninger fiks ferdige (i teorien i hvert fall) i kodebasen din. Du kan bruke en MCP fra en «assistant» eller inkorporere den i en «agent». Mange av de store teknologibedriftene og verktøyleverandørene tilbyr nå egne MCP-er som du bare kan plugge inn.

Vibe testing

Begrepet er trolig ikke brukt ennå, men ble sett i en SOCO-artikkel høsten 2025. Vibe testing kan brukes om situasjoner hvor testere av ulike grunner ikke vil lage testkode eller testtilfeller egenhendig. Fremgangsmåten burde være lik som Vibe Coding.

Vibe kildebruk

Når slike artikler skal skrives, hentes det inn mye ulik informasjon. Denne artikkelen inneholder deler av informasjon fra kilder som KI-assistenter og LLM-er, i tillegg til ekte testere. Selv om vi ikke faktisk kan peke på en sannferdig kilde for påstandene, så «føles» det riktig likevel.

Eller?