Aktuelt

Lesetid: 3 minutter

Nytt format for TestInnsikt

SOCOs plattform for analyser og undersøkelser innen testfaget prøver noe nytt i år. Prosjektleder Håkon Horndalsveen forteller om endringen.

Var du på Testdagen ODIN fikk du sikkert øye på TestInnsikt-gjengen på SOCO sin stand. Årets undersøkelse er i gang, og vi er veldig interesserte i å ta temperaturen på bruken av kunstig intelligens i testingen. Har du ikke svart på undersøkelsen ennå, har du fortsatt muligheten ved å følge denne lenken.

Nytt i år er at TestInnsikt også ønsker å gå kvalitativt til verks, altså i dybden med å gjøre grundige intervjuer for å få frem erfaringene. Vi tok en prat med prosjektleder Håkon Horndalsveen om det nye formatet.

Håkon, det kommer stadig inn besvarelser?

Ja, det er mange som har svart, og takk til alle som har tatt seg tid til å svare. For at resultatene av undersøkelsen skal bli enda mer representative for hverdagen til de fleste av oss, ser vi for oss at enda flere svarer. TestInnsikt-gjengen ønsker 100% svar fra SOCO-gjengen og det har jeg full tro på at vi klarer å oppnå. Så oppfordringen går herved til å enten svare selv, eller videresende undersøkelsen til andre som du mener kan gi nyttig informasjon!

I år ønsker dere å gå litt bak tallene?

Stemmer. I år ønsker vi å supplere med noen kvalitative intervjuer for å kunne bedre forstå hva som skjer der ute når testere bruker kunstig intelligens. De som ønsker å fortelle om sine erfaringer kan gjerne ta kontakt med oss på testinnsikt@soco.no.

Det er kanskje ikke testere som bruker ChatGPT til å lage testtilfeller dere først og fremst tenker på?

Hvis det er noen som har nyttige tips, så ta gjerne kontakt om dette også! Når det er sagt, så er ambisjonene våre å gå dypere ned i situasjonen som møter testere som tester en løsning hvor utviklerne i en viss grad har brukt AI. Hvilke utfordringer møter vi når vi skal teste mye AI-generert kode? Lages det mer og bedre tester på enhets- og integrasjonsnivå? Hvordan er det med vedlikeholdet av disse testene?

Dere ønsker også å komme i kontakt med testere som tester selve modellene?

Absolutt! Modellene er jo grunnlaget for dataene og for det som blir det synlige resultatet av promptene våre. Vi er veldig spente på om noen har testet på slike modeller. Hvordan sikrer de at dataene er representative? Tester de at vektingen av svaret stemmer? Lages det feilsaker i JIRA når modellen hallusinerer? Og klarer de å gjenskape en feil som er tidligere meldt? Hvor stor tillit har de til retesten av feilrettingene? Som du hører, det er mange spennende erfaringer vi ønsker å vite mer om.

Hva med AI i verktøy?

Tester du på en spennende og ny måte ved hjelp av kunstig intelligens og tror andre kan lære noe av det, ta kontakt med oss!

Dette er spennende, Håkon. Takk for praten og krysser fingrene for at de som leser har mulighet til å bidra!

Har du ikke besvart undersøkelsen, kan du bruke denne lenken. Har du en erfaring du vil dele, send inn til testinnsikt@soco.no.