Når kan du stole på generativ KI?
Generativ KI er ikke enten «pålitelig» eller «upålitelig» – det avhenger av hva du bruker den til. En enkel huskeregel er å tenke på risikoen ved å få et feil svar. Hvis feil eller unøyaktigheter fra modellen ikke medfører risiko, kan dette være et godt bruksområde. Hvis det mefører risiko må du kunne ettergå informasjonen modellen gir deg før videre bruk, eller avstå fra å bruke verktøyet. Nedenfor er eksempler på bruk med lav, medium og høy risiko.
- Lav risiko – Kan brukes mer fritt
- Medium risiko - Må sjekkes
- Høy risiko - bør unngås eller sjekkes grundig
Når du har kontroll, eller konsekvensene av feil er lave:
- Brainstorming og idémyldring - kreative prosesser uten fasitsvar
- Formulere tekst du selv har kontekst på - du vet hva som er riktig
- Språklig forbedring - grammatikk, tonefall, struktur
- Oppsummere tekst DU har skrevet - Du kan kvalitetssikre enkelt
- Lage utkast - som utgangspunkt for videre arbeid
- Idéer og brainstorming - der du bruker ideene som inspirasjon og vurderer selv
Hvorfor?
Sjansene for feil er mindre, og konsekvenser ved feil er små.
Situasjoner hvor du bør være kritisk:
- Forslag til prosedyrer - Verifiser mot faktiske retningslinjer
- Historisk informasjon - Sjekk viktige detaljer
- Tekniske forklaringer - Bekreft med fagressurser
- Oppgaveplanlegging - Vurder om forslagene er realistiske
- Oppsummering av tekst - Sammenlign med originaldokumentet
Hvorfor?
Feil her kan føre til ineffektivitet, feil, eller svekket tillit
I disse situasjonene kan hallusinering få alvorlige konsekvenser. Feilinformasjon kan skade tilliten, føre til feil beslutninger, eller bryte lover og regler:
- Fakta og tall - befolkningstall, datoer, statistikk
- Lover og regler - lovparagrafer, regelverk ved UiO etc.
- Referanser - kildehenvisninger, studier, publikasjoner
- Kontaktinformasjon - telefonnumre, e-postadresser, åpningstider
- Medisinske eller juridiske råd -
Hvorfor?
Her er potensiale for feil stort, og eventuelle feil vil få store konsekvenser.