Hvordan kvalitetssikre KI-generert innhold
Her er konkrete strategier for å sikre kvaliteten på det du får fra generativ KI:
Behandle KI-output som ukjent kilde:
- Ville du stolt på denne informasjonen fra en tilfeldig person på gaten?
- Er dette noe du kan verifisere?
- Har du fagkunnskap til å vurdere om det virker riktig?
Verifiser alltid:
- Sjekk fakta mot pålitelige kilder (UiO.no, lovdata.no, osv.)
- Søk opp referanser - eksisterer de faktisk?
- Sammenlign med offisiell dokumentasjon
Bruk strategiske spørsmål:
- “Kan du gi meg kilder for denne påstanden?”
- “Hvor kommer denne informasjonen fra?”
- “Kan du peke meg til offisiell dokumentasjon?”
Merk:
Selv når LLM-en gir “kilder”, kan disse være hallusinerte! Sjekk alltid at kildene faktisk eksisterer.
Bedre tilnærming:
Søk selv etter informasjonen på pålitelige nettsider, og bruk KI-en til å hjelpe deg forstå eller oppsummere det du finner.
Sammenlign flere verktøy:
- Spør samme spørsmål til ChatGPT, Claude, og Copilot
- Hvis de gir ulike svar, er dette et rødt flagg
- Bruk tradisjonell søk (Google, UiO.no) for å verifisere
Sjekk mot dokumentasjon:
- Interne prosedyrer ved UiO
- Offisielle nettsider
- Lover og regler
- Faglige kilder
Stol på din kunnskap:
- Hvis noe føles feil, er det sannsynligvis feil
- Bruk din fagkunnskap og erfaring
- Vær spesielt skeptisk til svært spesifikke eller detaljerte påstander
Eksempel:
Hvis KI-en påstår at “alle møtereferater ved UiO skal sendes til Arkivverket innen 24 timer”, og dette høres rart ut - så er det sannsynligvis feil.
Stille spørsmålet på nytt:
- Omformulere spørsmålet ditt
- Hvis du får helt ulike svar, er ikke KI-en pålitelig for dette spørsmålet
- Konsistente svar er (litt) mer troverdige - men fortsatt ikke garantert korrekte
Eksempel:
- “Hva er søknadsfristen for X?”
- “Når må søknaden om X leveres?”
- “Har du informasjon om tidsfrister for X?”
Hvis du får tre ulike datoer, vet du at du må finne informasjonen på en annen måte.