Kan datamaskiner tenke?
Når ChatGPT svarer deg med en stemme som minner om et menneskes, er det lett å føle at det sitter “noen” der inne som forstår hva du sier. Men i filosofien skiller vi skarpt mellom å simulere intelligens og det å faktisk tenke .
Tre sentrale perspektiver
For å forstå hvorfor datamaskiner ikke tenker slik vi gjør, kan vi se på tre klassiske tankeeksperimenter:
1. Imitasjonsspillet (Turing)
Alan Turing foreslo at hvis en maskin kan lure oss til å tro at den er et menneske gjennom en chat, så er den intelligent. Her flyttes fokus fra hva maskinen er, til hvordan den oppfører seg (atferd).
2. Det kinesiske rommet (Searle)
John Searle viste at man kan følge regler for å gi riktige svar (syntaks) uten å ha den fjerneste anelse om hva svarene betyr (semantikk). Maskinen manipulerer symboler, men forstår ingenting.
3. Livsverden-problemet (Dreyfus)
Hubert Dreyfus påpekte at mennesker alltid opererer på bakgrunn av en hel “livsverden” – en sum av erfaringer og bevissthet som gjør at vi kan tilpasse oss nye situasjoner uten regler.
Beregning vs. Tenkning
Professor i filosofi, Einar Duenger Bøhn, argumenterer i pensumteksten for at det prinsipielle skillet ligger i bevisstheten. For at noe skal kunne sies å tenke, kreves det en subjektiv erfaring i et førstepersonsperspektiv – en følelse av “hvordan det er” å være i den tilstanden.
“På innsiden hos et menneske ‘lyser’ det opp en forståelse av hva som foregår, mens hos en chatbot er det helt ‘mørkt’ på innsiden.”
Hvorfor er dette viktig for deg som student?
Når du bruker KI-verktøy i studiene, må du huske at maskinen ikke har noen formening om sannhet, moral eller konsekvenser. Siden maskinen bare utfører logiske resonnementer og statistikk, er det du som må stå for tenkningen, vurderingen og meningsdannelsen.