Nyhet
29.8.2025
29.8.2025

Nordmenn er bekymret for AI – men bruker det likevel i store avgjørelser

Dette er en kommentar skrevet av
Jørgen Bang
Chief Information Officer
Dette er en analyse skrevet av
Jørgen Bang
Chief Information Officer
Over halvparten av nordmenn er bekymret for at kunstig intelligens kan spre falsk informasjon, og nesten 6 av 10 stoler ikke på data fra AI. Likevel planlegger mange å bruke generativ AI når de skal bestemme seg for hva de skal stemme ved årets stortingsvalg.

AI brukes i valg – til tross for lav tillit

1 av 4 sier at de helt sikkert eller kanskje vil bruke generativ AI, som ChatGPT, for å finne ut hva de skal stemme ved årets valg, skriver NRK i en artikkel om hvordan kunstig intelligens kan påvirke deg når du skal stemme. Det indikerer at AI spiller en stadig viktigere rolle i både informasjonsinnhenting og beslutningstaking knyttet til viktige valg.

 

- Når en så stor andel vurderer å bruke AI for å avklare partivalg, betyr det ikke nødvendigvis at teknologien fungerer som full erstatning til tradisjonelle informasjonskilder. Mange vil sannsynligvis bruke AI til å få oversikt over partiprogrammer, sammenligne ulike standpunkter eller oppsummere komplekse temaer, sier Jørgen Bang, CIO i Opinion.

 

- At AI tas i bruk i forkant av et valg kan også handle om lav terskel: Det er raskt, tilgjengelig og oppleves personlig tilpasset. I tillegg har flere fått rutiner for å bruke generativ AI i hverdagen, som beslutningsstøtte i alt fra reiser til innkjøp. Når denne vanen flyttes over til politiske valg, øker den praktiske betydningen av hvordan AI presenterer informasjon og hvilke svar som prioriteres, sier Bang.

Lav tillit og lav forståelse gjør vurderingene sårbare

En undersøkelse fra Opinion viser at 6 av 10 nordmenn er uenig i at de kan stole på informasjon fra AI, mens kun 9 prosent er enig. Mange nordmenn er også bevisste på risikoen knyttet til bruken av teknologien. Over halvparten (56 %) sier de er bekymret for at AI kan produsere og spre feilinformasjon. Dette viser at AI tas i bruk til tross for at flertallet uttrykker skepsis til påliteligheten av det den leverer.

 

En mulig forklaring er at mange ser AI som et utgangspunkt for videre søk, snarere enn en fasit. For eksempel kan AI brukes som en snarvei til innsikt som senere dobbeltsjekkes mot partienes egne nettsider eller redaktørstyrte medier. Samtidig kan det også innebære at noen velger å bruke AI for å ta avgjørelser av praktiske hensyn, selv om de vet at informasjonen kan være upålitelig.

 

-  Det kan virke selvmotsigende at vi, til tross for lav tillit til AI og bekymringer for feilinformasjon, likevel bruker teknologien til store avgjørelser. Denne tilsynelatende motsetningen kan forklares med at mange ser et bytteforhold: de aksepterer risikoen for feil i bytte mot effektivitet og oversikt. Det er samtidig krevende å orientere seg i et komplekst informasjonslandskap under valgkampen. AI kan forenkle prosessen ved å komprimere informasjon til håndterlige utdrag, men det forutsetter at brukerne selv kvalitetssikrer innholdet, sier Bang.

Politisk unøytrale modeller i kombinasjon med lav forståelse av AI

Mange opplever også at AI er vanskelig å forstå. Kun én av fem sier at de har en god forståelse av kunstig intelligens, mens halvparten mener de ikke har det. Lav forståelse kan gjøre folk mer utsatt for å misforstå svar eller overvurdere hvor presise AI-modellene faktisk er.

For virksomheter og offentlige aktører er det avgjørende å veilede brukerne i hvordan AI-svar kan kvalitetssikres. Dette innebærer å være tydelig på hvilke kilder og metoder som ligger til grunn for innholdet. Samtidig bør det informeres om at AI-modeller kan være påvirket av skjevheter, for eksempel ved at de ikke alltid er politisk nøytrale, eller at de kan favorisere visse perspektiver.

-  Vi vet for eksempel at ChatGPT fra OpenAI ofte gir svar som sammenfaller med synspunkter fra venstresiden i amerikansk politikk, mens Elon Musks modell Grok har en tendens til å være mer høyreorientert. Dette kan påvirkes av selskapene som utvikler modellene, og av hvilke data modellene trenes på, sier Bang.

 

Ren feilinformasjon er heller ikke det eneste problemet med AI-modellene. De kan vekte enkeltsaker sterkere enn andre, eller ta valg basert på tidligere samtaler som kanskje ikke reflekterer brukerens synspunkter og kan være basert på svakt grunnlag. I tillegg har modellene en tendens til å forsøke å være enig med brukeren og bekrefte deres antagelser, selv når disse er feilaktige.

 

– Funnene peker på to viktige aspekter: For det første viser de hvor nødvendig det er å styrke kompetansen om AI for å sikre tryggere og mer kritisk bruk av teknologien. Dette innebærer å fremme forståelse for hvordan AI kan brukes som et verktøy, samtidig som det blir en vane å etterprøve tall og kilder. For det andre understreker funnene betydningen av menneskelig innsikt og grundig analyse. AI kan være et nyttig supplement, men tydelige kilder og pålitelig data fra fagfolk vil alltid være avgjørende, sier Bang.

Undersøkelsen brukt i artikkelen er en del av Worldviews Survey:

Opinion har gjennomført en undersøkelse som en del av Worldviews Survey av The Worldwide Independent Network of MR (WIN), den ledende globale organisasjonen for uavhengige markedsundersøkelses- og meningsmålingsfirmaer.  Opinion har ansvaret for den norske undersøkelsen som er landrepresentativ og gjennomført mellom 13-21. januar 2025 med 1031 respondenter. Årets Worldwiew Survey fanger opp meningene til 34,946 individer fra 39 land.

Innsikten er hentet fra Wordviews Surveys AI index. Spørsmålene er stilt i en 10-punkts skala fra 1 helt uenig til 10 helt enig. Opinion sammenstiller 1-4 som uenig og 7-10 som enig.

 

Følgende land er inkludert i studien: Argentina, Australia, Brasil, Canada, Chile, Kina, Tyskland, Ecuador, Spania, Finland, Frankrike, Storbritannia, Hellas, Hongkong, Kroatia, Indonesia, Irland, India, Italia, Japan, Sør-Korea, Marokko, Mexico, Malaysia, Nederland, Norge, Peru, Filippinene, Pakistan, Polen, Paraguay, Serbia, Sverige, Slovenia, Slovakia, Thailand, Tyrkia, USA, Vietnam.