Herold

Når fremtiden ikke ber om tillatelse

Plus
Kilde: Fremover Author: Simen Lian Kleiving Published: 2025-12-02 13:44:47
Når fremtiden ikke ber om tillatelse

Jeg har fulgt nyhetene om OpenAIs etablering i Narvik med nysgjerrighet, uro og en slags merkelig dobbeltfølelse. På den ene siden: Dette kan bli stort. En teknologisk milepæl i vår lille landsdel. På den andre: Hva er det egentlig vi sier ja til? Og kanskje enda viktigere: Forstår vi rekkevidden av det?

Hva er KI – eller viktigere: Hva kan det bli?

Når Narvik blir mer enn Narvik

Å være våken, ikke redd

For å imøtekomme de som allerede spisser motargumentene: Dette er ikke en tekst som er mot fremtiden. Det er en tekst som prøver å være ærlig om at fremtiden ikke alltid oppfører seg slik vi ønsker at den skal. Og at etiske vurderinger knapt har vært en del av debatten – selv om de kanskje burde stått helt i sentrum.

Debatten rundt kunstig intelligens skaper en slags tåke av begreper: “modeller”, “superintelligens”, “algoritmer”. For de fleste av oss er det lite håndfast. Det blir litt som et “under panseret”-paradoks: De færreste av oss vet hva som faktisk skjer under panseret på bilen vår, men vi stoler på at noen andre har oversikt – i hvert fall helt til det smeller.

Slik er det med kunstig intelligens også.

KI slik vi kjenner den i dag, er et verktøy. Men det er allerede vevd inn i livet vårt på måter vi knapt tenker over. Telefonen din bruker kunstig intelligens hver gang du åpner en app, analyserer data om deg og tilpasser innhold for å holde deg engasjert. Det påvirker kulturen, samtalene og relasjonene våre – og viser kraften til en teknologi som fortsatt bare er i sin spede begynnelse.

ChatGPT, Gemini og lignende verktøy er det som kalles “narrow AI” – språkmodeller som forutsier det mest sannsynlige neste ordet. De kan skrive, forklare og svare, men de forstår ikke. De simulerer forståelse. De kan gi trøst uten å vite hva trøst er, og støtte en idé uten å vite hva en idé er. Kraftig, men grunnleggende begrenset.

Det som bekymrer meg, er hva som kan komme etter dette.

AGI beskrives ofte som noe radikalt annet enn dagens KI. Ikke en maskin som utfører oppgaver, men en intelligens som lærer, tilpasser seg og forbedrer seg uten menneskelig innblanding. En teknologi som kan endre sin egen arkitektur, øke sine egne evner og bygge nye versjoner av seg selv. I slike forsterkende forbedringssløyfer vet vi ikke lenger hvem som har kontroll – eller om kontroll i det hele tatt er et relevant begrep.

Dette kan være fantastisk. Det kan være farlig. Kanskje begge deler. Problemet er at ingen vet. Og usikkerhet i denne størrelsesorden er ikke noe vi kan overse.

Jeg har forsøkt å lytte til mennesker som står tett på utviklingen – blant dem Tristan Harris og Dr. Roman Yampolinskiy. De er ikke fasiter, men de representerer to viktige vinkler: samfunnsrisiko og teknisk risiko. Tar man dem på alvor uten å bli overbevist til ensidig frykt, står man igjen med noen grunnleggende spørsmål som for eksempel:

Hva er egentlig premissene vi legger når vi bygger infrastruktur for en teknologi som kan forme fremtidens samfunn, og som i ytterste konsekvens kan gjøre menneskene overflødige?

Ingen vet om AGI kommer. Ingen vet hvordan den vil se ut. Ingen kan garantere hvordan den vil påvirke politikk, økonomi eller global maktbalanse. Men om den kommer, vil den trenge nøyaktig slike anlegg som det som nå planlegges i Narvik.

Dette er også stedet der det lokale møter det globale. Når OpenAI etablerer seg her, er det ikke som en bedrift som åpner en fabrikk. Det er et selskap som bygger en del av den globale infrastrukturen for fremtidens intelligenssystemer – systemer som kan ha ringvirkninger vi ennå ikke har forestilt oss.

Det gir selvfølgelig lokale muligheter, men det binder oss også inn i noe større enn oss selv. For selv om datasenteret står fysisk her, ligger styringen, beslutningene og makten et helt annet sted – med formål og intensjoner vi ikke har kontroll på. Det er ikke konspiratorisk. Det er bare sånn teknologi fungerer. Den er global, distribuerer makt på nye måter, og bærer med seg økonomiske insentiver vi ikke kjenner.

De største selskapene i verden konkurrerer nå om tre ting:

  1. Datasentre

  2. Datakraft

  3. Datasett

Dette er ikke lenger utstyr. Det er strategiske ressurser.

USA har én agenda. Europa en annen. Kina en tredje. Og selskaper som OpenAI og Google opererer i grenseflaten mellom privat kapital, geopolitikk og teknologisk kappløp. Når slike aktører investerer i Norge, skal vi selvfølgelig være åpne for mulighetene. Men vi skal ikke late som om dette skjer uten strategiske motiver.

Det betyr ikke at vi skal være redde. Det betyr bare at vi må forstå hvor vi står i dette bildet.

Dette er ikke en oppfordring om å stoppe utvikling. Det er en oppfordring om å stille spørsmål før vi gir blankofullmakt.

Vi må kunne spørre:

• Hvilke verdier ligger inne i systemene vi nå blir vertskap for?

• Hvem kontrollerer dem om ti år?

• Hvilke scenarier er vi forberedt på – og hvilke er vi ikke?

• Hvilken rolle skal Norge egentlig spille i den globale KI-infrastrukturen?

Å være åpen for fremtiden og samtidig holde et fast grep om ansvaret, er ikke pessimisme. Det er bevissthet. Teknologi utvikler seg uansett om vi følger med eller ei.

Men når fremtiden ikke ber om tillatelse, må vi i det minste stille de spørsmålene som gjør oss i stand til å møte den med åpne øyne – og ikke bare åpne armer.