Slår atomvåpen-alarm: – Han kan lures på få minutter
Plus
KIs inntog kan føre med seg vanskelige og potensielt katastrofale atomvåpen-vurderinger. En ledende ekspert slår nå alarm.
I 1983 gikk alarmen i Sovjetunionen. Det var kald krig og forholdet mellom USA og Sovjetunionen var anstrengt. Over hele verden var det en underliggende frykt for eskalering og at det i verste fall skulle bryte ut atomkrig mellom de to supermaktene.
Med dette bakteppet begynte altså det sovjetiske atomvarslingssystemet «Oko» å ule. Et interkontinentalt ballistisk missil og fire missiler var skutt opp fra USA.
Ingeniøren Stanislav Petrov var på jobb den dagen. Han hadde fått klare instruksjoner. Gikk alarmen, skulle han raskt varsle videre opp i kommandokjeden.
Det ville så føre til at Sovjetunionen raskt klargjorde et gjengjeldelsesangrep, og en full atomkrig ville være et faktum.
Petrov ventet. Han mistenkte at det dreide seg en falsk alarm, så han ventet på ytterligere bekreftelse på at et angrep var på gang. Det kom aldri.
Avgjørelsen om å vente viste seg å ha vært skjebnesvanger. Petrov avverget trolig det som ville blitt en fullskala atomkrig.
Norsk atombombe-drama
Men også i Norge har vi en forhistorie med en dramatisk hendelse, der man var en hårsbredd fra å utløse full atomkrig i verden.
I 1995, etter oppløsningen av Sovjetunionen, var det roligere tider på den storpolitiske verdensscenen. Kald krig var en saga blott, men en januardag i 1995 ble det plutselig brennhett.
På Andøya i Vesterålen i Nordland ligger Andøya rakettskytefelt. Siden 1962 har det blitt skutt opp forskningsraketter derfra.
På ny skulle en rakett skytes opp, denne gang med måleutstyr laget for å undersøke nordlyset over Svalbard. Men det gikk ikke som planlagt.
Raketten tok av fra bakken, og tok i vei på sin planlagte rute. Forskerne på Andøya hadde i god tid varslet det russiske utenriksdepartementet om oppskytningen, men en feil førte til at beskjeden aldri ble gitt videre til den russiske generalstaben.
Så da var Andøya-raketten plutselig farlig nær russisk luftrom der den suste over Barentshavet – og russerne ante ikke hva som kom.
Raketten slo ut på flere av russernes radarer. Rakettbane, fart og form stemte overens med slik de så for seg en vestlig atomrakett
De gikk i full atomberedskap.
Russerne forberedte seg på å svare på et atomangrep. Kazbek ble iverksatt. Russlands daværende president Boris Jeltsin, forsvarssjefen og sjefen for generalstaben fikk levert ut hver sin atomkoffert, og alt var klart til å svare med egne atomvåpen.
I 20 minutter var man et knappetrykk fra Jeltsin unna at det ble utløst full atomkrig. Den russiske presidenten hadde is i magen og forskningsraketten dalte etter hvert og styrtet i havet som planlagt. Verden kunne igjen puste lettet ut.
Fremtidens atomvåpentrussel
Det er 31 år siden Andøya-raketten på dramatisk vis nesten førte til atomkrig. Det har vært lite å melde om farlige nesten-hendelser siden den gang.
Men på ny har den sikkerhetspolitiske situasjonen i verden tilspisset seg. Da Russland, en atommakt, gikk til fullskala invasjon av Ukraina, ble verden endret.
Fakta om verdens atommakter
De siste årene har også ført med seg en voldsom teknologisk utvikling, med inntoget til kunstig intelligens som ledende eksempel.
I et innlegg i Forreign Affairs slår den anerkjente eksperten og forskeren Erin D. Dumbacher, som forsker på atomsikkerhet, alarm. Hun mener KI utgjør en snikende risiko for atomsikkerheten i verden.
Hun sier faren for atomkrig i dag er større enn den har vært på flere tiår.
– Den raske spredningen av kunstig intelligens har forverret truslene mot atomstabilitet, sier hun.
Smartembed for https://www.nettavisen.no/api/graff/v1/component/enkel-poll?id=62053
Dumbacher frykter nemlig at en atomvåpenstat vil kunne delegere beslutningsprosessen om å fyre av et atomvåpen til maskiner.
I USA har man innført sikkerhetstiltak for å sørge for at en slik endelig avgjørelse fortsatt skal tas av mennesker.
I 2024, da Joe Biden fortsatt var president i USA, kom han og Kinas president Xi Jinping med uttalelser om at de to var blitt enige om at det er mennesker, ikke maskiner, som skal bestemme om atomvåpen skal brukes eller ikke.
– De to lederne bekreftet behovet for å opprettholde menneskelig kontroll over beslutningen om å bruke atomvåpen, sto det i uttalelsen fra Det hvite hus.
– De to lederne understreket behovet for å nøye vurdere den potensielle risikoen for å utvikle militær KI-teknologi på en forsvarlig og ansvarlig måte, het det videre.
Trenger bare lure presidenten i noen få minutter
Et annet aspekt som Dumbacher peker på er at KI har åpnet døren for å lage og spre avanserte deepfakes. Video, bilder og lyd kan på den måten brukes til å spre falsk informasjon om hendelser og personer.
I 2023 ble et klipp av Russlands president Vladimir Putin spredt på sosiale og nasjonale medier i Russland. Klippet viser en tv-sending på russisk TV som blir brutt av en kunngjøring fra Putin.
I klippet erklærte Putin en fullskala mobilisering og sa at Ukraina hadde invadert tre grenseregioner i Russland, der han ba folk evakuere.
Det var bare et problem. Putin-klippet var ikke ekte. Med det hadde flere statlige russiske TV- og radiokanaler kringkastet det.
Hvem som sto bak er ikke kjent, men hendelsen tydeliggjør hvor lite som skal til og hvor uoversiktlig den teknologiske utviklingen har gjort verden.
Dumbacher påpeker at USA nå har en president som selv deler og konsumerer deepfake-videoer i sosiale medier. Det samme gjør de øverste beslutningstakerne i Trumps administrasjon.
– Hvis feilinformasjon kan lure den amerikanske presidenten i bare noen få minutter, kan det bety katastrofe for verden. Etter amerikansk lov trenger ikke en president å konferere med noen for å beordre bruk av atomvåpen, verken som gjengjeldelsesangrep eller som et førsteangrep, skriver hun.
Frykter deepfakes kan utløse falsk alarm
Når det gjelder russiske og amerikanske atomvåpenstyrker, så er begge parter trent og rigget for å «launch on warning». Man skal reagere om man har tilstrekkelig informasjon om at et angrep er på gang, for å rekke å svare i tide.
Personene som skal vurdere om et atomangrep er i gang, har bare få minutter på seg til å fatte en beslutning. Oppdages en trussel vil man forsøke å få bekreftet at det faktisk er et angrep som skjer.
– De kan se på satellittdata for aktivitet ved kjente militæranlegg, overvåke nylige uttalelser fra utenlandske ledere og sjekke sosiale medier og utenlandske nyhetskilder for kontekst og rapporter fra bakkenivå. Militære offiserer, embetsmenn og politisk utnevnte må deretter bestemme hvilken informasjon som skal kommuniseres oppover i kommandokjeden og hvordan den presenteres, skriver Dumbacher.
Videre advarer eksperten om at i denne prosessen kan KI-generert feilinformasjon utløse et ras av kriser og at man også bør være varsom med å bruke KI til å tolke data i en slik fase.
– Deepfakes kan bidra til å skape påskudd for krig, vekke offentlig støtte til en konflikt eller så forvirring.
Her suser «atombombeflyet» over Oslo
At KI allerede er brukt til å lure viktige beslutningstakere til å se «angrep» som ikke er reelle, mener Dumbacher vitner om en endring fra tidligere tider – som det er verdt å ta på alvor.
– Politikk og praksis bør beskytte mot de skadelige informasjonsrisikoene som til slutt kan føre til dommedag, sier hun.