Den 27 januari 2026 satte Bulletin of the Atomic Scientists’ Science and Security Board (SASB) den så kallade ”Domedagsklockan” till 85 sekunder till midnatt, den närmaste positionen i klockans historia.
Text: Leif Elinder, barnläkare (Sverige, Australien, Nya Zeeland), samhällsdebattör –
FIRE (Freethinking, Internationally Recognized Expert)
Detta beslut är inte symboliskt i lätt mening. Klockan fastställs genom en årlig expertbedömning av SASB i samråd med Bulletinens styrelse och Nobelpristagare inom relevanta vetenskapsområden.
Bedömningen väger samman tre huvuddimensioner:
- Kärnvapenrisk och strategisk stabilitet
- Klimatrelaterade hot
- Disruptiva teknologier och biologiska risker
År 2026 betonade SASB särskilt kombinationen av kärnvapenarsenaler, geopolitisk fragmentering och artificiell intelligens i militära system. Historiskt har klockans position speglat förändringar i global risk:
- 1947: 7 minuter till midnatt – efter atombombens introduktion
- 1953: 2 minuter – efter vätebombstester
- 1991: 17 minuter – efter kalla krigets slut och nedrustningsavtal
- 2023–2025: 90 sekunder – den närmaste nivån dittills
- 2026: 85 sekunder – ny historisk närhet till katastrof
Förflyttningen från minuter till sekunder markerar inte dramatik utan förlorad felmarginal. Det är här AI dekapiteringslogiken blir central.
Kärnvapenavskräckning byggde traditionellt på säker andraslagsförmåga. Stabilitet uppstod genom ömsesidig sårbarhet. Ingen kunde slå först utan att själv bli förintad, men när artificiell intelligens integreras i varningssystem, målanalys och beslutsstöd förändras dynamiken.
Algoritmer analyserar realtidsdata, identifierar hot och genererar rekommendationer inom sekunder. Om en stormakt fruktar att dess ledningsstruktur kan neutraliseras genom hypersoniska system, cyberangrepp eller AI optimerade precisionsangrepp, uppstår ett strukturellt tryck att slå först. Detta är säkerhetsdilemmats teknologiska acceleration.
AI reducerar reaktionstid. Den ökar inte moraliskt omdöme. Den optimerar för sannolikhet, inte för civilisationell proportionalitet. Ettfalskt larm eller manipulerad dataström i ett spänt läge kan skapa tryck på omedelbar respons.
I ett system där beslut kan tas inom minuter kan mänsklig tvekan uppfattas som risk. SASB:s varning om internationella riktlinjer för AI är därför inte teknokratisk detaljpolitik.
Den är en stabilitetsfråga. Ett dekapiterande förstaslag i enAI accelererad miljö eliminerar inte motpartens kapacitet.
Ubåtsbaserade system och redundanta kommandokedjor gör attsvaret nästan säkert överlever. Förstaslaget reducerar inte osäkerhet. Det multiplicerar den.
När klockan står på 85 sekunder är det inte föratt krig är oundvikligt. Det är för att systemet är konstruerat så att misstag kan bli irreversibla.
Den verkliga frågan är inte teknisk överlägsenhet. Den är politisk och moralisk: Kan stormakter återinföra mänsklig broms i ett system där algoritmer förkortar tiden mellanmisstanke och avfyring?
Text: Leif Elinder
Relaterat
- Fire – Etisk princip i en 85-sekundersvärld, Hannah Arendt: “Evil comes from failure to think.” Albert Einstein: “The unleashed power of the atom has changed everything save our modes of thinking.” Natthiko: “I may be wrong.”
Text: Leif Elinder, barnläkare (Sverige, Australien, Nya Zeeland), samhällsdebattör –
FIRE (Freethinking, Internationally Recognized Expert)

