AI - en ny geopolitisk dimension?

Elon Musk och president Donald Trump vid presskonferens i vita huset / Vita huset/Molly Riley

Detta är en kommenterande text. Analyser och ställningstaganden är skribentens och speglar inte nödvändigtvis Utrikespolitisk Aftons inställning.

Mail: oag@utrikespolitiskafton.com

Madeleine Örenmark

Analytiker, OAG

AI - en ny geopolitisk dimension?

I den offentliga debatten tenderar artificiell intelligens att beskrivas i ytterligheter, antingen som nästa stora produktivitetsrevolution eller som en spekulativ bubbla där kapital rider på överdrivna förväntningar. I mer kritiska tolkningar framställs AI-utvecklingen som ett existentiellt hot eller som en teknik som kan komma att leda till en ny koncentrerad maktelit. Trots den allmänna lockelsen till dessa sensationella narrativ säger det något om samtidens farhågor och förhoppningar. Dessa diskussioners bidrag till att identifiera AI-utvecklingens inverkan på framtida maktcentrum och geopolitik är dock begränsat. Denna analys undersöker de senare nämnda dimensionerna och hävdar att AI:s geopolitiska betydelse främst avgörs av kontrollen över den infrastruktur som möjliggör AI-utveckling. I fokus står den framväxande relationen mellan stater och privata teknikföretag och hur denna relation omformar makt, beroenden och strategiska handlingsutrymmen.

Varför uppstår flaskhalsar i utvecklingen av AI-applikationer?

Den offentliga AI-debatten präglas av ett starkt fokus på nya funktioner och tillämpningar. Modellernas prestanda och användningsområden är föremål för politisk debatt, inte minst vid otillbörlig användning av AI-modeller för informationspåverkan eller autonoma vapensystem, men också i mer konstruktiva sammanhang såsom krishantering och ökad produktivitet. Frågan om AI bör dock inte begränsas till de enskilda tillämpningsområdena. Tekniken beskrivs som en “general-purpose technology”, vilket har jämförts med elektricitet, och tidigare ångmaskinen.[1] Det är således inte endast de enskilda tillämpningarna av tekniken som bör vara i fokus, utan snarare den grundläggande tekniken bakom den uppsjö av framtida användningsområden som kan växa fram. Den mer varaktiga frågan rör därför vem som kontrollerar den infrastruktur och de resurser som avgör vilka aktörer som kan utveckla AI.

AI-infrastrukturen bakom AI-applikationer är omfattande och bestående av en sammansättning av tekniska komponenter och datavetenskapliga modeller. Tillsammans skapar de förutsättningar för AI-applikationer som möter konsumenter i olika tillämpningsområden. Många av de slutliga modellerna bygger på mer avancerade och resurskrävande fundamentala modeller, där de mest framstående benämns som frontier models. I den geopolitiska diskussionen belyses ofta just utvecklingen av dessa frontier models.[2] I detta ljus kan USA-Kina-rivaliteten lyftas, där en kapplöpning pågår för att utveckla de mest avancerade modellerna i syfte att skapa långsiktiga beroenden till standarder och licensvillkor, vilket i sin tur ger geopolitiskt inflytande.[3]

En annan central del av AI-infrastrukturen utgörs av molnplattformar. AI-applikationer tillhandahålls i tilltagande utsträckning som tjänster via kommersiella molnplattformar. Detta innebär att kontrollen över den infrastrukturen får ökad betydelse.[4] Studier visar att leverantörsbyte ofta är tekniskt och organisatoriskt krävande, bland annat med hänsyn till att flera lager av ett företags teknik är integrerat i molnplattformen. Även begränsad interoperabilitet, plattformsspecifik kompetens, kontraktsvillkor och kostsam administration försvårar leverantörsbyten och bidrar till långsiktiga beroenden. När sådana AI-applikationer används inom säkerhetskritiska sektorer och statlig verksamhet för analys och beslutsstöd får beroendet en säkerhetspolitisk dimension.[5] Processer i säkerhetsrelaterade verksamheter och den offentliga förvaltningen knyts således till ett begränsat antal privata aktörer som kontrollerar applikationernas underliggande infrastruktur.

Vidare är AI-applikationer beroende av andra delar av AI-infrastrukturen, som består av tekniska och industriella komponenter. I utvecklingen av de mest avancerade systemen är ett fåtal kritiska mellanled starkt koncentrerade till ett begränsat antal aktörer, vilket gör dem till strategiska flaskhalsar. Halvledare och mikrochips har länge varit en nödvändig komponent i teknik. Det kravet som AI-modeller ställer på kapacitet innebär dock ett behov av de mest avancerade halvledarna och så kallade logikchip. Produktionen av dessa komponenter är således en central del i AI-infrastrukturen.[6] Majoriteten av den globala kapaciteten, och produktionen, av dessa komponenter är kraftigt koncentrerad till Taiwan. Nvidia, det mest framstående amerikanska semiledarföretaget, är beroende av Taiwans, och i synnerhet företaget TSMCs, kapacitet. Denna kapacitet är i sin tur beroende av nederländska ASML som global leverantör av EUV-litografisystem, vilket är en nyckelteknik för tillverkning av de mest avancerade logikchipen.[7] Denna koncentration skapar strategiska sårbarheter. Om ett enskilt led i kedjan påverkas kan hela värdekedjan bromsas eller tillfälligt avbrytas, med stora spridningseffekter.

Makten i AI-utvecklingen är alltså inte knuten till enskilda applikationer, utan till kontrollen över de flaskhalsar som uppstår av att delar av AI-infrastrukturen koncentreras hos olika aktörer. Koncentrationen och sårbarheten i infrastrukturens värdekedjor skapar strategisk betydelse. Kontroll över centrala delar av denna infrastruktur är därför en avgörande maktresurs för både företagens utveckling och staters strategiska handlingsförmåga.

Det statliga intresset av den privata AI-utvecklingen

När kontrollen över AI-infrastrukturen får strategisk betydelse blir statens relation till privata teknikföretag en central säkerhetspolitisk fråga. AI-utvecklingen kan då inte längre förstås enbart som marknadsdriven innovation eller teknologisk konkurrens, utan som ett område där stater försöker utöva inflytande över privat infrastruktur som de är beroende av. Det är i detta sammanhang som AI i allt högre grad har kommit att inramas i säkerhetspolitiska och geopolitiska termer.

Den växande rivaliteten kring artificiell intelligens beskrivs ofta i säkerhetspolitiska termer, inte minst genom en föreställning om ett ”AI Cold War”. Detta bygger på en idé om att teknologisk dominans i AI är avgörande för militär förmåga, ekonomisk konkurrenskraft och politiskt inflytande. Detta placerar AI-utvecklingen i ett välbekant stormaktspolitiskt narrativ.[8] Liknelsen fångar hur kapplöpningen ramas in, det vill säga föreställningen att den aktör som uppnår teknologiskt försprång i AI också säkrar fördelar i ekonomisk och politisk makt. Däremot byggs, ägs och drivs AI-infrastrukturen av privata företag inom kommersiella ekosystem med transnationell räckvidd. Detta gör kapplöpningen svårare att avgränsa och kan, givet sin bredd, argumenteras vara mer omfattande än tidigare strategiska teknologiska kapplöpningar.

Statlig kontroll och inflytande utövas genom reglering, relationer, standarder och villkorad tillgång till nödvändig infrastruktur. Relationen mellan stat och teknikföretag blir därmed ett centralt säkerhetspolitiskt styrmedel. I USA illustreras denna ordning tydligt. AI-infrastruktur behandlas som en nationell säkerhetsfråga, och staten kombinerar exportkontroller med riktade industripolitiska incitament för att forma AI-utvecklingen. USA har bland annat begränsat Nvidias export av avancerade AI-chip till Kina, med uttryckligt syfte att motverka användning som bedöms strida mot amerikanska säkerhets- och utrikespolitiska intressen.[9] Samtidigt integreras Nvidia i den amerikanska industripolitiska strategin genom bland annat betydande federala investeringar i inhemsk halvledarproduktion.[10]

Den tekniska kapaciteten förblir formellt privat, men statens beslut avgör vilka marknader som är tillgängliga och vilka affärsmodeller som är genomförbara. USAs försvarsdepartement har även ingått betydande kontrakt med ledande AI-bolag såsom OpenAI och Google för utveckling av system för analys, beslutsstöd och autonoma funktioner.[11] Under samma period har personer med bakgrund i Silicon Valleys tekniksektor, såsom Elon Musk och David Sacks, tilldelats rådgivande och operativa roller i federala myndigheter, vilket ytterligare har institutionaliserat kopplingarna mellan statliga säkerhetsintressen och privata teknikföretag.[12] Sammantaget har en ordning vuxit fram där statens intressen är strategiskt beroende av privata aktörer i AI-infrastrukturen, medan företagen förblir formellt autonoma men i praktiken knutna till statlig tillgång och legitimitet.

Samma grundproblem, privat AI-kapacitet med statlig strategisk betydelse, hanteras annorlunda i Kina. Där har AI-utvecklingen tidigt definierats som ett statligt prioriterat område och integrerats i långsiktiga politiska målsättningar. I “New Generation Artificial Intelligence Development Plan” från 2017 fastslogs ambitionen att göra Kina världsledande inom AI före 2030, samtidigt som utvecklingen explicit kopplades till nationell säkerhet och ekonomisk styrning.[13] Kontrollen utövas främst genom politisk inordning av företag i statliga målsättningar, ofta genom statligt delägande och stora offentliga investeringar i AI-industrin.

Under 2025 bedöms kinesiska investeringar i AI ha uppgått till 84–98 miljarder USD, varav ungefär 56 miljarder USD utgjordes av statliga investeringar.[14] Samtidigt bedöms den kinesiska staten genom investeringsfonder vara aktiva investerare i AI-bolag i tidiga skeenden, med totalt omkring 912 miljarder USD placerade under det senaste årtiondet.[15] Detta står i kontrast till USA, där utvecklingen och investeringar i större utsträckning är privata. Under 2025 investerade den amerikanska staten omkring 3.3 miljarder USD i AI, exklusive investeringar i försvarssektorn.[16] Den stora delen offentliga investeringar i Kina visar på det beroende de kinesiska AI bolagen har av den statliga verksamheten, och hur stora incitament det finns för AI bolagen att agera i statens intresse. I kontrast står Europeiska unionen, vilken i stor utsträckning saknar kontroll över egen AI-infrastruktur, som i stället utövar inflytande genom reglering av användning och standarder. Relationerna till teknikföretag formas därmed främst genom normativ styrning snarare än materiell kontroll, vilket gör EU starkt i regelutformning men strukturellt beroende av extraterritoriell AI-infrastruktur.[17]

Sammantaget är maktdimensionen kopplat till AI inte exklusivt fokuserad till teknisk överlägsenhet, utan även av hur relationen mellan AI-infrastruktur som tillgängliggörs av staten respektive privata aktörer organiseras. I USA styrs utvecklingen genom selektiv tillgång till kritiska resurser, i Kina genom offentliga investeringar och politisk inkorporering av företag, medan EU främst reglerar användning utan att kontrollera infrastrukturen. Det strategiska handlingsutrymmet styrs i samspel mellan statliga intressen och privat kontroll, samtidigt som de stora flaskhalsarna innebär multilaterala beroenden mellan stater.

Offentlig-privata dynamiker och framtida förväntningar

När statens säkerhetsintressen inom AI-utvecklingen i tilltagande grad drivs genom kommersiella ekosystem uppstår en ny typ av maktordning. I detta sammanhang undersöks hur relationen mellan stat och företag påverkar tillgången till komponenter för AI‑utveckling och konsekvenserna av statens behov av privata aktörer för att tillgodose offentliga intressen. Mot den bakgrunden diskuteras nu vilka effekter relationen mellan stat och företag får för geopolitiken.

AI-infrastrukturens organisering innebär att staten i praktiken inte styr AI-kapacitet genom ägande. I stället används exportkontroller, upphandlingar, och regulatoriska villkor för att försöka påverka privata aktörer. Samtidigt ligger kontrollen av den faktiska driften hos företag som staten är beroende av i säkerhetskritiska sammanhang. Privata aktörer får därmed operativ kontroll över funktioner med offentliga konsekvenser, utan att omfattas av samma krav på insyn och ansvarsutkrävande som staten. Användandet av AI-system för analys och beslutsstöd i statliga verksamheter riskerar leda till oklarheter för ansvarsutkrävande vid fel eller missbruk.

Samtidigt innebär bristande insyn för lagstiftare och tillsynsmyndigheter i hur systemen byggs, tränas och används, att politiskt ansvar för beslut som fattas med stöd av AI i praktiken blir svårare att utkräva. Frågan om vem som styr och bär ansvar blir därför en politisk kärnfråga i en ordning där centrala statliga funktioner vilar på privat kontrollerad AI-infrastruktur. Denna ansvarsdynamik riskerar få konsekvenser för AI-utvecklingens demokratiska legitimitet genom statens styrning av privata aktörers utveckling, och genom privata aktörers stora inflytande på statens styrning i politiska och regulatoriska frågor. Den demokratiska legitimiteten kan således försvagas i takt med att AI-system i offentlig verksamhet utvecklas och drivs inom privata strukturer utanför parlamentarisk kontroll. Samtidigt kan, när AI-utveckling som formellt sker på marknadsmässiga villkor formas av statliga prioriteringar, utvecklingen ses som ett uttryck för staters politik, och inte minst utrikespolitik.

Utöver inhemska styrningsfrågor leder relationen även till handels- och säkerhetspolitiska konsekvenser. Det uppstår ett avgörande intresse för privata aktörer att staten ska agera för att säkerställa en stabil tillgång till AI-infrastruktur, och likväl för staten att dess privata aktörer ska ha denna tillgång. Extraterritoriella beroenden inom kritiska delar i AI-infrastrukturen utgör ett betydande hot mot statens säkerhet och långsiktiga handlingsförmåga. Utrikespolitiska verktyg, såsom exportrestriktioner, får i dessa sammanhang en påtaglig effekt för mottagarstaten och dess företag genom att skarpt påverka möjligheter till AI-utveckling. Detta förstärker betydelsen av att vara en etablerad och pålitlig samarbetspartner i internationella värdekedjor, där samarbeten inte bör utformas som traditionella handelsrelationer, utan snarare som ett djupare och mer långsiktigt samarbete. I detta sammanhang kan de starkt positionerade företagen påverka staten i riktning att fördjupa sådana samarbeten, även när det råder spänningar till andra politiska överväganden. Till detta kommer att företagens relationer med andra staters företag tillskrivs större vikt för staterna. De privata företagens relationer ligger utanför statens kontrollsfär, men statens intressen på området kan i förlängning vara ett incitament att försöka utöva inflytande över hur företag agerar i sina internationella affärsförehavanden.

Tongivande privata aktörer har länge haft inflytande i handels- och utrikespolitiska överväganden, och stater har haft ett intresse av att beakta dessa aktörers intressen. Det ökade inflytandet kan dock förändra hur diplomatiska och bilaterala förhandlingar på området företas. Privata aktörer är inte bundna av samma hänsyn till internationella relationer och den globala politiska ordningen som stater. Deras alltmer centrala roll riskerar därmed att öka volatiliteten och minska förutsebarheten i den geopolitiska dynamiken i AI-utvecklingen. Därtill kan det leda till en ordning där vikten av att beakta de privata aktörernas inflytande och åsikter intensifieras och statens förhållningssätt i större utsträckning påverkas av de privata aktörerna, antingen bakom kulisserna eller genom att de intar central position i förhandlingar. De privata aktörerna kan alltså vara verktyg som stater använder sig av i förhandling med andra stater, och egna geopolitiska spelare värda att beakta.

Denna struktur, som bygger på enskilda företags avgörande vikt i AI-infrastrukturen, kan även bidra till ett oproportionerligt stort strategiskt inflytande för små och medelstora stater vars företag har kontroll över enskilda, kritiska mellanled i AI-infrastrukturen. Nederländerna genom ASML, Taiwan genom TSMC och Japan genom avancerade material och produktionsutrustning kontrollerar funktioner som är svåra att ersätta och nödvändiga för AI-utvecklingen. Det ger politisk hävstång i relation till både stormakter och företag, men innebär samtidigt ökad exponering för geopolitisk press. Det är tänkbart att denna hävstång kan fungera som en garanti för stabil tillgång till andra länders teknik och kapacitet, en sorts ömsesidigt garanterad tillintetgörelse vad gäller exportrestriktioner. Därtill kan det leda till en politisk hävstång även på andra områden, till exempel i andra handelsfrågor. Mot denna bakgrund kan stora privata aktörer, även i stater som Sverige där en tydlig uppdelning mellan offentlig och privat sektor råder, komma att involveras mer direkt i utrikespolitiska överväganden.

Strategiska resurser innebär också strategiska sårbarheter i takt med att stater och företag söker kontroll över AI-infrastrukturella tillgångar. Det handlar exempelvis om tillgång till materiella resurser såsom energi, vatten och kritiska mineraler. Illustrativt är spänningarna mellan USA och Grönland, där intressen kopplade till privat AI-utveckling sammanfaller med amerikansk geopolitisk maktprojektion. Samtidigt som amerikanska teknikprofiler och riskkapitalister visar ökat intresse genom omfattande investeringar i gruv- och infrastrukturprojekt på Grönland pågår diskussioner på hög politisk nivå om AI-strategiska nationella intressen för USA.[18] Här framträder hur företagsbehov av stabil resursförsörjning för AI-infrastruktur sammanfaller med statliga säkerhetsintressen.

I takt med att AI-infrastrukturens flaskhalsar får ökad strategisk betydelse ökar sannolikheten för att stater hamnar i konflikt om kontrollen över dessa resurser, på ett sätt som påminner om energipolitikens roll i tidigare geopolitiska konflikter. I detta läge hamnar privata företag allt närmare konfliktlinjerna, inte som formella säkerhetspolitiska aktörer, utan som bärare av infrastrukturer som stater uppfattar som säkerhetskritiska.

Avslutning

Analysen visar att AIs geopolitiska betydelse primärt kretsar kring kontrollen över delar i AI-infrastrukturen, där flaskhalsar skapar dels extraterritoriella beroenden, dels statliga beroenden av privata aktörer. Företagens behov och intressen blir avgörande för att tillgodose nationella intressen och en ny dynamik växer fram där företagens roll blir mer framträdande i politiska beslut och geopolitiska avväganden. Detta innebär att både inhemska och utländska företagsintressen i större utsträckning behöver beaktas i den utrikespolitik som bedrivs och i en stats internationella samarbeten. Samtidigt uppstår risker kopplat till företagens inflytande, och staters säkerhetspolitiska beroende av företag. Det är i dessa växande relationer mellan stat och företag som statens faktiska legitimitet i allt högre grad prövas, i en omformad säkerhetspolitisk verklighet.

 

Madeleine Örenmark är analytiker vid OAG.

 Referenser

[1] Uttrycket “general-purpose technology” återfinns i: Suleyman, Mustafa & Bhaskar, Michael. (2025). The Coming Wave: AI, Power, and Our Future. Crown Publishing Group, New York.

[2] OECD. Competition in Artificial Intelligence Infrastructure. OECD Roundtables on Competition Policy Papers, No. 330. (OECD Publishing, 2025) https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/11/competition-in-artificial-intelligence-infrastructure_69319aee/623d1874-en.pdf (Hämtad 2026-01-25) s. 7-10

[3] Wang, Austin Horng-En & Siler-Evans, Kyle. U.S.-China Competition for Artificial Intelligence Markets: Analyzing Global Use Patterns of Large Language Models (RAND Corporation, 2026) https://www.rand.org/pubs/research_reports/RRA4355-1.html (Hämtad 2026-01-25)

[4] OECD. Competition in Artificial Intelligence Infrastructure. OECD Roundtables on Competition Policy Papers, No. 330. (OECD Publishing, 2025) https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/11/competition-in-artificial-intelligence-infrastructure_69319aee/623d1874-en.pdf (Hämtad 2026-01-25) s. 7

[5] OECD. Competition in Artificial Intelligence Infrastructure. OECD Roundtables on Competition Policy Papers, No. 330. (OECD Publishing, 2025) https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/11/competition-in-artificial-intelligence-infrastructure_69319aee/623d1874-en.pdf (Hämtad 2026-01-25) s. 27-28

[6] OECD. Mapping the Semiconductor Value Chain: Working towards Identifying Dependencies and Vulnerabilities. OECD Science, Technology and Industry Policy Papers No. 182. (OECD Publishing, 2025) https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/mapping-the-semiconductor-value-chain_5ba52971/4154cdbf-en.pdf (Hämtad 2026-01-25) s. 7-12

[7] OECD. Competition in Artificial Intelligence Infrastructure. OECD Roundtables on Competition Policy Papers, No. 330. (OECD Publishing, 2025) https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/11/competition-in-artificial-intelligence-infrastructure_69319aee/623d1874-en.pdf (Hämtad 2026-01-25) s. 14-15, 23

[8] Allen, Gregory C. Countering China’s Challenge to American AI Leadership. (Vittnesmål inför USA:s kongress 2 december 2025, publicerat av CSIS) https://www.csis.org/analysis/countering-chinas-challenge-american-ai-leadership (Hämtad 2026-01-27)

[9] Sutter, Karen M. U.S. Export Controls and China: Advanced Semiconductors. CRS Report No. R48642. (Congressional Research Service, Library of Congress, 2025-09-19) https://www.congress.gov/crs-product/R48642 (Hämtad 2026-01-27)

[10] Se: U.S. National Science Foundation. NSF and NVIDIA partnership enables Ai2 to develop fully open AI models to fuel U.S. scientific innovation (NFS News, 2025-08-14) https://www.nsf.gov/news/nsf-nvidia-partnership-enables-ai2-develop-fully-open-ai (Hämtad 2026-01-25) & U.S. Department of Energy. Energy Department Announces New Partnership with NVIDIA and Oracle to Build Largest DOE AI Supercomputer. (DOE News, 2025-10-28) https://www.energy.gov/articles/energy-department-announces-new-partnership-nvidia-and-oracle-build-largest-doe-ai (Hämtad 2026-01-25) 

[11] Chief Digital and Artificial Intelligence Office. CDAO Announces Partnerships with Frontier AI Companies to Address National Security Mission Areas. (CDAO Press Release, 2025-07-14) https://www.ai.mil/latest/news-press/pr-view/article/4242822/cdao-announces-partnerships-with-frontier-ai-companies-to-address-national-secu/ (Hämtad 2026-01-26) 

[12] Hammond, George, Murphy, Hannah & Miller, Joe. The tech ‘courtier’ steering Trump on AI to Silicon Valley’s delight. (Financial Times, 2026-01-27) https://www.ft.com/content/9f715d84-f1e7-4825-b3f5-a80e23d88453 (Hämtad 2026-01-28) 

[13] State Council of the People’s Republic of China. Next Generation Artificial Intelligence Development Plan. (Department of International Cooperation, Ministry of Science and Technology, P.R. China, 2017) https://fi.china-embassy.gov.cn/eng/kxjs/201710/P020210628714286134479.pdf (Hämtad 2026-01-26) 

[14] Shen, Hinmei. China’s AI capital spending set to reach up to US$98 billion in 2025 amid rivalry with US. (South China Morning Post, 2025-06-25) https://www.scmp.com/tech/tech-war/article/3315805/chinas-ai-capital-spending-set-reach-us98-billion-2025-amid-rivalry-us (Hämtad 2026-01-26) 

[15] Stanford Center on China’s Economy and Institutions. Government Venture Capital and AI Development in China. (SCCEI China Briefs, 2024-12-01) https://sccei.fsi.stanford.edu/china-briefs/government-venture-capital-and-ai-development-china (Hämtad 2026-01-10) 

[16] Borges, Chris & Deng, Yutong. Innovation Lightbulb: Federal R&D Funding Matters for U.S. AI Leadership (CSIS, 2025-10-22) https://www.csis.org/blogs/innovation-lightbulb-federal-rd-funding-matters-us-ai-leadership (Hämtad 2026-01-20) 

[17] European Commission. 2025 State of the Digital Decade Package. (EC, Digital Decade - Policy programme, 2025) https://digital-strategy.ec.europa.eu/en/policies/2025-state-digital-decade-package (Hämtad 2026-01-26) 

[18] Se: Di Licosa, Martina. These Billionaires Bet Big On Greenland—After Trump Took Interest. (Forbes, 2026-01-09) https://www.forbes.com/sites/martinadilicosa/2026/01/09/these-billionaires-bet-big-on-greenland-after-trump-took-interest/ (Hämtad 2026-01-24) & Watson, Ben & Peniston, Bradley. The D Brief: Trump’s Greenland fixation undermines alliance; Cui bono?; Lawmakers set flat defense budget; How AI went DOD; And a bit more. (Defense One, 2026-01-21) https://www.defenseone.com/threats/2026/01/the-d-brief-january-21-2026/410821/ (Hämtad 2026-01-24)