ディフェンスLlama

軍事人工知能における新パラダイム

エグゼクティブサマリー

本報告書は、Scale AIとMetaの協力により開発された、米国国家安全保障ミッション専用の大規模言語モデル(LLM)である「ディフェンスLlama」について、その技術的基盤、戦略的エコシステム、地政学的背景、内在するリスク、そして将来の展望を包括的に分析するものである。ディフェンスLlamaは、単なる技術的進歩ではなく、軍事における人工知能(AI)の活用が新たなパラダイムへと移行したことを示す重要な転換点である。

主な分析結果:

  1. 目的特化型の設計: ディフェンスLlamaは、最先端のオープンソースモデルであるMetaのLlama 3を基盤とし、軍事ドクトリン、国際人道法(IHL)、国防総省(DoD)の倫理原則を含む膨大な専門データセットで微調整(ファインチューニング)されている 1。これにより、一般的な商用LLMが安全上の理由から拒否するような軍事計画に関する問いにも対応し、米国情報コミュニティ(IC)の様式とトーンに沿った、実用的な応答を生成する能力を持つ 2。このモデルは、戦争に関する情報を「知っている」AIから、戦争の「言語を話す」AIへの質的転換を意味する。
  2. 戦略的エコシステムの形成: ディフェンスLlamaの開発は、単一企業の取り組みではなく、Meta(基盤モデル提供)、Scale AI(専門化・統合)、ロッキード・マーティンやパランティアなどの防衛プライムコントラクター(システム統合)、そしてAWSやMicrosoftなどのクラウドインフラ企業が連携する、新たな「防衛AI産業基盤」の形成を促している 4。これは、AIが実験段階から、実際の指揮統制(C2)システムや意思決定支援ツールへ組み込まれる、本格的な実装フェーズに入ったことを示している 1
  3. 地政学的触媒としての役割: ディフェンスLlamaの登場は、中国人民解放軍(PLA)関係の研究者がMetaのオープンソースモデルを軍事応用に無断で転用していたという報道が直接的な引き金となっている 7。この出来事は、オープンソース技術のライセンスによる利用制限が国家主体に対して無力であることを露呈させ、Metaのポリシー転換を促した。結果として、米国の技術が競合国によって軍事利用される一方で、自国の防衛コミュニティが利用できないという非対称性を是正する必要性が生じた。
  4. 多層的なリスクの存在: ディフェンスLlamaは多大な可能性を秘める一方、深刻なリスクも内包している。プロンプトインジェクションのような技術的脆弱性は、誤った情報(ハルシネーション)の生成といった運用上のリスクを引き起こし、最終的には意図しない紛争のエスカレーションという戦略的リスクに繋がりうる 10。特に、AIの判断によって生じた結果に対する責任の所在が不明確になる「アカウンタビリティ・ギャップ(責任の空白)」は、自律型AI兵器への移行を阻む、最も重大な倫理的・法的課題である 13
  5. 将来の展望: 現在のディフェンスLlamaのような大規模な集中型モデルは、戦術的エッジ(現場の最前線)での利用を目指す、より小型で効率的な「エッジLLM」への移行期における重要な技術と位置づけられる 15。今後の競争優位性は、モデルの規模ではなく、新たなデータを迅速かつ安全にモデルに反映させるMLOps(機械学習オペレーション)パイプラインの優劣によって決まるだろう。NATOなどの同盟関係においては、各国が開発するAIの相互運用性を確保するための共通基準(倫理原則、技術標準)の策定が極めて重要となる 17

戦略的提言:

  • 国防・情報機関関係者へ: AIの出力に対する批判的な評価能力を持つ人材の育成、およびAIシステムに対する徹底的なレッドチーミング(敵対的テスト)の実施を最優先すべきである。
  • 技術開発者・政策立案者へ: 「エッジLLM」の研究開発を加速させるとともに、「アカウンタビリティ・ギャップ」を埋めるための新たな法的・政策的枠組みの構築に早急に着手する必要がある。

ディフェンスLlamaの登場は、21世紀の国家安全保障におけるAIの役割を決定づける出来事である。この新技術がもたらす変革の機会を最大限に活用しつつ、その深刻なリスクを管理できるかどうかが、今後の戦略的優位性を左右するだろう。


## セクション1:ディフェンスLlamaの解剖:目的特化型軍事AI

本セクションでは、ディフェンスLlamaを技術的産物として分解し、それが何であり、どのように構築され、何を目的として設計されたのかについての基礎的な理解を確立する。本モデルを商用モデルと区別し、国家安全保障のための独自のツールとしての位置づけを明確にする。

### 1.1. 創世記:Scale AIとMetaの協業

2024年11月、AIデータ企業のScale AIは、テクノロジー大手Metaとの協業を発表し、米国の国家安全保障ミッションを支援するために特別にカスタマイズ・微調整された大規模言語モデル(LLM)、「ディフェンスLlama」を公開した 1。この協業は、大手テック企業が自社の最先端オープンソースモデルを軍事用途に転用するため、防衛専門のAI企業と公式に提携するという画期的な出来事である。これは、これまで軍事応用への直接的な関与に消極的であったテック業界の姿勢からの大きな転換点を示す 8

このパートナーシップの戦略的意図は、両社の幹部の発言からも明らかである。Metaの最高戦略責任者であるデビッド・ウェーナー氏は、「我々のオープンソースLlamaモデルは、米国の安全とセキュリティを支援し、我が国が世界的に競争力を維持する上で絶大な可能性を秘めている」と述べ、Scale AIのような企業との提携がそのビジョンを前進させるとの期待を表明した 1。同様に、Scale AIのCEOであるアレクサンダー・ワン氏も、「米国の国家安全保障を支援することは、我々がScaleで行う仕事の重要な要素である。ディフェンスLlamaにより、我々の軍人は生成AIを特定の任務ニーズにより良く活用できるようになった」と述べ、この技術が米国の防衛能力向上に直接貢献するものであることを強調した 1

### 1.2. 技術アーキテクチャ:Llama 3から専門防衛ツールへ

ディフェンスLlamaは、Metaが開発したLlama 3基盤モデル上に構築されている 1。Llama 3の選択は戦略的に重要である。このモデルは「主要なオープンソースLLM」と評され、その能力は「最高のクローズドソースモデルに匹敵する」とされている 1。これにより、米国防衛コミュニティは、GPT-4のようなプロプライエタリ(専有)システムの「ブラックボックス」的な性質を回避しつつ、高性能で最先端のベースラインモデルを適応させることが可能となった 10

Llama 3のオープンソース(より正確には「オープンウェイト」)の性質は、防衛応用において特に重要な利点をもたらす。ソースコードやモデルの重みが公開されているため、透明性が高く、特定の任務に合わせた深いカスタマイズが可能であり、セキュリティ監査も容易になる 25。これにより、機密情報を扱う環境での運用において、外部のプロプライエタリAPIに依存するリスクを排除できる。

### 1.3. 微調整(ファインチューニング)プロセス:戦争の言語の学習

ディフェンスLlamaを汎用モデルから軍事専門ツールへと昇華させているのは、その特殊な微調整プロセスである。Scale AIは、独自の「データエンジン」を活用し、ディフェンスLlamaのパラメータを構成した 1。このプロセスで使用されたデータセットは、膨大かつ高度に専門化されている。具体的には、軍事ドクトリン、国際人道法(IHL)、武力紛争に関する国防総省(DoD)のガイドライン、そしてDoDのAI倫理原則に整合するよう設計された関連ポリシーが含まれている 1

技術的には、この微調整プロセスは「教師あり微調整(Supervised Fine-Tuning, SFT)」と「人間のフィードバックによる強化学習(Reinforcement Learning with Human Feedback, RLHF)」という2つの主要な手法を組み合わせている 2。特にRLHFのプロセスでは、既存の情報コミュニティのスタイルガイドに基づき、専門家が好ましい応答形式をモデルに教え込むことで、そのトーンと応答形式を形成した 2

このプロセスこそが、ディフェンスLlamaを本質的に特徴づけるものである。このモデルは単に軍事的な事実を記憶しているわけではない。米国の軍事・情報コミュニティ特有の文化的・運用的な文脈の中で「思考」し、「対話」するように訓練されているのである。初期段階から国際人道法やDoDの倫理原則を学習データに組み込むことは、モデルの行動を米国の法的・倫理的基準に合致させるための意図的な設計であり、「コンプライアンス・バイ・デザイン」を実現しようとする戦略的な試みである 1。これにより、将来的に軍事AIが直面するであろう厳しい倫理的・法的精査に先手を打つことが可能となり、これは米国の軍事AI開発における新たな標準を確立する可能性がある。単なる性能競争ではなく、責任ある開発という規範的側面で他国との差別化を図る狙いも見て取れる。

### 1.4. 中核的能力:ミッション特化タスクのための商用モデルの限界克服

ディフェンスLlama開発の主要な動機の一つは、商用LLMが内蔵された安全フィルターのために軍事関連の質問への回答をしばしば「拒否」するという問題であった 2。これらの汎用モデルは、一般市民向けの責任ある利用を確保するため、戦争計画やその他の機微な主題に関するプロンプトに応答しないように設計されている。

ディフェンスLlamaは、これらの応答拒否を最小限に抑え、軍事計画や敵性分析に関するプロンプトに対して、実用的で関連性の高い応答を提供するように特別に設計されている 2。例えば、「軍事計画担当者として、硬化構造物を破壊しつつ、近隣の民間施設への副次的損害を最小限に抑えるために、どの弾薬を選択すべきか?」という問いに対し、商用モデルが回答を拒否する可能性があるのに対し、ディフェンスLlamaは「標的の硬度、民間施設からの距離、環境特性、時間的制約」といった考慮すべき要素を詳述する応答を生成できる 2

このモデルは、軍事・諜報作戦の計画、標的分析、敵の脆弱性の理解といったタスクを支援するために設計されている 1。計画担当者が、敵が米軍基地をどのように攻撃するかを探り、対抗策を考案するのを助けることができる 1。さらに、その応答が国家情報長官室(ODNI)の書式やトーンに準拠している点も重要な特徴であり、これにより利用者にとっての実用性と信頼性が向上する 1

この能力は、AIが単なる情報検索ツールから、既存の組織的ワークフローにシームレスに統合可能な「思考パートナー」へと進化したことを示している。生成されるテキストが、人間の大幅な手直しなしに、ブリーフィング資料や作戦計画、情報報告書として即座に利用可能になることを目指している。この実用性の高さは、AIの利用を促進し、さらなるフィードバックを生み出し、モデルの継続的な改善(RLHF)を可能にする。この「フライホイール効果」は、防衛エコシステム内でのAIの採用と不可欠性を加速させ、技術的な経路依存性を生み出す可能性がある。

### 1.5. Scale Donovanプラットフォーム:安全な配備のための制御された環境

ディフェンスLlamaは、Scale AIが提供する「Scale Donovan」プラットフォーム内の、管理された米国政府環境でのみ利用可能である 1。この排他的なアクセス方法は、軍事におけるAI利用の最も重要な懸念事項であるセキュリティに対処するためのものである。

モデルを管理された、エアギャップされた、あるいは安全な政府ハブ内でホストすることにより、Scale AIは機密情報や機微なクエリがパブリックインターネットに漏洩することを防ぎ、安全な境界内に留めることを保証する 25。これは、パブリックなプロプライエタリAPIを利用する場合と比較して、カスタマイズ可能なオープンモデルを利用する際の決定的な利点である。米陸軍も同様の戦略を追求しており、「Army Enterprise LLM Workspace」を「cArmy Cloud」と呼ばれる安全なクラウド環境でホストしている 28。このアプローチは、最先端のAI能力を活用しつつ、国家安全保障に関わるデータの機密性を維持するための必須要件となっている。

表1:ディフェンスLlamaと商用LLMの比較分析

特徴商用LLM(例:標準GPT-4/Llama 3)ディフェンスLlama
基盤モデルLlama 3, GPT-4などLlama 3
訓練データ一般的なウェブクロール、書籍など一般データ + 専門コーパス(軍事ドクトリン、IHL、DoDポリシー)1
軍事プロンプトへの応答安全フィルターによる頻繁な「拒否」2応答拒否を最小化し、実用的な回答を提供するよう設計 2
トーンとスタイル一般的、しばしば非公式または対話的 2ODNI/ICの公式スタイルガイドに準拠 1
配備環境パブリッククラウドAPI 10安全な管理下にある政府環境(Scale Donovan)1
主要目的幅広い聴衆向けの汎用支援防衛・情報専門家向けのミッション特化型支援 1
倫理的整合性一般向けの広範な「危害を加えない」原則DoD倫理原則およびIHLとの特定の整合性 1

## セクション2:戦略的エコシステム:同盟と統合

本セクションでは、ディフェンスLlamaを中心に形成されつつある産業界と政府の新たなエコシステムを概観する。これは、ディフェンスLlamaの開発が孤立した事象ではなく、AIを中心とした新たな防衛能力を構築するための協調的な戦略的取り組みであることを示している。

### 2.1. プライムコントラクターの役割:ロッキード・マーティン、パランティア、アンドゥリル

ディフェンスLlamaを取り巻くエコシステムの中心には、米国の主要な防衛プライムコントラクターが存在する。Metaとそのパートナーは、ロッキード・マーティン、パランティア、アンドゥリルといった企業を協力者として公式に指名している 4

特にロッキード・マーティンは、Llamaモデルを自社の「AIファクトリー」に統合し、4万人以上の従業員が利用する「LMText Navigator」ツールに組み込んでいる 5。このツールは、オンプレミス環境で大量のデータを安全に処理し、国家安全保障顧客向けの能力開発と生産を加速させることを目的としている 5

これらの防衛大手の関与は、Llamaベースのモデルが単なる実験段階を越え、正式な防衛調達・統合パイプラインへと移行しつつあることを示す重要な指標である。これらの企業は、ミッションに関する深い専門知識、既存のプラットフォーム(指揮統制システムなど)、そして技術を大規模に展開するために不可欠な顧客との関係を提供している 1。データ分析で防衛・情報分野に深く根ざしているパランティアの参加も、このエコシステムの重要性をさらに高めている 2

### 2.2. クラウドとエンタープライズインフラ:AWS、Microsoft、IBM、Oracle

この取り組みは、防衛プライムコントラクターだけでなく、主要なクラウドおよびエンタープライズ技術企業も巻き込んでいる。Amazon Web Services (AWS)、Microsoft、IBM、Oracleといった巨大企業が、このエコシステムのインフラ層を支えている 4

具体的には、AWSとMicrosoft Azureは、機密性の高い政府データ向けに設計されたセキュアなクラウドプラットフォーム上でLlamaモデルをホストする 6。IBMは、自己管理型のデータセンターを通じてLlamaを国家安全保障機関に直接提供し、OracleはLlamaを活用して航空機の整備文書を統合し、修理時間を短縮するシステムを開発している 4

これは、単一のモデルを提供するだけでなく、国防総省がすでに利用している信頼性の高いセキュアなクラウドやオンプレミス環境を通じて、そのモデルをアクセス可能にするという多角的な展開戦略を示している。これにより、導入の大きな障壁が取り除かれ、広範な利用が促進される。

### 2.3. 防衛システムへの統合:指揮統制、諜報、意思決定支援

ディフェンスLlamaの最終的な目標は、軍の運用ワークフローに直接組み込まれることである。このモデルは、指揮統制(C2)プラットフォーム、諜報分析ツール、意思決定支援システムへの統合を明確に意図して設計されている 1

これにより、生成AIは独立したチャットボットとして機能するのではなく、司令官や分析官が日常的に使用するシステムの内部機能となる。この統合は、データ統合と分析を自動化することで、OODAループ(Observe-Orient-Decide-Act)を短縮することを目的としている 15。従来、人手で作成されていたパワーポイントのスライドによる状況報告から、動的でリアルタイムな「意思決定優位環境」への移行を目指すものである 15

この動きは、新たな「防衛AI産業基盤」の形成を象徴している。この基盤は、基盤モデル提供者(Meta)、専門AIインテグレーター(Scale AI)、そして伝統的な防衛プライム(ロッキード・マーティンなど)という三位一体の構造を持つ。これは、エンジンメーカー、機体設計者、電子機器インテグレーターが複雑なエコシステムを形成して最終的な能力(例:戦闘機)を提供する航空宇宙産業の歴史的先例を彷彿とさせる。この新しい産業構造では、基盤モデルや微調整プロセスを支配する企業が大きな影響力を持つようになり、伝統的な防衛契約の階層構造を覆す可能性がある。

### 2.4. 広範なDoD AIイニシアチブとの関連付け

ディフェンスLlamaは孤立したプロジェクトではない。これは、生成AIを実用化しようとする国防総省全体の広範な動きの一部である。DoDは、最高データ・AIオフィス(CDAO)の下に「タスクフォース・リマ」のような組織を設立し、生成AIの低リスクな応用を探求し、実験のための「仮想サンドボックス」を構築している 12

並行して、米陸軍は「Army Enterprise LLM Workspace」を立ち上げた。これは、「Ask Sage」というサービスを基盤とし、安全な「cArmy Cloud」内で複数のモデル(オープンソースモデルを含む)を活用するSaaSプラットフォームである。このプラットフォームは、1週間で30万件の人事記述を再分類するなど、すでに具体的な成果を上げている 28。空軍の各部隊もまた、コーディング、管理業務、作戦シミュレーション、任務報告書の要約などのための概念実証(PoC)を開発している 12

これらの並行した取り組みは、各軍種から安全でカスタマイズされたLLM能力に対する明確な需要があることを示している。DoDは、応用層でのイノベーションを分散的に促進しつつ、セキュリティとインフラ層を厳格に一元化・標準化する戦略をとっているように見える。この「多くの花を咲かせよ」というアプローチは、各機関が自らの任務に特化したユースケースを探求することを可能にするが、長期的にはこれらの異なる「ウォールドガーデン(壁に囲まれた庭)」AIエコシステム間の相互運用性を確保するという課題を生む。統合全領域指揮統制(JADC2)のビジョンを実現するためには、この課題の克服が不可欠となる。

表2:ディフェンスLlamaエコシステムの主要ステークホルダーと役割

ステークホルダーカテゴリー企業/組織役割と貢献関連ソース
基盤モデル提供者Meta基盤となるLlama 3モデルを提供。防衛利用を許可するポリシー転換を実施。1
AI専門化・統合Scale AILlama 3をディフェンスLlamaに微調整。安全なDonovanプラットフォームを提供し、協業を主導。1
防衛プライムコントラクターロッキード・マーティン, パランティア, アンドゥリルLlama/ディフェンスLlamaを既存および新規の防衛システム(C2, AIファクトリー)に統合。ミッションの文脈を提供。4
エンタープライズ/クラウドインフラAWS, Microsoft, IBM, Oracle安全な政府認定クラウドおよびオンプレミス環境を提供。特定のアプリケーション(例:航空機整備)を開発。4
政府エンドユーザー/顧客国防総省(DoD), 情報コミュニティ(IC)要件を定義し、テスト環境(例:戦闘軍)を提供。需要を牽引し、倫理的枠組みを確立。1

## セクション3:地政学的触媒:オープンソースAI軍拡競争

本セクションでは、ディフェンスLlamaの開発を促した重要な地政学的背景を分析する。特に、Metaのポリシー転換と、中華人民共和国(PRC)との戦略的競争が果たした役割に焦点を当てる。

### 3.1. Metaのポリシー転換:禁止から戦略的支援へ

かつてMetaのLlama 2に関する利用規約は、その利用を「軍事、戦争、核産業または応用、諜報活動」において明確に禁止していた 8。この規定は、解釈の余地はあったものの、兵器化に対する明確な反対姿勢を示すものであった 22

しかし、2024年11月に発表された大きな方針転換により、Metaは米国政府およびその契約業者が国家安全保障目的でLlamaモデルを使用することを明確に許可した 4。Metaのグローバル問題担当プレジデントであるニック・クレッグ氏は、この変更が「米国の繁栄と安全を支援する」ためであると述べている 5。これは、大手テック企業が中立または回避的な立場から、米国の国家安全保障上の利益と積極的に連携する立場へと移行したことを示す、極めて重要な進展である。

### 3.2. 中国要因:PLAによるLlamaの改作が西側の行動をいかに促したか

Metaの方針転換の直接的な引き金となったのは、中国人民解放軍(PLA)と関係のある中国の研究者らが、MetaのオープンソースLlamaモデルを軍事応用に改作し、「ChatBIT」と呼ばれるモデルを開発したという報道であった 7

この利用はMetaのLlama 2利用規約に違反する無許可のものであった 8。ChatBITは、旧式のLlama 13Bモデルを基に、軍事対話、情報収集、状況分析に最適化されたと報告されている 7。PRCの研究者らは、軍事専門のデータセット構築や、Low-Rank Adaptation(LoRA)といった技術を用いて、Llamaを軍事用語や電子戦支援などの任務に効率的に微調整する手法を積極的に探求していた 7

Metaの方針転換のタイミングは、これらの事実が明らかになったことと直接関連している 6。PLAによる無許可の利用は、ライセンスによる利用制限が、意志の固い国家主体に対しては強制力を持たないことを証明した。これにより、米国の技術が戦略的競争相手によって軍事利用される一方で、米国の防衛コミュニティはその利用を禁じられるという、容認しがたい非対称的な状況が生まれた。この地政学的現実が、Metaの決断を不可避なものにしたのである。「危害を加えない」という方針が、意図せずして米国の戦略的利益を損なう結果を招いたため、Metaは中立的なプラットフォームであり続けるか、国家安全保障を支援する連携パートナーとなるかの選択を迫られた。PRCの行動が、この選択を強制したと言える。

### 3.3. オープンソースモデルのデュアルユースのジレンマ

Llamaの「オープンソース」という性質は、イノベーションを促進する一方で、利用制限の強制をほぼ不可能にするという、典型的なデュアルユース(軍民両用)技術の問題を内包している 7

Metaは、オープンソース化が安全性とイノベーションを促進し、LinuxやAndroidのように米国のモデルが世界的な標準となることで、米国の経済的・安全保障上の利益に資すると主張している 4。これは、技術的リーダーシップを維持するための戦略的な賭けである。

しかし、このアプローチに対しては、敵対国に米国の先進技術へのアクセスを与えるという懸念が議員などから表明されている。この懸念は、RISC-Vのような他のオープンソース技術にも及んでいる 9。オープンソース化による協力的な進歩と、敵対者による悪用のリスクとの間の緊張関係は、国家安全保障における技術政策の中心的な課題であり続けている。

### 3.4. 軍用LLM開発における米中アプローチの比較分析

米国と中国の軍用LLM開発アプローチには、顕著な違いが見られる。ディフェンスLlamaに代表される米国のアプローチは、テック大手と防衛コントラクター間の公式な官民パートナーシップを特徴とし、倫理的なガードレールを重視している 1

一方、中国のアプローチは、人民解放軍の軍事科学院のような国家運営の研究機関が、西側の公開されているオープンソースモデルを、しばしばライセンス条項に違反して改作するという形をとっているように見える 7。PLAの公式ドクトリンは「人間が計画し、AIが実行する」モデルを強調しているが、同時に「智能化(intelligentization)」への強い推進力も示している 36。さらに、中国はTencentのHunyuan-LargeやDeepSeekのモデルなど、独自の強力な国産モデルも開発しており、これらはすでにPLAの非戦闘支援機能で実験的に使用されている 8

この競争は、単に最高の基盤モデルを持つ者が勝つのではなく、それを最も効果的に「適応させ、保護できる」者が勝つという様相を呈している。中国は旧式のLlamaモデルからChatBITを開発したが、米国は最新のLlama 3を使用している 1。しかし、真の競争は、微調整、専門データセットの作成、安全な配備環境の開発といった「ラストマイル」にある。長期的な戦略的優位性は、これらのモデルを特定の軍事タスクに合わせて迅速かつ安全にテスト、評価、微調整、配備できるエコシステムを持つ国にもたらされるだろう。これは、AI製品そのものよりも、それを生み出す「AIファクトリー」、すなわちMLOpsパイプライン全体の重要性を高めるものである。

## セクション4:リスク計算:運用上、技術上、倫理上の脆弱性

本セクションでは、ディフェンスLlamaのようなLLMを国家安全保障というハイステークスな環境に配備することに伴う多面的なリスクを包括的に評価する。技術的な脆弱性が、いかにして運用上の失敗や戦略的な結果に繋がりうるかを明らかにする。

### 4.1. 技術的およびサイバーセキュリティ上の脅威(防衛文脈におけるOWASP LLMトップ10)

LLMは、その構造上、様々な攻撃に対して脆弱である。これらのリスクは、世界的なサイバーセキュリティ専門家コミュニティであるOWASP(Open Web Application Security Project)によって「LLMトップ10」として体系化されており、防衛分野においてはその影響が著しく増幅される。

主要な脅威の一つはプロンプトインジェクションである。これは、入力に隠された悪意のある指示によって、モデルにデータ漏洩や意図しない行動を実行させる攻撃であり、OWASPのリスクリストの第1位に挙げられている 10。防衛文脈では、指揮統制(C2)システムに対するプロンプトインジェクション攻撃が作戦計画を改ざんしたり、一見無害なクエリを通じて機密情報を漏洩させたりする可能性がある。

データ漏洩も重大な懸念事項である 10。プロンプトや微調整に使用された機密情報が意図せず外部に流出するリスクを指す。ディフェンスLlamaのようにオンプレミスで配備することでこのリスクは大幅に軽減されるが、システム境界内での内部脅威や設定ミスによるリスクは依然として残る。

その他のリスクとして、モデルの出力が適切に検証されずに下流のシステムで悪用される安全でない出力処理 41、LLMが幻覚(ハルシネーション)を起こして悪意のあるコードパッケージを提案する

スロップスクワッティング 10、そしてオープンソースモデルの配布チャネルにおける

サプライチェーンの脆弱性 43 などが挙げられる。これらの技術的脆弱性は、単独の問題ではなく、連鎖的に深刻な事態を引き起こす可能性がある。

表4:OWASPトップ10 LLMリスクと防衛特有の影響

OWASPリスク一般的な説明防衛/情報分野における文脈と結果
LLM01: プロンプトインジェクション悪意のあるプロンプトでLLMを騙す 41C2システムを操作して偽の戦闘計画を生成させる。機密データを漏洩させる 42
LLM02: 安全でない出力処理モデルの出力を無検証で利用する 41LLMが生成した脆弱なコードが重要インフラの制御システムに組み込まれる。
LLM03: 訓練データの汚染訓練データを改ざんし、脆弱性を埋め込む敵が軍事ドクトリンデータを微妙に汚染し、危機的状況でLLMに欠陥のある戦術を推奨させる。
LLM04: モデルのサービス拒否リソースを大量消費するクエリでモデルを過負荷にする重要な作戦ウィンドウ中に、時間的制約のある意思決定支援ツールを機能不全に陥らせる。
LLM05: サプライチェーンの脆弱性侵害されたサードパーティコンポーネントを使用する 10基盤となるオープンソースモデル(Llamaなど)の脆弱性が、ディフェンスLlamaを含む全ての派生システムで悪用される。
LLM06: 機密情報の漏洩モデルの応答から機密訓練データを推測する敵がモデルの応答パターンを分析し、訓練に使用された機密作戦計画の詳細を推測する。
LLM07: 安全でないプラグイン設計権限が過大なプラグインを介してシステムを侵害するLLMに接続された兵站管理プラグインが悪用され、物資の供給を妨害または誤誘導する。
LLM08: 過度なエージェンシーLLMに与えられた過剰な権限が悪用される自律的な作戦計画権限を持つAIが、誤った情報に基づき、交戦規則に違反する行動を承認する。
LLM09: 過剰な信頼人間がLLMの出力を過信し、検証を怠る自動化バイアスにより、オペレーターがLLMの生成した欠陥のある標的リストを無批判に受け入れ、誤爆を引き起こす。
LLM10: モデルの窃盗モデルの重みやアーキテクチャを盗み出す敵がディフェンスLlamaのモデルを盗み、その能力を分析・複製し、対抗策を開発する。

### 4.2. 運用上のリスク:ハルシネーション、バイアス、軍事的意思決定の完全性

技術的脆弱性に加え、LLM固有の性質がもたらす運用上のリスクも深刻である。その筆頭が「ハルシネーション(幻覚)」、すなわち、もっともらしいが事実ではない情報を生成する現象である 12。軍事文脈において、情報報告書の要約にハルシネーションが含まれていた場合、それが上級指揮官の意思決定に影響を与えれば、「壊滅的な」結果を招きかねない 12

次に、訓練データに内在する「バイアス」の問題がある 29。これは、偏った脅威評価や不適切なリソース配分といった形で現れ、任務の成功や人員の安全を危険に晒す可能性がある 29。ディフェンスLlamaは軍事ドクトリンで微調整されているものの、LLM技術のこの根本的な欠陥から完全に自由なわけではない。

これらのリスクは、「リスクの連鎖」という概念で理解することができる。技術的な脆弱性(例:プロンプトインジェクション)が、運用上の失敗(例:ハルシネーションの誘発)を引き起こし、それが自動化バイアスに陥った人間のオペレーターによる誤った判断に繋がり、最終的に地政学的な危機において意図しないエスカレーションを招くという連鎖である。これは、軍用LLMのサイバーセキュリティが単なるデータ保護の問題ではなく、戦略的安定性に関わる死活問題であることを意味する。

### 4.3. 戦略的リスク:ウォーゲームシミュレーションと意図しないエスカレーションの可能性

LLMの軍事利用がもたらす最も深刻なリスクの一つは、意図しない紛争のエスカレーションである。スタンフォード大学が実施したウォーゲームシミュレーションでは、紛争シナリオにおいて自律的な意思決定権を与えられたLLMベースのエージェントが、「予測困難でエスカレートしやすい行動」を示すことが明らかになった 11

シミュレーションに参加した全てのモデルは、緊張緩和よりも軍事力への投資を優先する「軍拡競争ダイナミクス」を示し、一部のケースでは核兵器の使用を選択するという衝撃的な結果となった 11。この研究は、自律的なAIエージェントにハイステークスな戦略的決定を委ねることが、アルゴリズムによって駆動される現代版「博士の異常な愛情」シナリオ、すなわち壊滅的で予測不可能なエスカレーションを引き起こす可能性があるという重大な警告を発している。

興味深いことに、この研究では、最もエスカレートしやすい行動を示したモデルが、安全性のためのRLHFによる調整を受けていなかった唯一のモデルであったことも指摘されている 11。これは、ディフェンスLlamaで用いられているような微調整技術が、リスクを抑制する上で極めて重要であることを示唆している。しかし、現在のディフェンスLlamaは意思決定支援ツールであるが、AI技術の発展の先にはより高度な自律性がある。その時、このエスカレーションリスクは現実的な脅威となる。

### 4.4. 倫理的・法的フロンティア:AIと国際人道法・DoD原則の調和

AIの軍事利用は、正戦論や、国際人道法(IHL)における区別原則・均衡性原則といった長年の倫理的枠組みに新たな挑戦を突きつけている 14

中心的な問題は、「責任と説明責任の希薄化」である 13。AIシステムが過ちを犯した際、その道徳的・法的責任を誰に帰属させるかは極めて困難である。AIの「ブラックボックス」性、分散した開発プロセス、そして意図せざる創発的な振る舞いは、責任の所在を曖昧にする。「犯罪は抽象的な実体ではなく、人間によって犯される」というニュルンベルク原則は、AIの時代において深刻な挑戦に直面している 14

また、「自動化バイアス」のリスクも存在する。これは、人間のオペレーターがAIの勧告に過度に依存し、自らの道徳的判断力や倫理的意思決定能力が弱まる現象である 47。重要な問いは、「システムが間違いを犯していると気づいた時、我々は своевременноかつ効果的にプラグを抜くことができるのか?そして、その間違いに気づく訓練を受けた人材がいるのか?」ということである 14

この問題は「アカウンタビリティ・ギャップ(責任の空白)」として要約できる。技術は自律性に向かって進歩しているが、IHLから国内法に至るまでの法的・倫理的枠組みは、人間の意図と個人の責任を前提としている。このギャップは、自律型致死兵器システム(LAWS)の配備に対する実践的な障壁となる可能性がある。法を遵守する西側諸国が倫理的・法的に制約される一方で、そのような枠組みを意に介さない権威主義的な体制が自律システムを配備できるという非対称性が生じる恐れがある。したがって、アカウンタビリティの問題を解決する競争は、技術そのものを開発する競争と同じくらい重要である。

## セクション5:軍事AIの将来軌道

本セクションでは、これまでの分析結果を統合し、ディフェンスLlamaという個別の事例を超えて、現代戦を形成するより広範な戦略的・技術的トレンドの中で、防衛におけるLLMの将来的な進化を展望する。

### 5.1. 人間と機械のチーミングの進化:意思決定支援から自律エージェントへ

現在、ディフェンスLlamaのようなLLMは、人間の能力を代替するのではなく、増強するための意思決定支援ツールとして位置づけられている 12。このアプローチは、人間の判断をループの中心に置き、データから意思決定までの時間を短縮し、OODAループを高速化することを目的としている 15。LLMは、参謀業務の「骨の折れる作業」を自動化し、人間をより高次の戦略的思考に集中させることができる 2。中国人民解放軍のドクトリンも、「人間が計画し、AIが実行する」というモデルを反映しており、同様の思想が見られる 36

しかし、技術の発展の先には、より自律的なシステムの出現が予測される。これには、人間がループに関与する半自律的なシステム(Human-on-the-Loop)から、人間の介在なしに動作する完全自律的なシステム(Human-out-of-the-Loop)までが含まれる。特に、高速で展開する紛争において優位性を維持するためには、このような自律システムの導入が不可欠になると考えられている 16。ディフェンスLlamaは意思決定支援における現在の最先端を示すが、次の開発フェーズではAIにより多くの主体性を与えることに焦点が当てられるだろう。これは、セクション4で詳述したエスカレーションやアカウンタビリティのリスクを、より現実的な課題として浮き彫りにする。

### 5.2. 戦術的エッジへの推進:小型・ローカルLLMの未来

軍事AIにおける主要なトレンドの一つは、「エッジAI」への移行である。これは、クラウドから切り離された現場の最前線、すなわち戦術的エッジで、ラップトップ、ドローン、ウェアラブル端末などのデバイス上で直接AIモデルを実行する概念を指す 15

このビジョンを実現するためには、データセンター規模の巨大なモデルではなく、処理能力が限られたハードウェア上で動作する、より小型で効率的なモデルが必要となる 15。研究者たちは、MPT-7bやFalcon-7bといった比較的小規模なモデルを用いて、この方向性の探求をすでに始めている 12

ディフェンスLlamaは強力なツールであるが、その運用は安全ではあるものの中央集権的なDonovanプラットフォームに依存している。これは、前線に展開する部隊にとっては制約となる。将来の戦争におけるAIの真価は、ネットワーク接続が不安定または存在しない戦術的エッジの兵士に、この能力を直接提供できるかどうかにかかっている。現在の集中型LLMは、この未来を実現するための過渡的な段階と見なすことができる。DoDがディフェンスLlamaの開発と運用を通じて得たデータセット、微調整技術、ユーザーインターフェースに関する知見は、次世代の小型で分散可能な「エッジLLM」を創出するための貴重な基盤となるだろう。

### 5.3. MLOpsパイプライン:迅速かつ安全な展開のための開発標準化

将来の戦場では、AIモデルは静的なものではなく、現場で得られた新しいデータに基づいてほぼリアルタイムで更新される必要がある。この要求に応えるためには、戦術的エッジでモデルを迅速かつ柔軟に更新し、再配備する能力が不可欠となる 16

これを実現する鍵は、設計、テストから統合、監視に至るまでのライフサイクル全体を効率化する、標準化され、信頼できるMLOps(機械学習オペレーション)パイプラインの構築である 16。このアプローチは、軍全体で推進されているモジュラー・オープン・システム・アーキテクチャ(MOSA)の理念とも一致する 16。将来の戦略的優位性は、単に優れたAIモデルを保有することではなく、このMLOpsパイプラインを習得し、戦術的エッジでの迅速な適応を可能にする国家にもたらされるだろう。

### 5.4. NATOと同盟国の視点:現代戦におけるAI

NATOは、AIを現代戦の中核的要素と捉え、その活用とガバナンスに関する戦略を積極的に推進している。2021年に初めて採択され、2024年に改訂されたNATOのAI戦略は、6つの「責任ある利用の原則(PRUs)」を定めている。これらは、合法性、責任と説明責任、説明可能性と追跡可能性、信頼性、統制可能性、そしてバイアス緩和から構成される 17

NATOの目標は、「2030年までにデジタル変革を遂げた、データ駆動型の多領域作戦対応同盟」となることである 52。このビジョンを実現するため、機密ネットワーク上で動作するAIDA(AIデジタルアシスタント)チャットボットや、ウォーゲーミングにおけるAIの活用といった具体的な取り組みが進められている 52

しかし、同盟としてのAI活用には大きな課題も存在する。加盟国間で開発されるAIシステムの相互運用性の確保、各国の規制アプローチの違いの調整、そしてこれらのイニシアチブへの資金提供などがその例である 17

ディフェンスLlamaの開発は、NATOの戦略的方向性と一致するものであるが、同時に相互運用性の課題を浮き彫りにする。このシステムが連合軍環境で効果的に機能するためには、同盟国がアクセスできるか、あるいは互換性のある信頼された独自のシステムを保有する必要がある。この文脈において、NATOの役割は単一の「NATO AI」を構築することではなく、むしろ各国のAIが協調して機能するための「ロゼッタストーン」を創り出すことにある。NATOが定める責任ある利用の原則や認証基準は、単なる倫理指針ではなく、技術的・規範的な相互運用性のための枠組みとなる。この共通のルールと信頼の枠組みに従わない同盟国のAIシステムは、将来の紛争において重要なデータ共有や作戦ループから排除される可能性があり、この枠組みはAI時代における同盟の結束を維持するための重要なツールとなるだろう。

## セクション6:詳細分析と戦略的提言

本最終セクションでは、これまでの分析を統合し、国防・情報機関の上級指導者、政策立案者、産業界の幹部といった対象読者に向けて、高次の戦略的見解と実行可能な提言を提示する。

### 6.1. 分析結果の統合:防衛LLMの変革的かつ不安定化させる可能性

ディフェンスLlamaの出現は、軍事AIにおけるパラダイムシフトを告げるものである。その開発は地政学的競争によって加速され、テクノロジー企業と防衛産業の間に新たなエコシステムを形成した。この技術は、意思決定プロセスを劇的に加速させる変革的な可能性を秘めている。

しかし、その一方で、ディフェンスLlamaは多層的なリスクを内包している。技術的な脆弱性は運用上の失敗に繋がり、それが戦略的な不安定化を引き起こす可能性がある。特に、自律システムの行動に対する責任の所在が不明確になる「アカウンタビリティ・ギャップ」は、AIの軍事利用を倫理的・法的に制約する最も重大な長期的課題である。この技術がもたらす機会とリスクをいかに管理するかが、21世紀の国家安全保障における中心的な課題となる。

### 6.2. 国防・情報機関関係者(エンドユーザー)への提言

  • 提言1:敵対的テストの積極的推進
    配備される全てのLLMに対し、技術的悪用から戦略的結果に至る「リスクの連鎖」に焦点を当てた、徹底的な「レッドチーミング」および敵対的テストを積極的に追求すべきである。これは、システムの脆弱性を特定し、実際の運用環境における回復力を確保するための不可欠なプロセスである。
  • 提言2:批判的評価能力を持つ人材の育成
    AIの利用者に留まらず、その出力を批判的に評価し、バイアスやハルシネーション、潜在的な誤りを特定し、必要に応じてAIの勧告を覆す権限を与えられた、新たな人材層の育成に重点的に投資すべきである。AIはツールであり、最終的な判断は訓練された人間の専門家によってなされるべきである。
  • 提言3:相互運用性の確保
    将来的に各軍種や同盟国間でAIシステムが連携できるよう、堅牢なMLOpsパイプラインと共通のデータ標準の開発を推進すべきである。これにより、サイロ化した「AIの封建領地」が形成されるのを防ぎ、真の統合全領域作戦能力の実現に貢献する。

### 6.3. 技術開発者・政策立案者(イネーブラー)への提言

  • 提言1:エッジLLMへの研究開発の優先
    中央集権型のモデルは過渡的な段階であると認識し、より小型で効率的な「エッジLLM」と、それを実行するためのハードウェアの研究開発を優先すべきである。これにより、戦術の最前線で活動する兵士に直接的なAI能力を提供することが可能になる。
  • 提言2:国際的な規範形成への積極的関与
    「コンプライアンス・バイ・デザイン」(IHLや倫理原則をモデルに組み込む)アプローチを戦略的てことして活用し、軍事AIに関する規範と基準を確立するため、国際的なフォーラムに積極的に関与すべきである。これにより、責任あるAI利用における米国のリーダーシップを確立し、同盟国との連携を強化する。
  • 提言3:アカウンタビリティ・ギャップへの早急な対応
    自律システムの行動に対する責任を明確に帰属させることができる、新たな法的・政策的枠組みの開発に緊急に取り組むべきである。これは、次世代のAIを戦争において倫理的に配備するための前提条件であり、この問題の解決なくして自律性の高いシステムの導入は進められない。

### 6.4. 国家安全保障におけるAIの将来に関する結論的展望

ディフェンスLlamaの開発は、単なる技術的な進歩ではない。それは一つの転換点である。この出来事はAI軍拡競争を加速させ、防衛産業基盤を再編し、シリコンバレーと国家安全保障コミュニティの間に、より直接的で不可分な関係を強いることになった。

この新たなパラダイムがもたらす計り知れない機会と深刻なリスクを巧みに航行し、技術的加速と倫理的厳格さ、そして戦略的先見性のバランスを取ることに成功した国家が、21世紀の紛争における決定的な優位性を獲得するであろう。ディフェンスLlamaは、その長く、複雑で、そして極めて重要な道のりの始まりに過ぎない。

引用文献

  1. Introducing Defense Llama | Scale https://scale.com/blog/defense-llama
  2. Scale AI unveils ‘Defense Llama’ large language model for national … https://defensescoop.com/2024/11/04/scale-ai-unveils-defense-llama-large-language-model-llm-national-security-users/
  3. Scale AI fine-tuned large language models for national security missions. Available exclusively on Scale Donovan https://scale.com/donovan/defense-llm
  4. Meta Allows Military AI Use – Perplexity https://www.perplexity.ai/page/meta-allows-military-ai-use-0kUVSgKsQNucsN7nnGksxw
  5. Lockheed Martin, Meta Collaborate on Large Language Models for … https://www.lockheedmartin.com/en-us/news/features/2024/Lockheed-Martin-Meta-Collaborate-on-Large-Language-Models-for-National-Security-Applications.html
  6. Meta Opens Llama AI Model to US Military, Defense Contractors – Maginative https://www.maginative.com/article/meta-opens-llama-ai-model-to-us-military-defense-contractors/
  7. PRC Adapts Meta’s Llama for Military and Security AI Applications – The Jamestown Foundation https://jamestown.org/program/prcs-adaptation-of-open-source-llm-for-military-and-security-purposes/#!
  8. Meta changes its tune on defense use of its Llama AI – The Register https://www.theregister.com/2024/11/06/meta_weaponizing_llama_us/
  9. Chinese researchers build military AI using Meta’s open-source Llama model — ChatBIT allegedly performs at around 90% of the performance of OpenAI GPT-4 LLM | Tom’s Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-researchers-build-military-ai-using-metas-open-source-llama-model-chatbit-allegedly-performs-at-around-90-percent-of-the-performance-of-openai-gpt-4-llm
  10. The Hidden Security Risks of LLMs | Towards Data Science https://towardsdatascience.com/the-hidden-security-risks-of-llms/
  11. Escalation Risks from LLMs in Military and Diplomatic Contexts … https://hai.stanford.edu/policy-brief-escalation-risks-llms-military-and-diplomatic-contexts
  12. On Large Language Models in National Security Applications – AFIT Scholar https://scholar.afit.edu/cgi/viewcontent.cgi?article=2572&context=facpub
  13. www.oii.ox.ac.uk https://www.oii.ox.ac.uk/news-events/the-ethics-of-artificial-intelligence-in-defence/#:~:text=However%2C%20the%20use%20of%20AI,and%20erosion%20of%20self%2Ddetermination.
  14. The Ethics of Artificial Intelligence in Defence – OII https://www.oii.ox.ac.uk/news-events/the-ethics-of-artificial-intelligence-in-defence/
  15. For DOD, the future of large language models is smaller – Defense One https://www.defenseone.com/technology/2025/05/dod-future-large-language-models-smaller/405539/
  16. The future of AI in military operations and strategy – Latent AI https://latentai.com/blog/the-future-of-ai-in-military-operations-and-strategy/
  17. Algorithmic power, NATO and artificial intelligence https://www.iiss.org/ja-JP/online-analysis/military-balance/2021/11/algorithmic-power-nato-and-artificial-intelligence/
  18. Artificial Intelligence and Autonomy in the Military: An Overview of NATO Member States’ Strategies and Deployment – CCDCOE https://ccdcoe.org/library/publications/artificial-intelligence-and-autonomy-in-the-military-an-overview-of-nato-member-states-strategies-and-deployment/
  19. Scale AI launches Defense Llama – Intelligence Community News https://intelligencecommunitynews.com/scale-ai-launches-defense-llama/
  20. Scale AI and Meta Introduces Defense Llama: The LLM Purpose-Built for American National Security – MarkTechPost https://www.marktechpost.com/2024/11/06/scale-ai-and-meta-introduces-defense-llama-the-llm-purpose-built-for-american-national-security/
  21. Meta Loosens AI Rules for US Military Use – BankInfoSecurity https://www.bankinfosecurity.com/meta-loosens-ai-rules-for-us-military-use-a-26744
  22. Meta prohibits Department of Defense to use Llama2 | Hacker News https://news.ycombinator.com/item?id=37174277
  23. Scale AI’s Defense Llama: Secret Weapon Of National Security – NowadAIs https://www.nowadais.com/scale-ais-defense-llama-weapon-national-security/
  24. PRC Adapts Meta’s Llama for Military and Security AI Applications – Jamestown https://jamestown.org/program/prcs-adaptation-of-open-source-llm-for-military-and-security-purposes/
  25. The Strategic Power of Open-Source LLMs: Capabilities, Use Cases, and Future Outlook for Military and Civil Institutions Running Models Locally – Murat Karakaya Akademi https://www.muratkarakaya.net/2025/05/the-strategic-power-of-open-source-llms_28.html
  26. The Case for Open-Source Generative AI in Government – Booz Allen https://www.boozallen.com/insights/ai-research/the-case-for-open-source-generative-ai-in-government.html
  27. Defense Priorities in the Open-Source AI Debate – CSIS https://www.csis.org/analysis/defense-priorities-open-source-ai-debate
  28. Army launches Army Enterprise LLM Workspace, the revolutionary AI platform that wrote this article https://www.army.mil/article/285537/army_launches_army_enterprise_llm_workspace_the_revolutionary_ai_platform_that_wrote_this_article
  29. How large language models are transforming modern warfare https://www.japcc.org/wp-content/uploads/JAPCC_J37_Art-08_screen.pdf
  30. On Large Language Models in National Security Applications – arXiv https://arxiv.org/html/2407.03453v1
  31. The Army has rolled out a generative AI workspace to improve daily operations https://www.defenseone.com/defense-systems/2025/04/army-preparing-generative-ai-workspace-improve-daily-operations/404876/
  32. On Large Language Models in National Security Applications – arXiv https://arxiv.org/html/2407.03453v1?ref=hir.harvard.edu
  33. Creating an LLM from scratch for a defence use case. : r/LocalLLM – Reddit https://www.reddit.com/r/LocalLLM/comments/1hauaqr/creating_an_llm_from_scratch_for_a_defence_use/
  34. Chinese researchers develop AI model for military use on back of Meta’s Llama – Reddit https://www.reddit.com/r/OpenAI/comments/1ghejd5/chinese_researchers_develop_ai_model_for_military/
  35. Report: China Used Meta’s Open-Source AI Model to Develop Military Chatbot https://govconexec.com/2024/11/china-uses-meta-ai-tech-on-chatbit-military-tool/
  36. AI in Arms: China’s PLA Insists Human Decision-Makers Reign Supreme – OpenTools https://opentools.ai/news/ai-in-arms-chinas-pla-insists-human-decision-makers-reign-supreme
  37. Is the PLA Overestimating the Potential of Artificial Intelligence? – Digital Commons @ NDU https://digitalcommons.ndu.edu/cgi/viewcontent.cgi?article=1189&context=joint-force-quarterly
  38. A Critical Outlook on PLA’s AI Development Philosophy – ICS Research Blog https://icsin.org/blogs/2021/01/07/a-critical-outlook-on-plas-ai-development-philosophy/
  39. Military Artificial Intelligence, the People’s Liberation Army, and U.S.-China Strategic Competition | CNAS https://www.cnas.org/publications/congressional-testimony/military-artificial-intelligence-the-peoples-liberation-army-and-u-s-china-strategic-competition
  40. China reportedly using DeepSeek AI model to support its military … https://www.independent.co.uk/asia/china/deepseek-ai-chinese-military-pla-hospitals-b2720954.html
  41. LLM Security: Top 10 Risks and 5 Best Practices – Tigera.io https://www.tigera.io/learn/guides/llm-security/
  42. Military fortifies frontline against LLM AI – Public Spectrum https://publicspectrum.co/military-fortifies-frontline-against-llm-ai/
  43. Disadvantages of Open Source LLMs: Key Insights – Galileo AI https://galileo.ai/blog/disadvantages-open-source-llms
  44. How Large Language Models are Transforming Modern Warfare https://www.japcc.org/articles/how-large-language-models-are-transforming-modern-warfare/
  45. AI in War: LLMs ‘Develop Arms-Race Dynamics’ https://bisi.org.uk/reports/ai-in-war-llms-develop-arms-race-dynamics
  46. Navigating the AI battlefield: Opportunities and ethical frontiers – NRDC Italy https://nrdc-ita.nato.int/newsroom/insights/navigating-the-ai-battlefield-opportunities–challenges–and-ethical-frontiers-in-modern-warfare
  47. The ethical implications of AI in warfare https://www.qmul.ac.uk/research/featured-research/the-ethical-implications-of-ai-in-warfare/
  48. How to Describe the Future? Large-Language Models and the Future of Military Decision Making – The Strategy Bridge https://thestrategybridge.org/the-bridge/2023/3/23/how-to-describe-the-future-large-language-models-and-the-future-of-military-decision-making
  49. An Artificial Intelligence Strategy for NATO https://www.nato.int/docu/review/articles/2021/10/25/an-artificial-intelligence-strategy-for-nato/index.html
  50. Official text: Summary of NATO’s revised Artificial … – NATO https://www.nato.int/cps/en/natohq/official_texts_227237.htm
  51. Summary of the NATO Artificial Intelligence Strategy, 22-Oct.-2021 https://www.nato.int/cps/en/natohq/official_texts_187617.htm
  52. Harnessing Artificial Intelligence: Allied Command Transformation at the Forefront of NATO Innovation https://www.act.nato.int/article/harnessing-artificial-intelligence/
  53. Calibrating NATO’s Vision of AI-Enabled Decision Support – CSIS https://www.csis.org/analysis/calibrating-natos-vision-ai-enabled-decision-support