機密回線の向こう側
「未來さん、これ……ちょっと怖いニュースじゃないですか」
三國純は、スマートフォンの画面を机の上に置いた。
櫻未來は、コーヒーの湯気越しにその見出しを見た。
「米国防総省が、OpenAI、Google、NVIDIAらと、機密ネットワークへのAI導入で合意。Anthropicは今回も対象外、ですね」
「そうです。AIを軍の機密ネットワークに入れるって、かなり踏み込んでますよね」
「踏み込んでいます。ただ、まず分けて考えましょう。これは“AIがいきなり戦争を始める”という話ではありません」
「でも、軍の機密ネットワークですよね?」
「そこが重要です。普通の事務用AIではなく、軍の中でも機密情報を扱う場所にAIを入れる、という段階に進んだということです」
「対象は8社でしたっけ」
「はい。OpenAI、Google、NVIDIA、Microsoft、AWS、Oracle、SpaceX、Reflection。この8社です」
三國は指を折りながら数えた。
「OpenAIはChatGPT、GoogleはGemini、NVIDIAはAI半導体、MicrosoftとAWSとOracleはクラウド、SpaceXは宇宙・通信インフラにも関わる企業……。なるほど、AIそのものだけじゃないんですね」
「ええ。AIモデル、計算資源、クラウド基盤、通信、データ処理。軍がAIを使うには、それら全部が必要になります」
「で、Anthropicが入っていない」
「そこが、このニュースのもう一つの核です」
「Claudeの会社ですよね。AI企業としては大きいのに、なぜ外されたんですか」
櫻は少し間を置いた。
「Anthropicは、軍や政府にAIを提供すること自体を全面拒否しているわけではありません。ただし、大規模監視や完全自律型兵器のような使い方には、強い制限を求めています」
「完全自律型兵器……つまり、人間が判断しない兵器ですか」
「簡単に言えば、そうです。AIが見つけ、AIが判断し、AIが攻撃まで進めるような形ですね」
三國は画面を見つめたまま、眉を寄せた。
「そうした制限をめぐって、Anthropicと国防総省側の条件が折り合わなかった、ということですか」
「かなり近い理解です。少なくとも、公開された声明や報道からは、そこが大きな争点だったと読めます」
「未來さん、そもそも米軍はAIを何に使いたいんですか」
「まずは情報整理です」
「情報整理?」
「戦場や安全保障の現場には、膨大な情報があります。衛星画像、通信記録、ドローン映像、補給物資の記録、整備状況、天候、地形、部隊の位置。人間だけで全部見るには限界があります」
「そこでAIに見せる」
「はい。たとえば、“この映像の中に不自然な車列はあるか”“補給が切れそうな部隊はどこか”“この基地の整備に必要な部品は何か”といった分析です」
「それだけ聞くと、かなり便利ですね」
「便利です。しかも、軍事では便利さがそのまま速さになります」
「速さ?」
「判断が早い。修理が早い。補給が早い。敵の動きを察知するのが早い」
三國は、そこで少し黙った。
「でも、速いって、間違いも速くなるってことですよね」
櫻は小さくうなずいた。
「そこに気づくのが大事です」
「AIが間違って、“これは敵だ”と判断したら?」
「人間が検証しなければ、危険です」
「標的選定にAIが関わる可能性がある」
「そこが一番重い部分です。AIが直接引き金を引かなくても、“この場所が怪しい”“この人物が危険かもしれない”と候補を出すだけで、人間の判断に強い影響を与えます」
「AIが言うなら正しいだろう、となる」
「そうです。これを過信と言います」
「戦場で時間がないと、なおさら過信しそうですね」
「だから問題になります」
窓の外では、雨が細かく降り続いていた。
三國は、手元のメモに大きく書いた。
AI
軍
機密
判断
責任
「未來さん、結局のところ、何が問題なんですか」
「問題は三つあります」
「三つ」
「一つ目は、AIが軍事判断に深く入ること。二つ目は、機密ネットワーク内なので外から検証しにくいこと。三つ目は、企業の倫理ルールと政府の利用目的が衝突していることです」
「企業の倫理ルール……Anthropicの話ですね」
「はい」
「でも、政府側から見ると、企業が“これは使わせません”と言うのは困るんじゃないですか」
「その通りです。国防総省側から見れば、合法的な任務に使うのに、企業が制限をかけるのは安全保障上のリスクに見えます」
「つまり、軍は“必要な時に使えないAIは困る”と考える」
「ええ」
「一方で企業側は、“何にでも使わせるわけにはいかない”と考える」
「その通りです」
三國は、少しだけ椅子にもたれた。
「どちらの言い分も、わからなくはないですね」
「だから難しいんです」
「軍が使えなければ、相手国に遅れるかもしれない。でも、何でも使えば、監視社会や自律兵器に近づくかもしれない」
「その板挟みです」
「では、これを歓迎する人たちは、どう見ているんですか」
「まず、軍や安全保障関係者です。AIを使えば、膨大な情報を短時間で処理できます」
「人間が何日もかける分析を、AIが数分で下準備する」
「そうです。もちろん最終確認は人間がする前提ですが、初期分析はかなり速くなります」
「補給や整備にも使えるんですよね」
「はい。戦争というと攻撃ばかり想像しがちですが、実際には補給と整備がとても重要です」
「弾薬、燃料、部品、食料、人員配置」
「それらが滞れば、どれほど強い装備があっても動けません。AIは、そうした裏側の管理にも使えます」
「なるほど。戦場のChatGPTというより、軍全体の巨大な管理システムにAIを入れる感じですね」
「とても良い表現です」
「それと、8社に広げた意味は?」
「一社に依存しないためです」
「OpenAIだけ、Googleだけ、Microsoftだけに頼ると危ない」
「はい。価格、技術、政治的判断、企業方針。どれか一つで止まると困ります」
「Anthropicを外したのも、その文脈ですか」
「国防総省側から見ると、そう読めます。制限が強い企業に依存するより、複数社に分散したいという狙いは、公式発表の文脈とも合っています」
三國はうなずいた。
「推進派から見ると、これは“軍のAI化”というより、“軍の判断速度を落とさないための基盤整備”なんですね」
「そうです」
「逆に、批判する人たちは?」
「まず、人権団体やAI倫理の専門家です」
「理由は、監視と兵器ですか」
「はい。AIは、大量のデータをつなぎ合わせるのが得意です」
「たとえば?」
「移動履歴、通信、映像、SNS、購買情報、公開情報。それらを組み合わせると、一人の生活パターンをかなり細かく推定できます」
「それが軍や政府の中で使われると、大規模監視になる可能性がある」
「そうです」
「それは海外だけの話ですか」
「そうとも言い切れません。最初は国外の安全保障目的でも、技術は国内治安、国境管理、災害対応、犯罪捜査などに応用されます」
「便利だから、使う範囲が広がる」
「そして、一度広がると戻しにくい」
三國は、少し声を落とした。
「もう一つは、自律兵器ですね」
「はい。人間が最後に判断するのか。それともAIの判断に人間が形式的に承認するだけになるのか。ここが焦点です」
「形式的に承認?」
「画面にAIの候補が出る。時間はない。周囲は緊迫している。上官は早い判断を求める。そこで人間が“確認しました”と押すだけになる」
「それ、人間がいるように見えて、実質AI判断ですね」
「そうです」
「怖いですね」
「だから、Anthropicは制限を主張しているわけです」
「未來さん、ここまで聞くと、アメリカの軍とAI企業の話に見えます」
「そうですね。でも、日本にも関係します」
「やっぱり日米同盟ですか」
「まずはそこです。米軍がAIを前提に動くようになると、自衛隊との情報共有や共同作戦にも影響が出ます」
「米軍だけ判断が速くなると、日本側も合わせないといけない」
「はい。情報の形式、通信の速度、データの分類、AIが出した分析結果の扱い。全部が変わっていきます」
「日本の防衛省もAIを使う方向ですよね」
「すでに、補給、情報分析、無人機、サイバー防衛などでAI活用は検討されています」
「では、日本も同じ問題に向き合うことになる」
「なります」
「人間の判断をどう残すか」
「ログをどう残すか」
「誤爆や誤認が起きたとき、誰が責任を取るか」
「民間のデータをどこまで使うか」
三國は、自分で言ってから黙った。
「……これ、日本の生活にも近いですね」
「近いです」
「防衛予算にも関わる。データセンターにも関わる。半導体にも関わる。監視のルールにも関わる」
「その通りです」
「AI軍事利用って、遠い戦場の話じゃないんですね」
「むしろ、いずれ生活の土台にも関わってくる話です」
「日本国民への生活影響を、もう少し具体的に言うとどうなりますか」
「まず、税金です」
「防衛費ですね」
「AIを安全に使うには、モデルだけでは足りません。データ基盤、クラウド、セキュリティ、通信、専門人材、監査制度が必要です」
「つまり、買って終わりではない」
「ええ。むしろ運用費が大きいです」
「次は産業ですか」
「はい。日本企業にも商機はあります。半導体関連、センサー、サイバーセキュリティ、ドローン、通信、データ管理、防衛AIの評価技術などです」
「防衛産業に関わる企業が増える可能性がある」
「あります」
「でも、それは倫理的な批判も受けやすい」
「そうです。軍民両用技術、つまり民間にも軍事にも使える技術が増えるほど、企業は説明責任を問われます」
「この技術は便利です。でも戦争にも使えます。そういう場面が増える」
「まさにそこです」
「最後は、監視への不安」
「はい。AIが安全保障目的で使われるとき、どこまで市民の情報を扱ってよいのか。日本でも今後の議論が必要になります」
「“安全のため”と言われると、反対しづらいですからね」
「だからこそ、ルールが先に必要です」
「未來さん、Anthropicは負けたんですか」
「負けた、と単純には言えません」
「対象外になったのに?」
「たしかに、今回の合意からは外れています。でもAnthropicは、重要な問いを社会に出しました」
「重要な問い?」
「AI企業は、自社技術の使われ方にどこまで責任を持つべきか」
三國は、ゆっくりその言葉を繰り返した。
「自社技術の使われ方に、どこまで責任を持つべきか」
「政府が合法だと言えば、企業は従うべきなのか。それとも、企業にも越えてはいけない線を引く権利と責任があるのか」
「OpenAIはどうなんですか」
「OpenAIも、国内監視や自律兵器のような高リスク用途には線を引くと説明しています」
「でも、国防総省との合意には入った」
「はい。つまり、完全拒否ではなく、契約や安全措置で管理する立場です」
「Anthropicは、より強く制限を求めた」
「そう見てよいでしょう」
「この違い、今後かなり大きくなりそうですね」
「なります。AI企業が軍事利用にどう向き合うか。その基準が、今まさに作られているところです」
雨は止んでいた。
窓ガラスに残った水滴が、街灯の光を細かく割っていた。
「未來さん、今後はどうなりますか」
「まず、米軍内でAI利用がさらに広がります」
「情報分析、補給、整備、作戦支援」
「はい。そして次に、同盟国との連携にも広がります」
「日本も無関係ではいられない」
「そうです」
「それから、企業側の線引きも問われる」
「OpenAI、Google、Microsoft、AWS、NVIDIAのような企業は、AIの社会インフラを握っています。その企業が軍事利用にどこまで関わるのかは、今後も大きな論点になります」
「Anthropicのように制限を強く求める会社が増えるのか。それとも、政府との契約を優先する会社が増えるのか」
「そこも見どころです」
三國は、メモの最後にこう書いた。
人間は、最後の判断者でいられるのか。
「未來さん、このニュースの本当の怖さは、AIが軍に入ることそのものじゃない気がしてきました」
「では、何だと思いますか」
「AIが便利すぎることです」
櫻は、静かに三國を見た。
「続けてください」
「便利だから使う。速いから使う。正確そうだから使う。すると、いつの間にか人間が考える時間が減っていく」
「ええ」
「最後に人間が承認していても、本当はAIの流れに乗っているだけかもしれない」
「その理解で、かなり核心に近いです」
三國はスマートフォンを伏せた。
「だったら、日本が考えるべきなのは、“AIを使うか使わないか”ではないですね」
「そうです」
「“どの場面で使い、どこから先は人間が止めるのか”ですね」
櫻は、少しだけ笑った。
「それが、このニュースから私たちが受け取るべき問いです」
「遠いアメリカの軍事ニュースに見えて、実は、日本の防衛、税金、産業、監視、民主主義の話だった」
「はい」
「そして、AIの話でもあるけど、人間の責任の話でもある」
「その通りです」
三國は、最後の一行をメモに足した。
AIが機密回線に入る日、人間の責任は、見えにくくなる。
櫻はその文字を見て、静かに言った。
「だからこそ、見えなくなる前に、言葉にしておく必要があるんです」
******
この話が良かった、参考になったと思ったらお好きな数だけつけてください!
また見たい!と思ったらブックマークもお願いします!




