2020年のSGI提言

核運用におけるAI導入やサイバー攻撃の禁止が急務

第13段
核運用におけるAI導入やサイバー攻撃の禁止が急務

新技術の発達が兵器に及ぼす影響

また私がもう一つ、NP再検討会議で目指すべき合意として特に求めたいのは、「核関連システムに対するサイバー攻撃」や「核兵器の運用におけるAI導入」の危険性に対する共通認識を深め、禁止のルールづくりのための協議を開始することです。

インターネットなどのサイバー空間やAIに関する新技術は、社会に多くの恩恵をもたらしてきた一方で、それを軍事的な目的に利用しようとする動きが進んでいます。

昨年3月、こうした新技術に伴う問題を巡る会議がベルリンで行われました。

EU(欧州連合)やNATO(北大西洋条約機構)の国々をはじめ、ロシア、中国、インド、日本、ブラジルの政府代表が参加した会議で焦点となったのは、ロボット兵器の通称で呼ばれる自律型致死兵器システム(LAWS)の問題に加えて、新技術の発達が核兵器などの多くの兵器に及ぼす影響についてでした。

その上で、ドイツとオランダとスウェーデンの外相による政治宣言として、「技術的に進化した軍事能力がいかにして戦争の性格を変え、世界の安全保障に影響を与えるかについて、共通の理解を構築する必要がある」(IDN―InDepthNews 2019年3月17日配信)との問題提起がされていたのです。

核兵器に安全保障を依存してきた国などからも懸念が示されるほど、新技術の発達のスピードは速く、私は、緊急性が増す核兵器と新技術を巡る討議をNPTの枠組みで早急に開始することを提案したい。

1995年にNPTの無期限延長が決まった時、条約の再検討では、過去の合意の達成状況の精査だけでなく、将来において進展が図られるべき分野と、そのための手段を特定する重要性が提起されていました。

核兵器と新技術の問題は、緊急性と被害の甚大さを踏まえると、まさに最優先で取り上げるべき分野ではないかと思うのです。

まずサイバー攻撃に関して言えば、核兵器の指揮統制だけでなく、早期警戒、通信、運搬など多岐にわたるシステムに危険が及ぶ恐れがあります。

いずれかのシステムに対して、サイバー攻撃が実行されることになれば、単なる不正侵入にとどまらず、最悪の場合、核兵器の発射や爆発を引き起こす事態を招きかねません。

この問題に関し、国連のグテーレス事務総長も警鐘を鳴らしていました。

「国連憲章を含め、国際法がサイバー空間にも適用されるというコンセンサスはすでに存在しています。しかし、実際に国際法がどのように適用されるのか、また、国家が法律の枠内で悪意ある、または敵対的な行為にいかに対応できるのかについては、コンセンサスはありません」(国連広報センターのウェブサイト)と。

その基盤をつくる意味でも、「核関連システムに対するサイバー攻撃」の禁止をNPTの枠組みを通して早急に確立し、核リスクの低減を図るべきではないでしょうか。

不安や猜疑心\(さいぎしん\)を強める危険

同じく、「核兵器の運用におけるAI導入」も、多くの危険を引き寄せかねないものです。

ストックホルム国際平和研究所(SIPRI)が昨年5月に発表した報告書では、その問題点を詳しく分析しています。

それによると、核保有国にとってのAI導入のメリットは、人間の場合には避けられない疲労や恐怖を排除できることに加え、深海や極地といった厳しい生存環境や危険が伴う場所での任務を無人の装置で代替できることなどが挙げられるといいます。

しかし、AIへの依存度を強めれば強めるほど、核兵器の運用を不安定にする要素が増え、かえって核使用のリスクを高める方向に働きかねないと警告しているのです。

そこでは、従来の核抑止論の基盤をなしてきた相手の出方に関する心理学的な認知が通用しなくなることが指摘されています。

AIが主要な役割を担うようになれば、状況判断の過程がブラックボックス化して、相手の出方がますます読めなくなり、不安や猜疑心がさらに募る状態を招くからです。

報告書は、こう記しています。

「冷戦中、アメリカとソ連は互いの戦略システムと行動を研究するために多大な時間と努力を費やし、国防関係の代表は、必ずしも生産的というわけではなかったにせよ、頻繁に会っていた」と。

心理学的な認知といっても、直接の出会いを重ねる実体験が伴っていたからこそ、相手の出方をある程度予測できる関係を築くことができていたのではないでしょうか。

また冷戦時代、誤った情報や装置の誤作動で、他国から核ミサイルの発射があったとの警報が出る事態が何度も起きました。

その時に、危機を未然に防いだのは、監視画面に表示された情報をうのみにせず、情勢的にそれはあり得ないとの健全な懐疑心を働かせて、対抗措置としての核攻撃の中止を進言した人々の存在だったのです。

まして現在は、サイバー攻撃による「ハッキング」や「なりすまし」の危険にもさらされており、AIの導入が進めば、誤った情報に対してだけでなく、偽の情報に対する脆弱性も増すことになりかねません。

もちろん、AIへの依存度がどれだけ強まったとしても、核兵器の発射の最終判断は、人間の手を離れることはまずないでしょう。

しかし、AIの導入競争が核保有国の間で進むことが、深刻なジレンマをもたらす危険性に目を向ける必要があります。

AIの導入は自国が優位に立つための〝軍事行動のスピード化〟につながるかもしれませんが、一方でそれは、1962年のキューバ危機の際にケネディ大統領やフルシチョフ書記長が直面したようなジレンマを、少しの猶予も許さずに迫るものとなるからです。

世界を震撼させた危機の教訓を顧みて、ケネディ大統領はこう述べました。

「核保有国は、相手国に対して、屈辱的な退却か核戦争かを強いるような対決を避けなければなりません」(『英和対訳ケネディ大統領演説集』長谷川潔訳注、南雲堂)と。

そのジレンマがどれほど薄氷を踏むものだったのか、悔恨がにじみ出ている言葉ですが、それでも当時の両首脳には〝13日間〟という熟議を重ねる時間がありました。

ところが、スピード化の競争が進めば、相手に先を越されることへのプレッシャーが一層強まって、熟議に基づく判断の介在する余地がそれだけ失われることになります。

この点、SIPRIの報告書でも、「より速く、より賢く、より正確で、より多目的な兵器を探求することは、不安定な軍拡競争をもたらす可能性がある」と指摘しています。

核兵器とAIとの結びつきは先制攻撃を促す方向に働くことはあっても、核戦争を止める力にはなりえないと強く訴えたいのです。

NPTの前文に刻まれているように、核戦争の危険を回避するためにあらゆる努力を払うことが、条約を貫く精神だったはずです。

その一点を全締約国の共通の土台としながら、サイバー攻撃やAIの導入を巡る協議を今後進める中で、核兵器に安全保障を依存し続けることの意味についても問い直していくことが、肝要ではないでしょうか。