ライフスタイル

AIが殺人兵器に!?人工知能が戦争で使われた場合の最悪な未来とは

AIと戦争のイメージ

AI(人工知能)という言葉を、ほとんど毎日のようにネットニュースの見出しやテレビで目にするようになりましたよね。将棋や囲碁のプロと対戦して勝ったり、車や電車の自動運転を可能にしたり、人と会話ができるようになったり、と様々な分野で活用され私たちの生活を助けてくれます。

このように日々進化を続け、数年以内にどんどんビジネスに応用されていくとされているAI(人工知能)ですが、これは良い方法に使った場合です。しかし、もしAI(人工知能)が戦争に利用されたらと思うと‥とても怖いでしょう。

AI(人工知能)が効率的に戦争を行う‥このように、今日はAI(人工知能)が軍事目的として戦争で使われた場合には、どのような使い方をされ、どのような結末を迎えるのか。

それでは今回は、AI(人工知能)が戦争に使われた場合、予想できる最悪な未来をお伝えしましょう。

AI(人工知能)搭載の戦争兵器ドローン「KUB-BLA」

AI(人工知能)搭載の戦争兵器ドローン「KUB-BLA」。

これはロシアのZALA aeroグループが開発したドローン兵器です。「kamikaze drone(神風ドローン)」と呼ばれ、横幅1.22mで時速130キロのスピード半時間は飛行可能なうえ、重さ2.7kgの爆発物を運べます。
KUB-BLA – a new high-precision unmanned attack complex
このドローンの主な戦術としては、敵を発見次第急降下。そして機体を衝突させ、爆発するのです。ですから故に神風ドローンと呼ばれていたりもします。

売り文句としては「操縦が簡単で、標的を正確に攻撃可能であり、安価である」という感じ。

人が搭乗して操縦する必要がありません。また、最近の技術では敵が妨害電波を発し、通信の遮断を狙ってきます。ですが、戦争の至る場面でもAI(人工知能)が搭載された兵器であれば、通信を遮断されても事前に組み込まれたプログラムを元に自律的に行動することが出来るのです。

ですから、このドローンの自律的に行動できるところが大きなメリットになりますよね。

さらに、人間が絨毯爆撃をするよりも事前に解析したデータに基づきAI(人工知能)が攻撃を行うことで精密な攻撃が可能で、一般市民を巻き込む確率が低下するとされています。このように民間人の損害を低下させられるのはいい点なのかもしれません。

このように、戦争における場面でAI(人工知能)を搭載した「KAB-BLA」は進化を発揮します。

ただし、この「KAB-BLA」や、あとで紹介するAI(人工知能)を搭載した兵器は国際人道法や倫理的な面で危険視されているのが現状です。

確かに、AI(人工知能)兵器を戦争で使うことによって大量殺戮が可能になったりするのは一般市民の私たちからしても怖いですよね。

AI(人工知能)を搭載した無人自動戦車

戦車のイメージ

次にご紹介するのはAI(人工知能)を搭載した無人自動戦車。実際に開発しているエストニアの「Themis ADDER」や、アメリカが研究開発中の「ATLAS」のような遠隔で操作できる戦車がこれに該当します。

The THeMIS ADDER in combat
これも上記のドローンと同じく遠隔操作するだけでなく、事前に指定されたプログラム通りに作戦を遂行するだけでなく、何か障害があった時にも最低限の処理を行えるのが特徴。

AI(人工知能)兵器の傾向

兵器のイメージ

このようにAI(人工知能)を戦争に軍事利用する場合は遠隔操作を可能にし、人が乗らなくても目標達成ができるような様式が多いように、搭乗員が被害に遭うことがなくなるものが多い傾向です。

このような傾向から、拓殖大学の佐藤教授はAI(人工知能)を戦争に利用された場合には、

  1. サイバー攻撃や電子攻撃(EMP)などで敵の目となるレーダーを破壊
  2. その後、無人機と多用し自軍は人的損失を被らない形で敵を攻撃する。

といった流れが、定着すると話しています。

ですから先の「KAB-BLA」や「Themis ADDER」「ATLAS」がこの一連の流れの一躍を買うのは確実でしょう。

AI(人工知能)により、軍事情報収集を強化し戦争が起こった際の対策をしている

AIによる情報のイメージ

ここまではAI(人工知能)を軍事利用した兵器についてお話しました。次はAI(人工知能)を情報収集に使った場合についてお話します。

米メディアによると中国軍は、AI(人工知能)を用いて各国の軍事情報の収集を強化していると報道しています。

この情報収集の対象は、米国やロシア、イギリス、フランス、日本といった面々で、現在では国家間のサイバー攻撃が日常茶飯事になっており、その一環としてAI(人工知能)をサイバー攻撃やスパイ活動に利用することも考えているとか。

このようにAI(人工知能)は実際の戦場だけでなく、それをサポートする諜報機関にも利用されるということでしょう。

AI(人工知能)が戦争に利用された場合、どのような結末が考えられるか

決定権は人間なイメージ

これまで紹介してきた通り、兵器や情報収集にAI(人工知能)は利用されていますが、実は一つ重要なことがあるのです。

それは、現状のAI(人工知能)を戦争で用いるには人間の介在が原則となっていること。
標的を発見し追尾、攻撃の成否判定はAI(人工知能)が行うにしても最終的に攻撃するかの判断は人間です。誤射があれば大事になります。また、情報を収集したとしてもそれを判断するのは人間。

しかし、これら全てをAI(人工知能)が自律的に行うようになれば、大きな一線を超えるのは確実です。

現に戦争で利用できるAI(人工知能)は「第二の核」になるかもしれません。このような一線を超えた兵器のことを「自律型致死性兵器システム(LAWS=Lethal Autonomous Weapons System)」と呼ばれ、俗称は「キラーロボット」。

このキラーロボットは民間人、軍人を区別せず殺傷する残忍な戦争を引き起こす可能性もあるのです。もし独裁者やテロリストに使われれば容易に自国民弾圧に用いられるでしょう。

最悪の未来として、このように自律的に殺戮を行ってしまうLAWSが開発されれば「ターミネーター」シリーズさながらの世界になることも予測できます。

AI(人工知能)はまだそこまで進化していない

身の回りのAIのイメージ

ここまで、AIが戦争に利用された場合の話をお伝えしてきました。

今度はもっとも大事なお話をしましょう。それは現在実戦で軍事目的として利用できるAI(人工知能)はまだ先ということ。

なぜかというと、AI(人工知能)は人間のような思考を持っているわけではなく、人間の行動や認識した物体に対して特定の方法に特化して処理しています。

例えば、戦車であれば、物体にぶつからないように避けるといった感じです。しかし、人間は車を運転している時に、物体にぶつからないよう避ける以外にも、お互いコミュニケーションをとって譲り合いをするように、数値で表せない行動や事象がたくさんありますよね。

ですからこのように完璧でないAI(人工知能)を実際に戦争で利用するにはリスクが大きすぎます。

もちろん、最初に例にあげた兵器のように、AI(人工知能)は軍人の仕事を減らしたりサポートすることは可能でしょう。しかし「ターミネーター」のように自律的に殺戮を行うような未来は現実になることは私たちが生きている間はないのです。

現在のAI技術では特定のことにしか対応できない特化型AI(人工知能)しか存在していません。日常生活ですら人間は、様々な数値化出来ないことをこなしています。それをAI(人工知能)に判断をさせるには難しいですよね。

だからといってこの問題を放置しては、将来「ターミネーター」のような万能なAI(人工知能)が開発された時、ルールや制限対策が取れないのは良くないでしょう。

ですから、今のうちから国際機関でAIを戦争に利用することについて議論をすることが重要ですよね。

 

選択するイメージ

今回は、AI(人工知能)が戦争で使われた場合についてお話しました。まとめてみると以下の通り。

  • AI(人工知能)を搭載したドローンや戦車が開発されている
  • 人間が搭乗する必要がないので、導入する側の被害は最小限
  • これからは情報が命! 情報収集にもAIは利用できる
  • 戦争にAI(人工知能)を利用する際のルール決めが重要
  • まずAI技術が進歩する必要がある
これまでお伝えしてきた通り、AI(人工知能)を戦争に利用する場合、大量殺戮や人道から外れたことが行われないように、議論をしルールを決めていくことが大切です。

ですから、皆さんも残酷な未来にならないためにどうすべきか考えてみましょう。そして、AI(人工知能)は明るい未来のために使われるものになるよう動向を見守っていけると良いですよね。

コメントをどうぞ

トップへ戻る
タイトルとURLをコピーしました