Googleが「AI技術を軍事転用しない」と宣言
Googleは2018年6月に、AI技術を軍事転用しないこと、そしてAI開発の原則を発表した。映画「ターミネーター」を見たことのある読者は多いだろうが、あの世界を現実のものとしないというのがGoogleの目指すべきところだろう。
実際、Googleは世界でもっともAI研究が進んでいる組織だし、国防上の要請があればAIに限らず技術や情報をアメリカに提供してきた。そのGoogleがAI技術について特に「軍事転用しない」と宣言したことの意味は大きい。
別の記事でも伝えたとおり、マシンラーニングとニューラルネットワークを利用したディープラーニングによって成長するAIは、どのようにも育てられる。いわゆる「グロ画像」ばかりを学習させたことで精神異常をきたしたMITの「ノーマン」はそれを証明する存在だが、もっと他の使い方もあるはずだ。
たとえば、AIに「勝率の高い軍司令官の言葉」を学習させれば戦闘指導に長けたAIが生まれるのだろうし、「兵士の損失が少なかった戦い」の戦術データを学習させれば兵の死なない戦いを指揮するAIが生まれるかもしれない。
しかし、AIにおける技術的な難しさは、学習過程での「調整」にある。ただ参照しつづけるだけではAIを育てることはできず、学習のもととなるデータの調整、成長具合を見ながらのニューラルネットワークの調整など、多くの経験と高い技術が必要な場面があるのだ。
その技術において、世界でもっとも進んだ組織のひとつが、Googleである。
AIに学習させたいデータはアメリカ国防総省が持っているが、それだけではAIを作ることはできないので、成長過程における調整技術をGoogleが提供しないというのはAIによる戦争が来る未来を確実に一歩、遅らせただろう。
しかし、現実的にそれは可能なのか?
コンピュータ、原子炉、インターネット、電子レンジ。
これらに共通する事項が何だか、わかるだろうか? そう、軍事技術が民生転用された例である。我々の生活にはすでに欠かせないものだが、もともとはすべて軍事技術だった。
その逆ももちろんある。たとえば無人小型ドローンは近年でもっとも威力を発揮している民生技術出身の兵器となった。その、そもそもの発想は「兵士を死なせない」ということに尽きる。兵士を死なせないためにドローンは必要であり、兵士を死なせないために強力な火気で敵勢力を殲滅しようとする。
AIを軍事転用させたい狙いも、結局の所はそこだ。
人間は忘れるし、ミスもする。戦術立案において、過去の戦術データを一つ残らず忘れずに記憶し、最適化されたアルゴリズムからそれらを分析し、現実に即した行動計画を立てられるAIが生まれれば、兵士が死ぬ可能性は今よりもずっと小さくなるだろう。
Googleの社是として有名な「Don’t Be Evil(悪を為すな)」が、今回の「AI技術を軍事転用しない」という宣言につながっていることは間違いないが、一方で「兵士を死なせない」というのは間違いなく「悪」ではない。結果として「平和的な軍事転用」がされる可能性は十分にあるだろう。
AIは平和の使者か、人類の敵か
効率的に戦うという面で、AIが戦争において活躍するのは間違いない。効率的に戦うということは自軍の兵士が死なないということであり、それは人道に叶う。しかしそれは、効率的に敵軍の兵士を殺す、ということと表裏一体であることを忘れてないけないだろう。
たとえば、AIの平和利用の道として政治がある。
戦争は、政治的な解決が望めない場面で持ち出される手段だ。その場面にもつれこんでしまうのは、歴史的に見ればいつも人間のちょっとしたミスや悪意だった。
そこへAIを導入し、政治的な調整を行わせるというのは、AIの平和利用としてもっとも多くの人を救える道のひとつだろう。
しかし、政治的な調整アルゴリズムを有するAIの開発を主導するのは、きっと人間の政治家である。そのアルゴリズム開発の段階で自国が有利になるよう、偏重した判断を下すように調整することは想像に易い。
急速に発展するAI開発の流れを止めることはできないし、それが人類にとっていいことかどうかもわからない。しかし、100年後には、AIが「平和の使者」だったのか「人類の敵」だったのか、きっと判明するだろう。
その日を待つしかないのかもしれない。