ニューヨーク・タイムズによると、Googleは、軍用のAIツールの開発に関わるガイドラインを定めたようです。このガイドラインの全容は明らかになっていませんが、基本的にGoogleは、兵器に人工知能を使用することを禁止するとのことです。
このガイドラインは、今後数週間のうちに全文が発表される予定です。この背景としては、国防総省のドローン監視映像を分析するためのAIツールをGoogleが開発することに対する議論があります。
2018年3月に国防総省との契約に関するニュースが報道されたあと、Google社内ではAI技術を軍事的に利用することについて賛否両論が巻き起こり、数千人のGoogle社員が軍事的な案件からの撤退を求める署名を行い、十数人の社員が退職しました。
Googleは決定を覆すことはなく、引き続き開発を続ける方針です。同社によると、今回の国防総省で利用する技術は、単に「人間が判定するための画像にフラグを立てる」ものであり、「非攻撃的な用途」のものだとのことです。
しかし、これはGoogle社員による軍事AIへの反対意見を完全に沈下させたわけではありません。GoogleのAI部門責任者であるジェフ・ディーン氏は今月、自律型兵器の開発に反対する2015年の請願書に署名したと語りました。ロンドンに拠点を置くGoogleのAI部門のDeepMindの幹部も同様の請願書に署名したことを明かしています。
ただ、軍事利用と一口に言っても、どこまでが軍事利用なのか明確に線を引くことはほぼ不可能に近く、今回のガイドラインの全容がどのようなものになるか、注目されています。