Google、Microsoftも真逆の姿勢。AIの軍事利用規制の行方は?

このエントリーをはてなブックマークに追加

過去、先端技術が戦争に関わってきた例が多くありますが、AI技術も例外ではありません。軍事目的でのAIの技術研究が活発になる一方、規制の動きも出てきています。私たちはどのようにAI技術の発展と規制を両立すべきなのでしょうか。

AIで拳銃の発火を検知する「敵対的発火検知センサー」を米軍が開発中

米軍が、AIによる敵対的発火検知センサーを装甲戦闘車両に搭載するため開発しています。

発火検知センサーは、戦闘車両が、攻め入る歩兵部隊を特定し、追跡、狙いを定めるために利用されます。重装備された戦闘車両からすれば、歩兵部隊の侵入はすぐに大きな脅威をもたらすことはありません。しかし、歩兵部隊による攻撃の位置を瞬時に特定することで、その周辺に潜む敵からの更なる攻撃に備えられるといいます。

敵の歩兵部隊からの発火を検知するとのことですが、一般市民が護身のために銃を使用した場合はどう検知されるかなど、懸念も残ります。

便利な技術も、目的が変われば兵器になる

近年、自動運転技術の発展など、身近なところでAI技術が活用されています。たとえば自動運転は、交通事故の防止や渋滞の緩和など、普段の生活の中に多くのメリットをもたらす一方、無人戦闘機の開発に応用も可能です。

中国が、2020年代初頭に無人AI潜水艦を配備する予定だという報道もあります。無人AI潜水艦に武器が搭載されれば、第二次世界大戦時の神風特攻隊のような攻撃も可能との見方もあり、AIで戦闘が変わることは間違いないでしょう。

1975年に終結したベトナム戦争では、化学兵器「枯葉剤」の使用で、一般市民への甚大な被害が出ました。便利な技術も、目的が変われば兵器となります。このような被害がAI技術で引き起こされないことを願うばかりです。

「AIは兵器に使わない」Googleの宣言

AIの軍事利用の動きが加速する中、反対運動も活発化しています。

Googleがアメリカ国防総省と共同で、ドローン兵器に利用するためのAI活用パイロットプログラム「Project Maven」を進めていました。しかし、Googleの社員から軍事目的のAI開発について反対の声が上がり、契約は2019年で打ち切りに。

Googleはこれを受け、2018年6月に「AI at Google: our principles」を発表。「AIを兵器のために開発することはしない」という声明を出しました。

この声明は、GoogleにおけるAI開発のガイドラインを制定するもの。要素をまとめると以下の通りです。

  1. 社会にとって有益である
  2. 不公平なバイアスの発生、助長を防ぐ
  3. 安全性確保を念頭においた開発と試験
  4. 人々への説明責任
  5. プライバシー・デザイン原則の適用
  6. 科学的卓越性の探求
  7. これらの基本理念に沿った利用への技術提供

GoogleがAIの平和利用宣言を掲げた一方で、Microsoftの社長兼最高法務責任者 ブラッド・スミス氏は、先端技術の軍事利用について「防衛や災害派遣など市民が米軍から受ける恩恵は大きい」とし、引き続き軍との連携を進める意向を示しています。

私たちの生活や仕事にAIがどう影響を与えるか、恐怖心や不信感を抱く人も多いでしょう。先端技術が悪用されないよう規制は必要ですが、それがテクノロジーの発展を妨げるべきではありません。

全世界を巻き込んだ慎重な議論適切な規制が実施され、私たちが安心してテクノロジーの恩恵を受けられる未来になることを期待します。