AIが“人間を襲う”前に知っておくべき真実——自律型兵器はここまで来ている

「AI(人工知能)は人間を襲いますか?」

ペンタゴン

米国防総省。アメリカでは兵士への負荷を極力減らすために兵器の「無人化」が勧められている。

Frontpage / Shutterstock

一般的なビジネスパーソン向けのAIの講演では質疑応答に入ると、こんな質問がよくされる。人工知能学者達はこうした質問を一笑に付し、「ナイフは果物の皮をむくことができますが、人を傷つけることもできます。結局は人間次第なのです」と答えるだろう。映画「2001年宇宙の旅」や「ターミネーター」の影響からか、人間に対して反乱を起こし、危害を加えるAIの出現に対する漠然とした不安は人々の間に根強い。


正確に知っておくべきは兵器における利用

AIの現時点での中心的技術は、機械学習(Machine Learning)であって、「高頻度で発生する事象があり、その事象のデータが取得できれば、高い精度で認識、推奨、予測、仕分け、そして最適化などが可能になる」というものである。より具体的には何らかのセンサで検知されたデータをアルゴリズムが解析し、アウトプットを返すことである。このアルゴリズムは機械学習等のAI技術によってつくられている。アルゴリズムが考えた「答え」であるアウトプットがアクチュエータ(油圧や電動モータなど)につながり、物理的動作になれば、それはロボットになるだろう。

AIは人工「知能」というだけあって、この知能であるアルゴリズム部分があたかも人間が思考するように自律的に動いているように見えるのだ。余談だが、驚くべきことにAIの学術的な定義は無く、その定義は人工知能学者ごとに異なっている。

ITに関するリテラシーの高いビジネスパーソンでも「AIは人間を襲いますか?」と聞くような現状において、我々が正確に知っておくべきことはグローバルな安全保障・国防における人工知能利用の現在地点ではないだろうか、本稿では技術の応用がどこでどのくらい進展しているのか? それに対してどういった国際的な規制の動きがあるのか? について事実関係を整理してみたい。それらを知ることはビジネスシーンでの人工知能の倫理問題、規制を考える上でも有意義だろう。

将来的に戦闘機は完全に自律化される

従来、各国は技術を自国の国防上の優位性の保持のために利用してきた。安全保障においては脅威の不在、または脅威からの自由こそが各国の目指すべきものである。IT技術の発展は近年、軍事における革命(Revolution in Military Affairs、RMA)を担う大きな要素であると捉えられており、各国もネットワークシステムの構築を進めてきた。通常兵器の保有に加え、高度なネットワークシステムの保有こそが他国の能力をオフセット(相殺)するために必要だったのである。

プレデター

米空軍の武装無人航空機(プレデター)。

Paul Fleet / Shutterstock

従来、戦闘区域で任務を行う環境は3Dと呼ばれ、単調(Dull)、汚い(Dirty)、危険(Dangerous)という環境では人間に大きな負担がかかるために、IT技術によって無人化が進められてきた。例えば米空軍では1990年代後半から武装無人航空機(プレデター)を運用し、近年は中東で遠隔操作のドローンによるテロリストに対するターゲットキリング(標的殺害)を行っている。米空軍は2047年までに戦闘機は完全自律化されると2009年発表の計画で述べている。また、米陸軍は2017年3月に「ロボティクスと自律システム(RAS)戦略」を発表し、短期目標として2020年までにコンセプトを固め、無人戦闘車両の開発を進めていくとのことである。

このようにIT技術によって進んだ兵器の無人化の次のトレンドは自律化である。機械が「自律的」であるということは、設定された目標に対し環境を認識した上で目標を遂行する最適解を選択することである。例えば戦闘区域のような物理的な場所のみならず、サイバー空間や公衆における情報収集、国防の場において人間の能力を超える膨大な情報を高速処理し、同時に複数の施策の実行を行う目的で人工知能が実装される可能性がある。これはビジネスにおいて金融市場で、超高速・高頻度取引を繰り返す主体が人間ではなくアルゴリズムになったことと同様である、現在の金融市場での高速取引は人間の処理能力を越えている。今後は人間の能力を越えた自律的な無人兵器が開発されていくのだろうか。

人間の判断を経ず機械が人間を殺す日は来るか

2017年5月に日本の人工知能学会全国大会が開催された。その際の倫理委員会公開討論においても、自律型兵器システム(Autonomous Weapon Systems, AWS)や致死的自律型兵器システム(Lethal Autonomous Weapon Systems, LAWS)の開発に対する懸念が示された。人工知能学会倫理員会が同年2月に発表した『倫理方針』には「他者に危害を加えるような意図をもって人工知能を利用しない。」という文言がある。

 Stephen William Hawking

スティーブン・ホーキング博士。

Koca Vehbi / Shutterstock

これに先だってスティーブン・ホーキング博士やテスラのイーロン・マスクCEOも賛同者に名を連ねるFLI(Future of Life Institute)では2017年2月に『アシロマAI原則』を発表し、明示的に「LAWSによる軍拡競争は避けるべきである」と述べた。世界中でAIに関わる人間が懸念していることは、現在は軍事において偵察や情報収集に使われている自律的機械が最終的には人間が判断する(Man in the loop)ことを越え、人間への殺傷が行われることである。一方で米国国防省はAIはあくまで人間の補佐であり、その意思決定には必ず人間を介在させることを明示的に主張している。

GettyImages-479833746

イーロン・マスク氏

Scott Olson/ Getty Images

急速に進展する兵器の無人化、自律化について、グローバルな規制はどうなっているのだろうか? 新しい技術的概念が人道的問題に抵触する可能性がある場合に 1899年ハーグ陸戦条約前文のマルテンス条項がよく参照される。そこでは関係諸条約による規律が無くとも、人道の諸原則及び公共の良心に由来する国際法の諸原則に基づく保護の下におかれることを確認しており、LAWSはこの中で人道上の問題と捉えられる。

エラーがあった場合は誰が法的責任を取るのか

一方で実効性を想定される枠組みとしては、2016年12月にジュネーブで特定通常兵器使用禁止制限条約(CCW)第5回運用検討会議が開催されており、軍縮会議日本政府代表部大使、日本の外務省、防衛相関係者も出席した。そこでは2017年中のLAWSに関する政府専門家会合の設置及び2017年中の会合開催が決定された。

LAWSの登場は国際的にさまざまな法的、倫理的な問題を投げかけている。LAWSが人間を殺傷した際に、そのアルゴリズムやシステムにエラーがあった場合の法的責任は誰が取るのだろうか。無論、外部からのハッキングの可能性もある。LAWS(法律)という略語自体が極めて皮肉に聞こえるが、今後、人間側が真摯に考えていかなければならない問題である。

あなたはAIの人事評価を受け入れられるか

「AIは人間を襲いますか?」と問うビジネスパーソンは勃興するHRテック(企業人事におけるAI利用)に対し、「そのうちAIに会社をクビにされるかもな」と笑うだろう。人事データを学習した後のアルゴリズムの中身は人間にはもう理解できないブラックボックスである。ブラックボックスの指示によって人間の運命が決まっても良いのだろうか? あなたはAIによる人事評価を受け入れることができるだろうか? 最後は人間が介在すべきなのか? もしかしたら人間よりAIの評価の方が公平で正確かも知れない。

これからのビジネスではAIの意思決定プロセスに人間が介在するか否か、Man in the loop 問題が大きな論点となるだろう。そして致死的自律型兵器システム(LAWS)の開発が進んだ世界では、あなたは仕事をクビにされるくらいでは済まないことを知っておきたい。

(本文は筆者の個人的見解であり、筆者の所属する組織・団体の公式な見解ではないことを予めご了承ください。)


塩野誠(しおの・まこと):経営共創基盤(IGPI)取締役マネージングディレクター。国内外の企業や政府機関に対し戦略立案・実行やM&Aの助言を行う。10年以上の企業投資の経験を有する。主な著書に『世界で活躍する人は、どんな戦略思考をしているのか?』、小説『東京ディール協奏曲』等。人工知能学会倫理委員会委員。

ソーシャルメディアでも最新のビジネス情報をいち早く配信中

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい