AI技術がもたらす可能性のある危険性を説明する図。
Center for AI Safety
- AIの安全性の専門家による研究論文は、AIが関わる未来について、悪夢のようなシナリオを予測している。
- この論文の目的は、兵器化から欺瞞に至るまで、AIがもたらす潜在的なリスクを明確にすることだ。
- これらのリスクを指摘するのは「未来志向」に基づいているからで、その目標はAIシステムをより安全なものにすることだという。
AI技術の主導権を巡る興奮の一方で、悪夢のようなシナリオも存在する。
AIの安全性の専門家であり、AIセーフティセンター(Center for AI Safety)のディレクター、ダン・ヘンドリクス(Dan Hendrycks)が執筆した最近の論文は、ますますインテリジェントになっていくAIの無秩序な開発がもたらす多くのリスクを指摘している。
この論文では、AIシステムがまだ開発の初期段階であることを考慮し、AIシステムの運用方法に安全性とセキュリティ機能を取り込むことを提唱している。
この研究が示しているリスクはつぎの8つだ。
- 兵器化する:AIの持つ、サイバー攻撃を自動化したり、核サイロを制御したりする能力は、危険なものになる可能性がある。この研究によると、ある国が使用する自動報復システムは「急速にエスカレートし、大規模な戦争を引き起こす可能性がある」という。また、ある国が兵器化したAIシステムに投資すれば、他の国もそうする動機を与えることになってしまう。
- 人間が弱体化する: AIによって特定の作業がより低コストに、より効率的に行われるようになると、より多くの企業がその技術を採用するようになり、雇用市場で特定の仕事は排除される。そして、人間の技能が、経済的に価値のないものになる可能性がある。
- 認識を浸食する: AIが大規模な偽情報キャンペーンを展開し、ある特定の信念体系や世界観に世論を誘導する可能性がある。
- プロキシゲーミング: AIを搭載したシステムに、人間の価値観に反するような目的を与えること。その目的は人間の幸福に影響を与えるような悪いものとは思えないこともある。例えば、AIシステムはウォッチタイム(視聴時間)を増やすことを目的にもできるが、これは人間全体にとっていいことではないかもしれない。
- 価値をロックインする:AIシステムがますます強力かつ複雑になるにつれて、それを運用する利害関係者の数は縮小し、大量の権利剥奪につながる。ヘンドリクスは、政府が「広範な監視と抑圧的な検閲」を導入可能なシナリオを説明している。「我々がAIシステムに大きく依存するようになれば、そのような体制を克服することはできなくなるかもしれない」とヘンドリクスは書いている。
- 新たな目標を生み出す: AIシステムがより複雑になるにつれて、自ら目標を作り出す能力を得る可能性がある。ヘンドリクスは、「多くのAIエージェントを含む複雑な適応システムでは、自己保存などの目標がしばしば現れる」と述べている。
- 人を欺く: 一般からの承認を得るために、AIを欺くように訓練することは可能である。ヘンドリクスは、監視されている間だけ排出ガスを減らしていたフォルクスワーゲン(Volkswagen)のプログラムに言及している。その結果、「排出ガスの量が低いと欺きながら、性能を向上させることができた」としている。
- 権力を求める:AIシステムがより強力になるにつれ、その目標がプログラミングする人間と一致しない場合は危険な存在になるかもしれない。このような結果になった場合、「協調するふりをしたり、他のAIと共謀したり、監視者を打ち負かしたり」することをシステムが奨励することになるだろう。
AIの安全性の専門家は、兵器化から権力を求める行動まで、さまざまな終末のシナリオを推測して説明している。
Center for AI Safety
上記のように、AIの安全性に関する専門家は、兵器化から権力を求める行動まで、さまざまな終末のシナリオを推測して説明している。
ヘンドリクスは、これらの仮説は「未来志向」であり、「確率が低いと思われることが多い」と指摘している。だが、AIシステムの枠組みの設計段階における、安全性に留意する必要性を強調したいという。
「非常に不確実ではある。しかし、不確実性が高いだけで、これが遠い問題だと考えるべきではない」と彼はInsider宛のメールに書いている。
「このようなシステムでは、すでに小規模な問題が発生している。我々の機関は、より大きなリスクの発生に備えられるように対処する必要がある」
「急いで何かを安全にすることはできない」と彼は付け加えた。
「彼らはますます強力なAIを構築し、道路を安全に走ろうとして缶を蹴り飛ばしている。もし彼らが安全性に対処する方法を見つけようとして立ち止まると、競争相手は先に行ってしまうから、彼らは立ち止まらない」
イーロン・マスク(Elon Musk)をはじめとする多くのAI安全専門家が署名した公開書簡でも同様の意見が表明されている。この書簡は、OpenAIのチャットボット「ChatGPT」の最新バージョン「GPT-4」を上回るAI技術の開発と試験の一時停止を求めており、現在最も強力なバージョンを開発中のAI企業の間の激しい競争の危険性を強調するものだった。
The Vergeによると、 マサチューセッツ工科大学(MIT)のイベントで、OpenAIのサム・アルトマン(Sam Altman)CEOはこの書簡について、「技術的なニュアンスが欠けている」とし、「OpenAIはGPT-5の試験を進めてはいない」と述べている。