一部の専門家によると、「汎用人工知能(AGI)」は、私たちが思っているよりも近いところにあるという。
Lidiia Moor/Getty Images
- 高度なAIがもたらす潜在的な危険性についての警告がここ数カ月で増加している。
- その中には曖昧な表現もあり、主なリスクが具体的に何なのか、専門家の間でも意見が分かれている。
- ここでは高度なAIがもたらす潜在的な脅威と、そのリスクについてどう考えるべきかを紹介する。
AIは核戦争や世界的なパンデミックと同じくらい危険だ。
これは、非営利団体センター・フォー・AI・セーフティ(Center for AI Safety:CAIS)が発した最新の警告によるものだ。この書簡には、ChatGPTを創り出したOpenAIの代表、サム・アルトマン(Sam Altman)を含むAI業界の主要人物や研究者らが署名している。
この警告は、ここ数カ月の間に出されている多くの警告の一つだ。この技術の初期開発者には、「人類の破滅に向かって真っ逆さまに突き進んでいる」と主張している人もいれば、「規制が切実に必要だ」と警告する人もいる。
中には、ますます誇張される主張の意味を理解することが難しい発言もある。
AIの専門家でケンブリッジ大学の助教授デビッド・クルーガー(David Krueger)は、「AIの実存的なリスクに関して、人々は具体的なシナリオを求めるかもしれないが、確実なものとして指し示すことはまだ難しい」と述べている。
「脅威が差し迫っているという意味では心配はしていない。その脅威が何であるかがはっきりわかるからだ。しかし、今後起こりうる脅威に対して、準備する時間はあまりないと思う」とクルーガーはInsiderに語っている。
それを踏まえて、専門家が懸念している潜在的な問題をいくつか紹介していこう。
1. AIによる乗っ取り
最も取り上げられるリスクとしては、AIが作り手のコントロールから外れてしまうということだ。
汎用人工知能(Artificial General Intelligence:AGI)とは、広範なタスクにおいて人間と同等かそれ以上に賢いAIのことを指す。現在のAIシステムは、感覚を持ってはいないが、人間のように作られている。例えば、アラン・チューリング研究所(The Alan Turing Institute)のジャニス・ウォン(Janis Wong)は、「ChatGPTは、ユーザーが別の人とチャットしているように感じられるように構築されている」と話している。
Insiderのアーロン・モック(Aaron Mok)が報告しているように、 AGIを具体的にどう定義するかについては専門家の間でも意見が分かれているが、潜在的なテクノロジーが人類に危険をもたらし、研究と規制が必要であるという点では概ね一致している。
こうした危険の最も分かりやすい例が、国家間の軍事競争だとクルーガーは話す。
「自律型兵器(設計上、そのシステムが物理的世界に影響を与え、危害を及ぼす能力を備えたもの)を用いた軍事競争は、このようなシステムが多くの人を殺害することになる可能性があることがより明らかになったように思う」とクルーガーは言う。
「人間よりも賢い高度なシステムが登場する将来、AIを活用した総力戦が実現すると、システムは制御不能になり、その結果、全員が死亡する可能性が非常に高いと考えている」とクルーガーは付け加えた。
2. AIは大量失業を引き起こす
AIが一部の仕事にとって脅威であるという意見は一致しつつある。
「AIによる雇用喪失の見通しは、最も『現実的で、直接的で、おそらく差し迫った』実存的脅威である」とモントリオールAI倫理研究所(Montreal AI Ethics Institut)の創設者であるアビシェーク・グプタ(Abhishek Gupta)は話している。
「人々が一斉に仕事を失ったときに感じるであろう目的の欠落に我々は目を向ける必要がある。仕事を失ったら人々は何をし、何から目的を得るのだろうかということだ」と彼はInsiderに話している。
「仕事がすべてというわけではないが、我々の生活の中で仕事はかなりの割合を占めている」と彼は付け加えた。
CEOたちは、AIを活用する計画について率直に語り始めている。例えば、IBMのアービンド・クリシュナ(Arvind Krishna)CEOは、最近、AIで代替可能な役職の採用を遅らせることを発表している。
「4、5年前なら、誰もあの発言のようなことを言わなかったし、だれも真剣に受け止めることはなかっただろう」とグプタは語っている。
3. AIのバイアス
AIシステムがより広い社会的な意思決定を支援するために使用される場合、体系的なバイアス(偏り)は深刻なリスクになる可能性があると専門家はInsiderに語っている。
ChatGPTの初期バージョンを初め、生成AIシステムにおけるバイアスの例はすでにいくつかある。チャットボットの衝撃的な回答の一部をここで読むことができる。OpenAIは、ChatGPTが攻撃的なコンテンツを要求するユーザーから、問題のある回答を回避できるようガードレールをさらに追加した。
Insiderが2023年初めに実施したテストによると、デジタル画像を生成するAIは、有害な固定概念を反映した画像を生成する可能性があるという。
例えば、生活保護受給の承認など、現実世界の意思決定に使用されるAIシステムに、検出されないバイアスが存在する場合、深刻な結果を招く可能性があるとグプタは述べている。
チューリング研究所のウォンによると、学習データは、主に英語のデータに基づいていることが多く、異なる言語を使っている他のAIモデルを学習させるための資金は限られているという。
「そのため排除されてしまう人が多くいるか、特定の言語の学習は、他の言語ほどうまくいかないだろう」とウォンは話している。