イーロン・マスクやスティーブ・ウォズニアックなどがこの公開書簡に署名している。
Susan Walsh/AP
- 多くのAIの専門家と企業のリーダーが、AI開発の一時停止を求める公開書簡に署名した。
- フューチャー・オブ・ライフ・インスティテュートの書簡は、新しい技術を導入するための「制御不能な」競争について警告している。
- 書簡では、誤った情報の拡散と労働市場における自動化に関する懸念が挙げられている。
人工知能の重鎮たちが、高度なAI開発の一時停止を呼びかけた。
イーロン・マスク(Elon Musk)、スティーブ・ウォズニアック(Steve Wozniak)、ピンタレスト(Pinterest)共同創業者のエヴァン・シャープ(Evan Sharp)、Stability AIのCEOのエマド・モスタク(Emad Mostaque)らが、強力なテクノロジーによる実存的リスクの低減に取り組む非営利団体「Future of Life Institute」が発行した公開書簡に署名したのだ。
この書簡は、OpenAIのGPT-4のようなAIシステムが「一般的なタスクにおいて人間並みの競争力を持つ」ようになり、人類と社会に対する潜在的なリスクをもたらすと警告している。この書簡は、AIを研究する組織に対し、新技術の危険性が適切に評価されるまで、GPT-4よりも強力な技術の開発を6カ月間休止するよう求めている。
また、「AIのゴッドファーザー」とも呼ばれるヨシュア・ベンジオ(Yoshua Bengio)やコンピュータサイエンティストのスチュアート・ラッセル(Stuart Russell)も、この書簡に賛同しています。なお、記事執筆時点では、OpenAIの代表者は署名していない。
書簡では、誤った情報の拡散、労働市場における自動化のリスク、文明のコントロールが失われる可能性などの懸念が挙げられています。以下、その要点を紹介する。
制御不能なAI
この非営利団体は、開発者が強力な新しいAIシステムを制御できなくなり、それが文明に影響を及ぼす可能性を示唆している。それによると、企業は開発者でさえ「理解、予測、確実な制御」ができないほど高度なAI技術を開発しようと競っているという。
書簡にはこう書かれている。
我々は文明のコントロールを失うリスクを冒すべきだろうか。そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。
危険なレース
書簡では、AI企業が新しい高度なシステムを開発および展開するための「制御不能な競争」に巻き込まれていると警告している。ここ数カ月、OpenAIのChatGPTの圧倒的な人気によって、他の企業が独自のAI製品をリリースしようとしているという。
書簡は、社会がこのまま「準備不足の秋」に突入するのではなく、新しいテクノロジーに適応するチャンスがある間に「AIの夏」の恩恵を享受するように企業に促している。
自動化と誤情報
この書簡は人間以外の精神が最終的に「我々を数で上回り、出し抜き、時代遅れにして、取って代わる」可能性を含む、新しい技術のいくつかのリスクを強調している。
また、AIシステムが一部の作業で「人間並み」になりつつあるとし、誤った情報や労働の自動化をめぐる懸念を挙げ、次のように述べている。
我々は、機械にプロパガンダや真実でない情報を流させるべきだろうか。充実した仕事も含め、すべての仕事を自動化すべきなのだろうか。
6カ月の休止期間
公開書簡では、すでに市場に出回っているものよりも強力なAIシステムの開発を6カ月間中断するように求めている。
また、開発者に対して、政策立案者と協力してAIガバナンスシステムを構築するように求めており、規制当局の必要性や、人が作ったコンテンツとAIが作ったコンテンツを区別するためのAI「電子透かしシステム」の必要性を強調している。さらに、AIによる経済的・政治的混乱に対処するための「十分なリソースのある機関」の必要性を示唆している。
公開書簡では、一時停止はAI開発の完全停止ではなく、先端技術をめぐる「危険な競争」から一歩後退することだと述べている。