Fabrizio Bensch/ Reuters
- アメリカでは、ある男性が人工知能(AI)を使って、亡くなった婚約者によく似たチャットボットを作った。
- この画期的なAI技術は、イーロン・マスク氏らが立ち上げた研究団体「OpenAI」がデザインしたものだ。
- OpenAIは以前から、こうした技術が大規模な情報キャンペーンに使われる可能性があると警鐘を鳴らしてきた。
婚約者が亡くなった後も、ジョシュア・バーボーさんは何カ月も彼女に話しかけてきた —— 彼女そっくりに聞こえるようプログラミングされたチャットボットに。
バーボーさんは、本物そっくりのチャットボットが作れるAI技術を使ったソフトウエア「Project December」がどのようにして亡くなった婚約者との会話を再現したのか、San Francisco Chronicleに語った。バーボーさんが古いメッセージを入力し、ちょっとした背景情報を与えただけで、モデルはすぐに驚くような精度で婚約者を模倣できたという。
奇跡のように聞こえるかもしれないが、AIクリエーターらは同じ技術が大規模なデマ情報のキャンペーンを加速させるのに使われる可能性があると警鐘を鳴らしている。
「Project December」には、イーロン・マスク氏らが立ち上げた研究団体「OpenAI」がデザインしたAIモデル「GPT-3」が搭載されている。人間が作ったテキストのデータセットを大量に吸収することで、GPT-3は人間の文章作成を真似して、学術論文から元恋人の手紙まで、何でも書くことができる。
GPT-3はこれまでで最も高度 —— かつ危険な —— 言語分野のAIプログラミングの1つだ。
GPT-3の前のGPT-2をOpenAIがリリースした時、同団体はそれが「悪意ある方法」で使われる可能性があると書いた。悪意ある主体がこの技術を使って「ソーシャルメディアの悪意あるコンテンツや偽のコンテンツ」「誤解を招く恐れのある報道記事」「オンライン上での他者のなりすまし」を自動化する恐れがあるとOpenAIは予想していた。
その上で、GPT-2は「こうした主体に、予期していなかった新たな能力を解き放つ」ために使われる可能性があると書いていた。
こうした技術の「社会的意味」を学ぶ「時間を人々に与える」ため、OpenAIはGPT-2のリリースをずらし、より優れたGPT-3へのアクセスを今も制限している。
とはいえ、デマ情報はすでにソーシャルメディア上にまん延している。最新のある研究によると、YouTubeのアルゴリズムは未だに誤った情報をプッシュしているし、最近では非営利団体Center for Countering Digital Hateがソーシャルメディアでシェアされている新型コロナウイルス感染症(COVID-19)に関する陰謀論の65%を生み出している12人 —— 「Disinformation Dozen」と呼ばれる彼らは数百万人ものフォロワーを持つ —— を特定した。
こうした中、生命科学を研究しているアレン研究所のCEOオーレン・エツィオーニ(Oren Etzioni)氏は、"何がリアルか"を見分けることは難しくなる一方だと、Insiderに語っている。
「『この文章、画像、動画、Eメールは本物か?』という問いに対して、そのコンテンツのみをもとに答えることはますます難しくなるだろう」とエツィオーニ氏は話した。
(翻訳、編集:山口佳美)