ジェネレーティブAIの急速な発展により、誰がこの技術を取り締まるのかと多くの人が不安を抱いている。
OpenAI
最近、ツイッター(Twitter)をスクロールしていると、ジェネレーティブAIに関するスレッドや投稿を見かけることが多い。
フェイスブック(Facebook)のグループからレディット(Reddit)のフォーラムまでインターネット上のあらゆる場所で、人間がわずか数行のガイダンスを書き込むだけでこの新しいAI技術が児童書やおかしな画像などのコンテンツを生成してくれると絶賛の声が上がっている。
しかしこの華やかな技術には、暗い裏の顔が潜んでいる。
2022年12月下旬、人気のアンダーグラウンド系ハッキングフォーラム「ブリーチフォーラムズ(BreachForums)」には、物語からコードまで生成できるOpenAIの対話型AIチャットボット「ChatGPT」を使ってどのようにマルウェア(データを盗んだりコンピューターに損害を与えたりするソフトウェア)を作ったか、という趣旨の書き込みが投稿された。
2022年初夏には、スタートアップ企業のスタビリティAI(Stability AI)が開発するアート生成AI技術を使って生成された、有名人のヌードやポルノなどのディープフェイク画像が、掲示板「4chan」上のスレッドにあふれ返った。
また、科学技術系情報サイト「フューチャリズム(Futurism)」の記者たちが、AIを搭載したアートジェネレーター「Dall-E Mini」に「賢い女の子」と「良い人」というプロンプトを与えてみるという実験をした。AIは多くの顔を生成したが、それらはすべて白人の顔だったという。
このようにジェネレーティブAIは、意識的にせよ無意識的にせよ有害な目的で使用される懸念があるにもかかわらず、この分野の評価と過熱報道は果てしなくエスカレートしているようだ。その一方で、多くの人がこの新しい技術を規制する責任は誰にあるのかという疑問を抱いている。
自らを規制するスタートアップ企業たち
自分たちのプロダクトが誤った目的で使用されないように、自ら責任を負おうとするスタートアップもある。
2020年、AIによる音声生成技術を持つ企業、リゼンブルAI(Resemble AI)は、話者を検証し、偽の音声を検知できるオープンソースのパッケージ「Resemblyzer」をリリースした。この技術はすでに2000回以上利用されていると、リゼンブルAIの創業者兼CEOのズヘブ・アフマド(Zohaib Ahmed)は言う。
「雑誌を手に取ったとき、その中にあるすべての画像をそのまま信じるわけではないですよね。Photoshopで加工されているもの、改ざんされているものは何となく分かるものです。オーディオやビジュアルについても、雑誌と同じように見ることを学ぶべきです」(アフマド)
Resemblyzerでは、モデルが音声の断片を分析し、ピッチや速度などの識別特性に基づいて、数百の数字から成る特定の署名(シグネチャ)を音声に割り当てる。そして、他の音声サンプルとそのシグネチャを比較し、同じ話者から発せられたものかどうかを判断する。
リゼンブルAI自身も社内でResemblyzerを使っている。AI生成音声を作成するためにユーザーがアップロードしたサンプル音声ファイルが、承諾済みのアップロード音声と一致するかを確認し、ファイルの使用許可を与えるためだ。
また、AI生成動画のスタートアップであるシンセシア(Synthesia)の共同創業者兼CEOのビクター・リパルベリ(Victor Riparbelli)のように、安全対策を講じることではなく、教育することこそが問題解決への第一歩だと主張する人物もいる。
2022年11月のアメリカ中間選挙を前に、シンセシアは、ディープフェイク(ソフトウェアやAIを使って作られたフェイク動画)の公開データベース「Deepfaked」をリリースした。規制当局と一般の人々に、この技術について理解を深めらてもらおうという狙いからだ。
「何をすべきか、すべきでないかを提示しようというのではなく、ディープフェイクをめぐる背景などについて学べる場を提供しようという狙いです」(リパルベリ)
このデータベースは、ディープフェイクにまつわる汚名と恐怖を和らげるものでもある。悪評はあるものの、ディープフェイクの大半は悪意ある目的というより、マーケティングやエンターテインメントのために使われているとリパルベリは語る。また、当初の予想に反して、2022年の中間選挙期間中にディープフェイクの割合が目立って増えることはなく、表面化したフェイク動画はすぐに検知され、報道機関によって指摘されたという。
しかし、AIのイノベーションが急速に進むにつれ、ジェネレーティブAIは、ディープフェイクポルノを通じて一般の人を攻撃したり、政治家を危険に陥れるといったように社会への脅威になり得るとリパルベリは考えている。リパルべリ、アフマドの両氏は、この業界にはより広範な安全対策と規制が必要だと話す。
現在、アメリカにはAIに関する包括的な連邦法というものは存在しないが、2022年には偏りのあるデータを持つAIを採用業務に使用した問題をめぐって、使用事例別の規制が登場した。すでにアメリカ政府関係者は、こうしたAI悪用の懸念を払しょくするため、AIスタートアップとパートナーシップを組んだり、研究への資金提供を進めたりしている、とアフマドは言う。
AI投資家の責任
ベンチャーキャピタル(VC)も、多くのスタートアップの資本に関わるゲートキーパーとして、ジェネレーティブAIの倫理を保つ責任を自覚している。
安全性を重視する企業を支援するのもVCが貢献できる一つの方法だと、レッドポイント・ベンチャーズ(Redpoint Ventures)社長のジョーダン・セガール(Jordan Segall)は言う。アンソロピック(Anthropic)はその一例で、同社は「有害なアドバイスや悪質な行為なしでモデルを訓練する」ことを重視して研究を重ねているAIスタートアップだ。
一方、NFXのゼネラルパートナーであるジェームズ・カリアー(James Currier)は、取締役会の一員となって投資先企業が十分な時間とリソースを費やして入念にプロダクトを作り上げているかを監視することで、AIスタートアップを強力にコントロールしようとする投資家もいると語る。
結局のところ、ジェネレーティブAIを悪用させないためにはスタートアップ、投資家、規制当局が協調して対策をとっていくことが必要だ、というのがAI企業の創業者やVCの一致した見解だ。
「今後20年の間に、世の中にはさまざまなAIが数多く出回るようになります。社会を良い方向に進めるため、幅広い意味での個人と政府の行動が必要になるでしょう。ソーシャルネットワークの分野では、これはほぼ完全な失敗に終わりました。その二の舞にはしたくないのです」(カリアー)