AIを闇雲に崇める企業やユーザーに潜むリスクとは?「自信満々で間違った回答を出す危険性を無視している」

Robotworkforce-copy1_eye

※この記事は、ブランディングを担う次世代リーダー向けのメディアDIGIDAY[日本版]の有料サービス「DIGIDAY+」からの転載です。「科学者はなぜ、原子を信頼しないのか? なぜなら、原子はすべてのものを作り上げてしまうからだ」

オープンAI(OpenAI)共同創業者兼プレジデントのグレッグ・ブロックマン氏はこのほど、同社開発によるAI言語モデルの最新版「GPT-4」(Generative Pre-trained Transformer 4)を発表した。GPT-4は深層学習を用いて人間が書いたかのような文を生成する第4世代の自己回帰型言語モデルで、AIチャットボットChatGPTの技術基盤となる。同氏は発表時におこなった製品デモで、ノートに手書きしたメモの画像からウェブサイトを作成してみせた。

このデモで同氏が「面白いジョークを教えてほしい」という命令を入力したところ、GPT-4が導き出した答えが冒頭のジョークだった(言葉遊びにこめられた皮肉は会社側が意図したものではないと思われる)。ジェネレーティブ(生成系)AIの機能はたしかに驚異的かつ魅力的だが、一方で「信頼性」と「でっちあげの可能性」については大きな問題を孕んでいる。

AIがもたらす「幻覚」というリスク

ロンドンのインペリアル・カレッジで教鞭をとるAT/イノベーション専門のデヴィッド・シュライアー教授は、「多くの企業経営者がChatGPTに魅了されている」と語る。このAIチャットボットが、ウェブサイトの構築、ゲームや先駆的医薬品の開発、司法試験の合格答案作成などを瞬時に実行できるというのだから、関心の高まりもうなずける。

そういっためざましい成果は経営者たちの判断力を曇らせる恐れがあると、新興技術関連の著作をもつ未来学者のシュライアー氏は指摘する。ChatGPTを闇雲に崇める企業や個人ユーザーは、「AIが自信満々で間違った回答を出す危険性を無視している」という。この種のツールにひそむ数々の落とし穴に気づかないままChatGPTを我先に導入する企業が直面しうる大きなリスクについて、同氏は警鐘を発しているのだ。

ChatGPT最新版は「大規模言語モデル」をベースにしたAIツールで、オープンAIが3000億ワードを超える単語を入力して性能を強化したものだ。Googleの研究者らは2018年に発表した論文で、ニューラル機械翻訳を例として取り上げ、「原文と乖離(かいり)した異常な翻訳文を生成する恐れ」があるとして、AIがもたらす「幻覚」のような情報の危険性を指摘している。

AIの言語モデルはときに本筋を逸脱して、人間の脳と同様、妄想を生み出す可能性もある。よって、出力された成果物に関しては事実の検証を怠ってはならない。

生成ツールではなく、あくまで生成支援ツール

あわせて読みたい

Popular