アマゾンが「Maverick(マーベリック)」の社内コードネームで呼ばれる新たなプロジェクトに着手した。画像は映画『トップガン マーヴェリック』(2022年)主演のトム・クルーズ。製作準備段階から深く関与して同作をヒットに導いたスーパースターになぞらえてのネーミングか。
Paramount Pictures
ジェネレーティブ(生成)AI市場の急成長が続く中、アマゾンは同技術のセキュリティ面に特化した新たな社内プロジェクトを立ち上げた。
Insider編集部が独自入手した内部文書によれば、この新たな取り組みは社内で「Maverick(マーベリック)」のコードネームで呼ばれており、生成AIおよび大規模言語モデルのセキュリティとリスクをテーマに、関連する新たなツールを開発し、同時に全社的な協業を促すのが狙いとされる。
新たなプロジェクトは、最高情報セキュリティ責任者(CISO、コンシューマー部門)のジョン・フリン氏ら経営幹部4人が統括する。
フリン氏はアマゾンへの移籍前、配車サービス大手ウーバー(Uber)で5年間、CISOを務めたセキュリティの専門家だ。
社内文書には以下のような記述がある。
「大規模言語モデルを基盤技術として使用する環境においても、顧客のデータと信頼を守る(従来からの)高度なセキュリティ基準を維持するため、当社のセキュリティ部門は2023年第2四半期(4〜6月)に新たな「Maverick」プログラムをローンチさせました。
アプローチとしては、生成Al関連の事業開発に取り組んでいる複数のチームが協業し、セキュリティに関するベストプラクティスを一元化して共有、(150万人超の従業員を抱える)当社の規模でセキュアな生成AI開発を実現するためのセンターオブエクセレンス(組織横断の取り組みにおける中核組織)を形成する流れです」
アマゾンの広報担当にコメントを求めたところ、以下の回答があった。
「当社は安全安心かつ責任ある生成AIの開発とデプロイに深くコミットしていきます」
「セキュアなAI開発の実現を目指す当社の組織横断的なアプローチは、AIのもたらすベネフィットを最大化し、リスクの最小化に貢献していく将来への道筋を切り拓くものです」
新たなMaverickプログラムは、生成AI分野でより大きな存在感を発揮しようというアマゾンの取り組みの一環とみられる。
アマゾンは数十年にわたってAI関連の技術開発に取り組んできたものの、対話型AI「ChatGPT」のリリースで一気に時代の寵児となったOpenAI、同社に巨額の追加出資を決めて優位に立ったマイクロソフト(Microsoft)、さらにその最有力対抗馬とされるグーグル(Google)のような、際立った動きを見せるには至っていない。
一部制約付きながらオープンソースで商用利用が可能な次世代大規模言語モデル「Llama 2(ラマツー)」を発表したメタ・プラットフォームズ(Meta Platforms)の存在も無視できないどころか、大きな脅威として浮上しつつある。
アマゾンは状況打開に向けた取り組みとして、生成AIやChatGPTのような対話型AI技術を使って製品やワークフローを改善するアイデアを出すよう、社内の各チームに要請している。
Insider編集部は、社内のアイデアを含めて想定されるユースケースを集めた「生成AIおよびChatGPTの影響と機会分析」なる内部文書の存在を6月12日付(日本語版は6月16日付)の記事で明らかにした。
また、8月1日付(日本語版は8月3日付)の記事で報じたように、アンディ・ジャシー最高経営責任者(CEO)は最近、社内で「最も野心的な」AI関連プロジェクトを推進する組織を新設。現在、自らその陣頭指揮を執っている。
Insider編集部の取材によれば、ジャシーCEOは、シニアバイスプレジデント兼アレクサ(Alexa)担当ヘッドサイエンティストのロヒット・プラサド氏を自らの直属とし、新たな組織の責任者に就任させた模様だ。
生成AIに関連する取り組みの一環としては他にも、7月14日付の記事で報じたように、クラウド部門のアマゾン・ウェブ・サービス(AWS)に顧客企業による生成AI技術の利用支援に特化した組織を新設している。
それ以前にも、「Amazon Titan(アマゾン・タイタン)」を含む複数の基盤モデルを提供し、顧客企業による生成AIベースのアプリ構築を支援するサービス「Bedrock(ベッドロック)」を2023年4月にリリース。
さらに、2022年にリリース済みだった自然言語対応のAIコーディングアシスタント「CodeWhisperer(コードウィスパラー)」についても、あらためて業務に活用するよう社内エンジニアに3月時点で指示を出している。
前出の内部文書によれば、新たにローンチさせたMaverickプログラムでは、アマゾンにとっての「生成AIにまつわるリスクを把握」し、「生成AIのセキュリティ状況をチェックできる一元化されたテストツール」の開発に取り組む模様だ。
特に注力する分野が二つ想定されており、一つは、生成AIモデルおよびアプリケーションの「セキュアな開発・レビュー・テスト(の各プロセス)を自動化」するツールの開発。
もう一つは、セキュリティチームとの協業を通じて「生成AIのセキュリティに関するガイダンス(手引き)を作成し、現行のセキュリティチェックの仕組みに生成AI特有のタスクを追加する」ことだという。