Eric Broder Van Dyke / Shutterstock.com
2022年12月、アマゾン(Amazon)の社内Slackチャンネルには「ChatGPT」に関する社員からの質問であふれていた。ChatGPTとは同年11月下旬のリリース以来テック業界を賑わせているジェネレーティブAIツールだ。
Slackのチャンネルに寄せられた質問は、例えばこんなものだ。アマゾンの社用デバイスでChatGPTを使う際の手引はありますか? そもそも自分たちはChatGPTを仕事で使ってもいいのですか? ChatGPTのようなジェネレーティブAIツールをどこまで使っていいか、AWS(アマゾンのクラウド部門)としての見解を示してほしい、などだ。
これらの質問に対し、Insiderが確認したスクリーンショットではアマゾンの上級顧問弁護士が回答している。
同弁護士は従業員に対し、ChatGPTに「アマゾンの機密情報(自分が作業中のアマゾンコードを含む)」を書き込まないよう注意喚起している。また、ChatGPTが生成する回答の中にはアマゾンの内部データと似ている「事例」があることから、従業員は同社の利益相反および機密保持ポリシーに従うよう呼びかけている。
「なぜこのことが重要なのかというと、皆さんの入力内容がChatGPTのさらなるイテレーションの教師データとして使われる可能性があるから、そして、ChatGPTに当社の機密情報やそれに類似する内容を出力されては困るからです(既にその出力内容が既存の資料に酷似する事例を確認済みです)」(弁護士の回答)
降って湧いた「倫理問題」
このやりとりは、プロンプトに対して極めて明瞭かつ知的な回答を返すことのできるチャット型AIツール、ChatGPTが彗星のごとく現れた結果生じた、新たな倫理問題と言える。
ChatGPTが急速に普及することで、メディア、学術、医療など多くの業界が根底から覆される可能性がある。そうなれば、ChatGPTを使用した際に生じる結果にも積極的に対処する必要が出てくる。
ChatGPT上で企業の機密情報をどう扱うべきか、このAIツールの開発元であるOpenAIがそれをどう扱うのかといったテーマは、今後厄介な問題となりそうだ。これはアマゾンにとっては特に重要な問題だ。というのも、最近新たに総額100億ドル(約1兆3000億円、1ドル=130円換算)とも言われる資金を調達したOpenAIには、アマゾンのライバルであるマイクロソフト(Microsoft)が多額の投資をしているからだ。
ワシントン大学で計算言語学を教えるエミリー・ベンダー(Emily Bender)教授は次のように話す。
「データの使用方法については、OpenAIはあまり明らかにしていないのですが、もしそれらが教師データに組み込まれているとすれば企業は疑問を抱くでしょう。ChatGPTがこのまま普及したら、数カ月後には巧妙に書かれたプロンプトで企業の内部情報を抽出できるようになってしまうのでしょうか」
アマゾンの広報担当者からはコメントが得られなかったものの、OpenAIの担当者からは、ChatGPTのデータおよびプライバシーポリシーに関する質問についてはChatGPTのFAQページを参照するようにとの回答があった。
ChatGPTを「コーディングアシスタント」にしているアマゾン社員も
アマゾンはChatGPTに関して、いくつかの社内規定を設けている。例えばInsiderが確認したスクリーンショットによると、従業員が社用デバイスでChatGPTのウェブサイトにアクセスすると「アマゾン・セキュリティが使用を承認していない可能性がある」サードパーティーのサービスにアクセスしようとしている旨の警告メッセージがポップアップ表示されるという。
Slackチャンネルに参加している従業員によれば、「承認」ボタンをクリックするだけでこのメッセージを回避できたという。内部使用に関してはまだ会社の方針が示されていないため、この警告は従業員が機密情報をChatGPTに貼り付けるのを防ぐためのものではないかと同従業員は推測している。
一方で、すでにこのAIツールをソフトウェアの「コーディングアシスタント」として利用し、社内のコードを改善するよう依頼している社員もいることが、Insiderが確認したSlackメッセージから明らかになった。
ある人物は、「今これを直接使えるようになったらすごいことだと思う。だから、なんであれ手引きがあるとすごく嬉しい」とSlackチャンネルに書き込んでいる。
「怖くもあり楽しみでもある」
別の社員は、アマゾンが募集しているオープンコーディング職の面接の質問をChatGPTに共有したという。この従業員がSlackに書き込んだ内容によると、ChatGPTは技術的な質問にも正しく回答したという。
「これがコーディング面接のやり方にどんな影響を与えるか、怖くもあり楽しみでもある」とこの従業員は書き込んでいる。
このSlackチャンネルに参加している従業員は全体的にChatGPTに可能性を感じており、アマゾンも競合するようなプロダクトに取り組んでいないのかと尋ねていた。
これに対し前出の顧問弁護士は、アマゾンの音声アシスタント「アレクサ」やコード推薦サービス「CodeWhisperer」を引き合いに出し、アマゾンが「類似した技術」を広く開発していると回答している。
Slackのメッセージによると、AWS所属のある社員は、法人サポートチームが最近「高度なチャットAIが我々のビジネスに与える影響を理解する」ための小規模なワーキンググループを社内で立ち上げたと書いている。
そのワーキンググループで調べたところ、Aurora(AWSが開発したリレーショナル・データベース)のトラブルシューティングといった難しいものも含め、AWSのサポートデスクとしてChatGPTが「非常に役に立つ」ことが明らかになった。また、AWS認定クラウドアーキテクト試験のトレーニング教材を作成するうえでも「素晴らしい」し、クライアント企業の目標を考えるうえでも「非常に良い」と、同社員はSlackに書いている。
「透明性からは程遠い」
前出のワシントン大のベンダー教授によると、職場におけるChatGPTの利用が増えたことで、ここで共有された素材をOpenAIがどのように利用するのかという点が今後大きな問題になりそうだ。
OpenAIの利用規約では、ユーザーとChatGPTが生成したすべての入力内容と出力内容を同社が利用できることに同意するよう、ユーザーに求めている。また、利用するデータから個人を特定できる情報(PII)はすべて削除するとしている。
ベンダー教授は、ChatGPTの規模が急速に拡大していること(ローンチからわずか1週間でユーザー数は100万人を超えた)を考慮すると、OpenAIが個人情報を「徹底的に」識別し、削除しているとは考えにくいと指摘する。さらに重要なことに、企業の知的財産は「PII」の定義に含まれない可能性が高いと教授は話す。
アマゾンの従業員は、データ・プライバシーには関心がないようだ。彼らはこのチャットボットを職場で使うことで「生産性が10倍になった」と言い、他の社員もたち、類似サービスを開発する社内チームに参加したいとの意向を示している。ある従業員はSlackにこう書き込んでいた。
「もし今これに似たサービスを開発するプロジェクトがあるなら、声をかけられればぜひコミットしたい」