Jason Redmond / Reuters
1月、マイクロソフト(Microsoft)の社内フォーラムに、OpenAIが開発するチャットボット「ChatGPT」をはじめとするプロダクトを職場で使用してもいいかとの質問が書き込まれた。
この質問に対し、同社CTOオフィスのあるシニアエンジニアは、こうしたAIツールに機密情報を共有しない限りは使用してもかまわないと回答した。Insiderが確認したその回答内容とは次のようなものだ。
「OpenAIのエンドポイントには機密データを送信しないようにしてください。今後のモデルの学習に使われてしまうかもしれないので」
利益相反につながる可能性も
ChatGPTがにわかに世界で話題になったことで、一部のテック企業ではこのテクノロジーと自由に対話をするうえでの注意喚起を行っている。これに関して注目すべきは、マイクロソフトがOpenAIの主要な支援者でありパートナーであるという事実だ。
マイクロソフトは先日、OpenAIにさらなる出資をすると発表した。また、インフォメーション(The Information)が以前報じたところによると、マイクロソフトは検索エンジンBingやOfficeアプリケーションといった自社のプロダクトにOpenAIの技術を組み込むことも計画しているという。
カーネギーメロン大学で人工知能研究室を主宰するコンピューターサイエンス教授のビンセント・コニツァー(Vincent Conitzer)は、両社の蜜月関係は、マイクロソフトにとっての潜在的な利益相反につながる可能性があると指摘する。というのも、OpenAIが多くの学習データを得れば得るほど、マイクロソフトはそこから恩恵を得られるからだ。
マイクロソフトが無責任に振る舞うだろうと言うわけではないが、「インセンティブについては常に意識しておいたほうがいい」とコニツァー教授は言う。
一般的に懸念されるのは、社員がChatGPTに仕事の改善方法についてのヒントや助言を求めた際に、社内ソフトウェアコードのような企業秘密情報を不注意にChatGPTに書き込んでしまう、というリスクだ。ChatGPTがそれを処理して学習した後、他のユーザーとやりとりでその秘密情報を共有してしまう可能性があるのだ。
「人間なら、秘密保持契約に署名すれば情報の共有には慎重になりますが、ChatGPTのような大規模言語モデルはそんなことは推し量れませんからね。少なくともデフォルトでは」(コニツァー教授)
この件に関して、Insiderはマイクロソフトの広報担当者にコメントを求めたが回答は得られなかった。OpenAIの担当者は、同社のデータポリシーとプライバシーポリシーについて不明な点があればChatGPTのFAQページを参照してほしいとの返答だった。
Insiderの既報の通り、アマゾンでも同様の問題が生じている。ChatGPTが公開されて数週間が経った2022年12月、アマゾンの社員たちが社内のSlackチャンネルで、ChatGPTを仕事に使用してもよいかと質問したのだ。これに対し同社の顧問弁護士は、「(社員が使用している社内コードを含む)アマゾンのいかなる機密情報」もChatGPTで共有しないよう注意喚起をした。
誰が責任をとるのか
社員には秘密データを保護する義務がある一方、この問題に対処するためにマイクロソフトやOpenAIが具体的に何をしているのかは明らかではない。
「このような状況下で各々がどう振る舞うべきか、我々全員で考える必要があります。社員が機密情報を共有しないよう責任を持つべきなのか、OpenAIが情報を慎重に扱うよう責任を持つべきなのか。その両方か。そういった議論を進めるうえで、マイクロソフトはテック業界で押しも押されもせぬリーダー企業として大きな影響力を持つでしょう」(コニツァー)
OpenAIの利用規約では、ユーザーやChatGPTによって生成されたすべての入力内容と出力内容を利用する権限は同社にあるとしている。また、使用するデータからは個人を特定できる情報(PII)をすべて削除しているとしている。
しかし、ワシントン大学で計算言語学を教えるエミリー・ベンダー(Emily Bender)は、ChatGPTが急拡大していることを考えると、OpenAIがそのデータから個人情報を「完全に」特定し削除することはほぼ不可能だと指摘する。企業の知的財産もPIIのもとで定義されるものには含まれない可能性が高い、とベンダー教授は言う。
「データの使用方法については、OpenAIはあまり明らかにしていないのですが、もしそれらが学習データに組み込まれているとすれば企業は疑問を抱くでしょう。ChatGPTがこのまま普及したら、数カ月後には巧妙に書かれたプロンプトで企業の内部情報を抽出できるようになってしまうのでしょうか」(ベンダー教授)