リクルートの内定辞退率データ公開は就活生にどのような影響を与えるのか
撮影:今村拓馬
こんにちは。パロアルトインサイトCEO・AIビジネスデザイナーの石角友愛です。
今回はリクルートキャリア(以下リクルート)が企業に売っていた内定辞退率データに関して何が問題なのか、シリコンバレーを拠点にAI開発をしている立場の視点から書きたいと思います。
今回のリクナビ内定辞退率データ販売問題は、以下のステップで行われていたと報じられています。
- 過去の内定辞退者のデータを企業が委託契約という形でリクルートに共有する
- その辞退者のリクナビ上での過去の行動履歴データをリクルートがAI解析。どのような行動パターン(例:内定をもらった後も別の企業ページを見ていたかどうか、応募したかどうか等)や属性が内定辞退をした者に見受けられるかを解析。
- 今年の選考者リストを企業側から受け取り、2. のステップで抽出した属性やウェブ上での行動パターンに似ている行動を取っている人物を選定
- 企業側に5段階予測値という形で、選考者の「内定辞退率」を販売
という流れになると考えられます。リクルートに発注をしていた企業は現時点で38社ということで、企業とリクルートの間には委託契約がなされていたということです。
法的には、個人情報保護法第23条にあるように、本人の同意を得ないで情報を第三者に提供することを禁止しており、今回リクルートは8000人以上の学生から同意を得ないでデータを委託元の企業に提供していたとされます。
しかし、今回のケースは法律違反そのものより、もっと大きな次元での問題を露呈したと私は考えています。
何が「問題」なのか?
問題はリクルートに内定辞退率を伝えた企業に
出典:リクナビ公式サイトより
リクルートに委託発注をした企業側が、そもそも過去の内定辞退者の個人情報をリクルートに共有していたことが問題の発端です。
就職活動で応募をした人の個人的な属性情報と、内定を辞退したという事実をリクルートに渡していなければ、リクルート側が過去の内定辞退者に基づき辞退者とそうでない人の「特徴量の抽出」をすることは難しいためです。
一方、企業側は社内で抱えるデータサイエンティストがいたと仮定して、そのデータサイエンティストに過去の内定辞退者の情報を渡して解析し、今後の採用に使ったとしたら、問題になるでしょうか? または、企業側が(リクナビを運営しているリクルートではなく)独立したAI会社に委託していた場合、問題になるでしょうか?
「倫理的なAI」を求める潮流が広がる
今AI運用に求められるのは倫理観
撮影:今村拓馬
シリコンバレーには、ある示唆的な実例があります。
Project Mavenという米国防総省とのAI開発プロジェクトに関連して、「自分たちが開発したAIが、ドローン等の武器に使われる可能性がある」ことに反対した3000名以上のグーグル社員が署名活動を行い、結果的にプロジェクトが中止になったのです。
- 技術的に可能だとしても、倫理的に考えて開発をすべきなのか?
- 自分たちが開発したAIがそのあと、誰にどのような意思決定のツールとして使われるのか?
- 社会における影響はあるのか?
—— その議論を、AI開発をする者が主体的に行わなければいけない時代に突入しています。
相手が委託先でも雇用主でも本質的には問題は変わりなく、「依頼内容通りにAIを開発した」では(少なくともシリコンバレーでは)済まされないムードがあります。
重要なのは、このような声をあげることができるのは、開発者としての強い立場にいる人間だからです。
グーグル社員は、自分たちがグーグルにとって何より大事なアセット(人的資産)であることを自覚しています。だからこそ、署名活動をし、会社を動かしていけるのです。
IT企業の経営者は、今やこのようなビジネスのジレンマに挟まれながら、複雑な経営判断をしていかなければならなくなりました。これはグーグルだけではなく、ストが起こっているアマゾン、マイクロソフト、セールスフォースなどにも言えることです。
独占的に収集できる行動データを持つ企業リスク
ケンブリッジ・アナリティカ問題で議会に登壇するFacebookCEOマーク・ザッカーバーグ氏
REUTERS/Leah Millis
また、リクナビが就活市場で非常に強い立場にいたことも、大きなポイントだと感じます。
リクナビは日本の就活生の大半が登録しているという、いわば就活市場のモノポリー(独占)です。
市場を独占するものには、ネットワーク効果が働き(登録する就活生が増えれば増えるほど採用広告を出す企業も増え、その逆もある)大量のデータが集まります。
他の会社が持たない大量のデータを「行動予測」に変えて企業に販売、商品化していた行為は、Facebookやグーグルのターゲティング広告やネットフリックスやアマゾンの商品レコメンドと技術的には変わりません。
Facebookでは独占的立場で収集できるデータを第三者に開示していたことが、アメリカでは大問題になりました(注:いわゆるケンブリッジ・アナリティカ問題で、ネットフリックスでは告発ドキュメントまで作られた)。今もFacebookへの批判は止まっていません。
ケンブリッジ・アナリティカをめぐる内部告発を扱ったドキュメント「グレートハック:SNS史上最悪のスキャンダル」。
出典:ネットフリックス
捜査が始まり、FacebookはFTC(連邦取引委員会)へ50億ドルの和解金を払うことで合意しました。2019年8月にはOff-Facebook Activityという「ユーザーから収集したデータとユーザーのアカウントを切り離す広告技術」を発表。ターゲティングの精度が下がることによる売上減少を覚悟してでも、ユーザーのプライバシーを守ることを優先事項におきました。
また、ユーザーデータを収集するために、Facebook Researchというものを立ち上げ、ユーザーに毎月20ドルほどの報酬を払う代わりにスマホ上のその他のアプリのデータを下さい、というプロジェクトもありました(13才以上を対象にしていたため問題視され現在中止、現在は18才以上を対象にしている)。
賛否両論あるものの、料金を払うことで初めて、ユーザーに自分たちの行動ログデータの商品価値が伝わったと言われています。そこまでして手に入れたいユーザーの行動ログデータ。今、アメリカの消費者は、自分のログデータがどんな金銭的価値に転換され、自分や社会にどんな影響があるのかを理解しつつあります。市場を独占するプラットフォーマーには公平性と透明性がより強く求められるべきという動きがあります。
果たして、予測精度は「問題がある」水準だったのか?
問題の争点はAIの精度にもある。
shutterstock
もう一つ、今回のケースで欠けている議論があります。それはリクルートが開発した内定辞退率予測AIの「精度」です。
変な話かもしれませんが、もし99.9%の精度で応募者の辞退率を当てるAIだとしたら、誰が損をするのか? という議論も考えられます。
辞退をする予定だった人は、オファーをもらわずにすみ、自分が行きたい会社により集中でき、内定を出す予定だった会社の採用担当者はコストを削減でき、席が空くことで本当にその会社に行きたい人によりオファーが出る確率が高くなるとしたら、Win-Win-Winの関係になり得ます。
しかし、消費者が知らない間にそのようなAI開発がされていたことの心理的、倫理的な問題を除いても、99.9%の精度のAIを開発することは難しいでしょう。また、0.1%の間違いが、応募者の人生を大きく変えることになります。
就活のAI選定は単なる商品のレコメンドとは話が異なる。
shutterstock
アマゾンで商品をレコメンドする、グーグルで広告を表示する、というAIはあくまで消費者に決断が委ねられます。
クリックするかしないか、内容を見るか見ないかは個人次第。個人にコントロールする力があるのです。
AIに関するリテラシーが進み、レコメンドの仕組みを理解するユーザーが増えれば、より上手く付き合えるようになると言えます。
しかし、内定をもらうかもらわないか、ローンの審査が通るか通らないか、というような「人生を大きく変える決断」は自分がコントロールできないものです。
線引きは難しいものの、そのような大きな意思決定プロセスにAIを使うときは、開発者と発注者は、一層慎重にならなければいけません。
説明可能なAI(XAI=Explainable AI)を開発し、意思決定をするものはそのデータを扱う社会的重みと責任を理解し、本来必要のないデータなのであれば最初から入手しないという明確な姿勢が求められます。
今回のリクルートの問題は、Facebookのプライバシー問題と似ている点が多く、これをきっかけにAI時代のプラットフォーマーの正しいデータの扱い方や、プライバシーの議論がより活発になると思われます。
学生へ謝罪メールを送ることが解決策なのではなく、根本的なデータビジネスのあり方を見直さなければいけないと言えます。
(文・石角友愛)