アマゾンも止めたAI採用。リクナビ問題に潜むAI活用のリスク

就活イメージ

「リクナビ」が学生の同意を得ず、AIを使って算出したの内定辞退率を企業側に提供していた問題は、人材企業や人事関係者に大きな波紋を広げている(写真はイメージです)。

撮影:今村拓馬

リクルートキャリアが運営する就活支援サービス「リクナビ」がAIを使って学生の内定辞退率を算出し、企業に販売していた問題が、政府や人事関係者に大きな波紋を広げている。

政府の個人情報保護委員会は8月26日、リクルートキャリアが約8000人分の就活生の個人データを本人の同意を得ずに外部提供していたとして、是正勧告を出した。さらに厚生労働省の東京労働局は、リクルートキャリアの行為が「特別な理由のない個人情報の外部提供にあたる」とし、職業安定法違反による異例の行政指導に踏み切った。

大企業ニーズに答えたサービス

リクナビなどの就活サイトは数社に限られ、現在はその利用を前提に就活が成り立っており、就活生がサイト側の運営方針に「同意しない」ことを選択するのは難しい。そうした優越的地位を利用して個人情報を活用し、辞退率データを年間400万~500万円で販売していたリクルートキャリアの責任は厳しく問われるべきだろう。

IT企業など複数の企業の人事責任者の経験を持つ株式会社モザイクワークの髙橋実取締役COOもこう指摘する。

「終身雇用が崩壊するなかで、より優秀な人材を囲いこまざるを得ない状況に追い込まれ、特に採用数の大量確保が必要な大企業は今のリクナビのサービスに限界を感じている。そんな大企業のニーズに素直に応えたのが今回のサービス。学生と企業双方のためのプラットフォームであるべきリクナビが本質的なプラットフォーマーの役割を忘れ、学生を尊重せず、お金を払う企業のニーズに寄ってしまった」

採用のモラルが低下している

recruit2

多くの就活生が利用するリクナビ。就活に「マスト」なプラットフォームゆえに、学生側が個人情報に関して「同意しない」と選択することは難しい。

出典:リクナビサイト

今回の問題の重大性は情報提供事業者のリクルートキャリアだけではなく、企業側も深く関与していたことだ。2018年春に開始した今回のサービスは「リクナビDMPフォロー」と呼ばれる。DMP(データ・マネジメント・プラットフォーム)とは、ネット上に蓄積された自社の顧客データを統合するシステムのこと。

代表的なものの一つが「クッキー」と呼ばれる閲覧サイトを見た人の端末の中に保存される情報だ。そこにはサイトを訪れた日時、訪問回数などあらゆる情報が記録されている。

報道によると、サービス開始当初は応募者の氏名などの個人情報を隠すために、クッキー情報だけを採用企業が提供し、リクナビが保有するクッキー情報と照らし合わせて企業自身が個人名と辞退率を予測していたそうだ。

しかし、それだけでは個人を特定することができない。そのため2019年3月から採用企業に応募者の氏名、メールアドレス、大学名を提供してもらい、リクナビ会員の個人情報と直結させ、AIが計算した内定辞退率を弾き出していたという。

驚くのは、企業側が採用に応募してきた学生の個人情報を提供していたことだ。しかもこのサービス購入企業はトヨタ自動車をはじめとする大手企業38社。髙橋氏は企業の責任についてこう語る。

「企業のニーズがなければこのサービスが世に出ないし、ニーズが出てくること自体に企業側のモラルが崩壊している実態を表している。採用する側のモラルの低下には目を覆わざるを得ない。同じ人事を担う人間として、採用モラルの低下、学生不在の採用をしている人事がいることをとても寂しく感じる」

AIによる内定辞退率予測データは、扱い方によっては学生が不利益を被る可能性もある。サービス購入企業は「選考の合否に使っていない」と弁明し、あくまで内定辞退しそうな学生のフォローに使っていると言っているが、本当かどうかは誰にもわからない。いずれにしても個人に深刻な影響を与えかねないデータリスクが採用の現場で露呈したことは間違いない。

データやアルゴリズムに含まれるバイアス

人工知能

AIを取り入れるに当たって、採用など人事労務分野への影響が心配されている。

shutterstock

実はAIの活用で最も懸念されているのが、採用を含めた人事労務分野への悪影響だ。

9月11日、厚生労働省の労働政策審議会はAI等の新技術が雇用・労働に与える影響などをまとめた報告書(労働政策基本部会報告書)を了承した。その中で労働者のプライバシーの保護や個人データを適切に活用するための倫理観が不可欠であると述べるとともに、AIによる判断に関する企業の責任・倫理ついてこう指摘している。

「AIの情報リソースとなるデータやアルゴリズム(計算方式)にはバイアスが含まれている可能性があるため、AIによる判断に関して企業が果たすべき責任、倫理の在り方が課題となる。例えばHRtechでは、リソースとなるデータの偏りによって、労働者等が不当に不利益を受ける可能性が指摘されている。このため、AIの活用について、企業が倫理面で適切に対応できるような環境整備を行うことが求められる」

具体的対策として、

  1. 人事労務分野でAIをどのように活用すべきか労使や関係者で協議する
  2. HRTechを活用した結果にバイアスや倫理的な問題点が含まれているかを判断できる能力を高める
  3. AIが行った業務の処理過程や判断理由が倫理的に妥当か、説明が可能かどうかを検証する

ことを提起している。

指摘されているプライバシー保護の倫理観は、少なくとも内定辞退率予測データを購入した大手38社に関しては欠如していたと言わざるを得ない。AIの活用方法についての労使協議などの社内手続きも踏んでいたとは思えないし、担当部署が独断で行った可能性もある。

厚生労働省幹部はこう指摘する。

「いろんな個人データを蓄積してAIで分析するにしても個人の同意が必要だが、どの範囲で使われるのかという説明が不可欠だ。AI分析によってその人の嗜好、趣味など人となりを今まで以上に推測できるようになる。例えばこの人は、特定の能力に欠けている、辞めやすい、ケガをしやすいとAIが判定すると、その人をどう扱うのかについては、権利を侵害しない倫理観が求められる」

ESをAIで振り分け、AI面接導入も 

面接

採用面接の際にも、AIを取り入れるようになってきている。

shutterstock

実際に人事の現場でAIはどの程度活用されているのか。

採用ではエントリーシート(ES)をAIが読み込み、合否を判定する手法は人事関係者の間では広く知られている。代表的なIBMのワトソン(Watson)を使った選考手法は、ソフトバンクが2017年の採用から活用している。

過去の合格・不合格のESをワトソンに学習させた上で、学生が提出したESを会社が求める人物像の要件に合っているかどうか判定する。ただし、何をどう判断しているのかについてはブラックボックスだ。もちろんこれで採用が決まるわけではなく、あくまでも面接選考者を絞り込むために使っている。

最近は「AI面接」を取り入れる企業もある。人間に代わってAIが質問し、その回答を分析し、「チャレンジ精神」「協調性」「ストレス耐性」などの資質について評価する。しかし、本当に選考に使えるのか、評価が定まっていないのが現状だ。

インターンシップ参加者の事前選考でAI面接を実施している住宅メーカーの人事課長はこう語る。

「質問に明確な答えがなければ再び同じ質問を繰り返し、答えが出ると次の質問をするという機械的な面接にすぎない。質問に対して明確に答えられるか、知識を持っているかを確認するぐらいのレベルだ。まだ初期選考のスクリーニング程度にしか使えず、インターンシップ参加者の絞り込みのためにオンライン上で使っている。

さすがに社員の採用選考では部門による適性の違いや、職種によって異なる適性が求められるなど微妙な違いあるのでAIには任せられない」

AI採用を打ち切ったアマゾン

アマゾン社

アマゾンではAIを使用した人材採用システムに欠陥を見つけ、利用を打ち切ることになった。

shutterstock

AI特有の落とし穴もある。2018年10月、アマゾンがAI採用を打ち切るというニュースが流れた(ロイター、2018年10月10日)。

記事によると、AIを活用した人材採用システムに「女性を差別する機械学習の欠陥」が判明したからだという。過去10年間の履歴書のパターンを学習させた結果、ソフト開発など技術関係の職種採用ではシステムに性別の中立性が働かない事実が発見された。

履歴書に「女性チェス部の部長」「女子大卒業生」とあれば評価が下がる傾向が出たという。AIは過去の膨大なデータを読み込み、分析する能力には秀でている。しかし、過去のデータが古い価値観に基づいたものであれば、今の価値観に合わない答えを出す可能性もある。

前出の厚労省の報告書でも、人事分野のリソースとなるデータの偏りによって労働者が不当に不利益を受ける可能性を指摘している。前出の厚労省幹部もこう指摘する。

「そのデータがどこからどのように選んで蓄積されたものかによって一定のバイアスが生じる可能性を認識すべきだ。人事データの偏り、例えば男女によって偏っているデータをAIが学習することで、女性が不利益を受ける可能性があることを人事労務の担当者は認識すべきだ」

仮に日本企業が男性や日本人中心、学歴といった旧価値観に基づく採用データを学習させると、性別、国籍など多様性を排除する分析を行う可能性もある。

離職可能性高い人を抽出しフォロー

現時点では昇給・昇進に関する人事評価にAIを活用している例は聞かないが、離職率防止に活用している企業はある。介護事業も営む大手企業の人事部長はこう語る。

「介護部門の1年以内の離職率が異常に高かったので、500人の新入社員が毎日記録している日誌をAIに読み込ませ、離職可能性が高い人はアラートが出るようにした。アラートが出た人には個別に悩みなどを含めた面談を実施。その結果、短期の離職率が2割減るという効果も生まれている」

社員の離職を防ごうとするのは結構なことかもしれないが、使い方によっては逆のリスクも発生する。

例えば経営者が「あいつは辞めそうだから、昇給や昇進させる必要はない」とネガティブに判断する可能性もある。どうせ辞めるのではあれば、人材投資もしないとなれば、労働者が不利益を被る。

それは冒頭の内定辞退率の予測データのリスクとも共通する。つまり「辞退可能性が高ければ合格させない」という判断も可能になるからだ。

人事労務分野での今後のAIの活用について前出の髙橋氏はこう危惧する。

「現在のAI技術で可能なのは人間が見落としているものを把握すること、もう一つが大量の認識データを分析し、その結果に基づいて予測できること。課題を解決する魔法ではなく、そのために必要な要件をどのように定義するかを考える必要がある。

しかし、AIを使う最大の障害は、人事部が人事の仕事を論理的に整理できていないこと、もう一つがデータを取り扱う人事担当者が倫理観を含めて必要な要件を定義できない、つまり論理的に考えるスキルが不足していることだ。ネガティブな方向で活用した内定辞退率予測が批判されたのは、まさにその点が欠けているからだ」

AIは決して万能ではない。その活用方法を間違うと、働く人にとって不幸をもたらす可能性もある。

編集部より:初出時、ソフトバンクがワトソンをエントリーシート段階の「足切り」に使っているとしておりましたが、ワトソンで不合格でなった場合は人間が改めて判断しているので、「足切り」という言葉を削りました。訂正致します。 2019年10月9日 12:45

溝上憲文:人事ジャーナリスト。明治大学卒。月刊誌、週刊誌記者などを経て独立。人事、雇用、賃金、年金問題を中心テーマに執筆。『非情の常時リストラ』で2013年度日本労働ペンクラブ賞受賞。主な著書に『隣りの成果主義』『超・学歴社会』『「いらない社員」はこう決まる』『マタニティハラスメント』『人事部はここを見ている!』『人事評価の裏ルール』など。

編集部より:初出時、リクナビサイトの写真としていたものは、リクナビNEXTのサイトの写真でした。お詫びして訂正致します。 2019年10月8日 12:00

Popular

あわせて読みたい

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み