テック業界“男性ばかり”問題を徹底討論。ジェンダー平等は義務かチャンスか?

bi1

テック業界はトップばかりでなく、エンジニアを中心に圧倒的に男性が多い。

REUTERS

世界各国のさまざまな業界でジェンダーギャップを解消しようとする動きが加速している。中でもまだ男性のリーダーが多いテクノロジー業界では、女性が働きやすく、能力を発揮しやすい環境をどう整備するかは大きな課題だ。今後さらにAIが普及する社会では、アルゴリズムを設計する側のジェンダー平等も問われている。

テック業界でどうやって女性を増やし、ジェンダーバイアスを解消していくのか。シリコンバレーで働くAIビジネスデザイナーの石角友愛さん、IT評論家の尾原和啓さん、テクノロジー系スタートアップで働いてきた中澤理香さんに議論してもらった。

石角友愛氏(以下、石角):2011年からグーグル本社の機械学習オペレーションチームで働く。AIスタートアップ2社を経て、2017年にAIビジネスデザインカンパニー「パロアルトインサイト」を起業し、同代表。

尾原和啓氏(以下、尾原):グーグルジャパンでAIアシスタントサービス「Google Now」を日本で立上げ、楽天の執行役員を務めるなど、プラットフォーム企業でアルゴリズムの公平性に関連するプロジェクトに携わる。

中澤理香氏(以下、中澤):新卒でミクシィ入社。Yelp Japan、メルカリを経て、2020年10月から10X(社員20人程)で広報と人事を担当。

黒人をゴリラと紐づけする画像認識技術

男性医師と女性看護師

医師といえば男性、看護師といえば女性。アルゴリズムがそうしたジェンダーバイアスのもとに設計されていることもある。

Shutterstock/polkadot_photo

——ジェンダーとテクノロジーのうち、アルゴリズムにおける公平性をどう確保するのか。テクノロジー業界における女性のキャリアをどう作るのか。という2つの論点についてお聞きしたいです。

石角:数年前、世界最大級のAI関連学会NeurIPS(ニューリップス)で、アルゴリズムのジェンダーバイアスに関する興味深い発表がありました。

「彼女はドクターです」という英文をGoogle翻訳でトルコ語にすると、そのまま「彼女はドクターです」となりますが、それを英語に戻すと「彼はドクターです」となってしまった。

トルコ語では「彼」と「彼女」が同じ言葉で、ドクターという単語が「彼」と同時に使われる確率が高いので、英訳する時にAIが「彼」と訳してしまったのです。逆に「彼はナースです」という英文をトルコ語に翻訳して、再び英訳すると「彼女はナースです」となりました。

まさしくアルゴリズムにおけるジェンダーバイアスの例です

尾原:「Google フォト」で黒人男性をゴリラとタグ付けしてしまったのが、有名な「ゴリラ問題」です。グーグルは「ゴリラ」というタグを手動で削除するというアナログな方法で対応しました。

尾原和啓さん

尾原和啓さん。

撮影:今村拓馬

職業ひとつとっても何万という種類があり、過去のデータそのものにバイアスがある中、どのようにジェンダーのフェアネスを実現していくかは、さまざまな議論をはらむ問題です。

石角:私たちがAIを設計、開発する時、学習データそのものにジェンダーギャップがあると、AIはそこから学習してしまいます。差別や偏見につながる学習データはなるべくラベル付けしない、あるいは「その他」とラベル付けすることでバランスを取っています。

ただ人間が介入し過ぎると、そもそも誰が公平性を判断するのかという議論もあります。

尾原:フェイスブックの機械学習応用部門を率いるホアキン・カンデラは「フェアネスは結果ではなくプロセスである」と言っています。どのプロセスにバイアスが入り込むのか特定し、なるべく除去してフェアネスを実現する。

参考画像

AIは例えば、猫の写真データに「これは猫です」という正解情報をラベル付けしたデータをベースに学習します。このラベル付けに入り込むバイアス、プログラミングの過程でアルゴリズム自体に入り込むバイアス、そしてアルゴリズムを実施に移行するなかでの介入のバイアス。それぞれのプロセスにおけるバイアスを排除することで、多様性を担保することが大事だと言っています(図参照)。

フェイスブックでは、学習データの作成時にジェンダーや人種、宗教などさまざまな分野で補正をかけてラベル付けしています。

石角:私たちパロアルトインサイトもそうしています。正解があるわけではないので、クライアント企業とも議論を重ねています。

中澤:人を登用したり、どの経営者に投資したりするかという意思決定でも、過去のデータに基づくと、30代か40代の男性が起業の成功率が高いということになりますよね。IT企業はデータで意思決定する傾向がありますが、これまで蓄積されてきたデータそのものにバイアスがかかっていたら変わるはずがありません。

女性役員を登用した過去の成功事例を探しても、そもそも母数が少ないために「事例がないからうまくいかない」というイメージが先行しがちです。過去のデータに基づくのではなく、意思を持って変えていかなければ、現状を再生産するだけだと感じます。

ただ森元首相の発言もあり、この数カ月で潮目が変わった感覚があります。これまではジェンダーギャップを課題に感じてはいても、声を上げる人は少数だったのが、具体的な制度や指標の策定に向けた議論が活発になっています。

ジェンダー平等は企業にとって義務かチャンスか

カリフォルニアにあるグーグルのオフィス

REUTERS/Mike Blake/File Photo

——石角さんは、起業される前にはグーグルに勤務。シリコンバレーのメガテック企業の女性の働き方はいかがでしたか?

石角:私が属していたチームは、カスタマーサポートからプロダクトチームとのオペレーション連携まで業務範囲が多岐にわたっていたこともあり、比較的ジェンダーギャップが少なかったです。一方、一緒に仕事をしていた実際のエンジニアチームには男性が多かった記憶があります

ただオペレーションチームで仕事しているうちにエンジニアリングの面白さに目覚めた女性の同僚が、エンジニアチームに移籍した事例もありました。女性をいろいろなポストに配置して、社内の人材流動性を高めるのは大事だと思います。

またグーグルでは、女性の上司も多く、あるインド人の女性上司からは「子どもが熱を出したから会議を欠席して後でキャッチアップします」という社内メールが来ることもありました。すると「あ、そういうことしていいんだ」と思える。

ダイバーシティやインクルージョンをポリシーに掲げていても、深夜まで仕事している上司ばかりでは意味がありません

石角友愛さん

石角友愛さん

撮影:伊藤圭

中澤:日本のスタートアップも、ダイバーシティを意識する企業は増えていると思いますが、人数構成をみるとやはり「男子校」だと感じることがあります。

既に活躍している人は圧倒的に男性が多いので、強く意識して取り組まない限り、既存社員の紹介や元同僚を採用すると、自然と男性ばかりを採用することになってしまう

尾原:単純にもったいないと思います。スタートアップで採用に苦労している立場からすると、マイノリティと言われる人たちにリーチするのは、優秀な人材を採用できるチャンスとです。

例えばインターネット広告事業を手がけるセプテーニでは、採用のプロセスの多くをAIに任せています。この5年ほど人間とAIで採用の選考をして追跡調査する中で、AIが採用した人材の方が高スコアなので、AIに任せる採用プロセスを拡大しました。結果リモート採用が進み、2019年から2020年で地方大学からの入社数が4倍に増え、これまで地方にいて就職活動が不利とされていた優秀な学生がセプテーニに集まることになりました。

石角:私たちも女性のエンジニアやデータサイエンティストを採用したいのですが、男性の応募がどうしても多い。母数とアクセスの問題だと思います。

中澤:アクセスの問題は大きいと思います。自分が採用をしていて感じる問題が2つあります。

一つは、アーリーステージのスタートアップはメガベンチャーと比べてどのぐらい残業があるのか、産休や育休がが取れるのかなど、働く実態が分かりづらいこと。将来、出産しても働ける会社なのかは、女性の方が新卒の時から考えています。働く実態が見えない会社を選ぶのはリスクを伴う。企業側としても、ただ制度をつくるだけでなく、きちんと発信しなければ届かないと感じます。

もう一つは、エンジニアなどの職種を採用する時、SNSでの発信やテックイベントの登壇者をサーチしていると、顔や実名を出している人が女性が少ないことです。顔や実名を出すことで、つきまとわれたりハラスメントに遭うなど、いやな思いをすることが少なからずあったので避けている、という実際の声を聞きました。

あわせて読みたい

Popular