フェイスブックで働いていたサラ・カッツさん。
Sarah Katz
- モデレーターとしてフェイスブックで働いていたサラ・カッツ(Sarah Katz)さんは、プラットフォーム最大の暗部となっている不適切な投稿を1日に数千件もチェックしなければならないストレスについて語った。
- Business Insiderの取材に応じたカッツさんは、あまりに多くを見過ぎたせいで、児童ポルノや残虐な投稿に対する感覚が鈍くなってしまったと言う。
- カッツさんの体験は、子どもの性的搾取の撲滅に向けたフェイスブックの取り組みに対して疑問を生じさせるものだ。
- しかし、カッツさんは自身の仕事に誇りを持っていて、テック企業はこうしたモデレーターの仕事をキャリアの1つとして成立させるよう求めている。
- フェイスブックは、モデレーター業務の潜在的な難しさは認識しているものの、従事する従業員たちは「フェイスブック・コミュニティーの安全な環境づくりのため、必要不可欠な役割を果たしている」と述べた。
モデレーターとしてアメリカのフェイスブックで働いていたサラ・カッツさん(27歳)は、大量の不快画像を途切れることなくチェックし過ぎたせいで、児童ポルノや残虐な投稿に対する感覚が鈍ってしまったという。
カッツさんは2016年、請負会社Vertisystemを通じて、8カ月にわたってカリフォルニア州メンロ―パークにあるフェイスブックの本社で、コンテンツのレビュワーとして働いていた。その業務内容は、フェイスブックに報告が上がってきた投稿が同社のコミュニティー規定にあっているかどうかを確認するという、いたってシンプルなものだった。
具体的には、10秒ごとにゾッとさせられるかもしれない新しい画像に目を凝らし、その可否を判断する作業だ。レビューが必要とされる投稿は「チケット」と呼ばれ、1日に8000件前後あるという。
この膨大な量をさばくため、フェイスブックではカッツさんのようなスタッフを2017年には4500人抱えていたが、2018年中に新たに3000人増員すると発表している。同社はまた、ルールを破ろうとする投稿を監視するため、AIに投資している。
フェイスブックは5月に出した透明性に関するレポートで、禁止コンテンツの問題の大きさについて詳しく述べている。同社が2018年1~3月の3カ月間に削除した、ヌードや性的な行動を含む投稿は2100万件、露骨な暴力を含む投稿は340万件にのぼった。他にも、ヘイトスピーチやスパム、テロを含む何百万もの投稿が削除されているという。
スタッフが署名しなければならない「権利放棄の同意書」
フェイスブックで働き始める前にカッツさんが署名した権利放棄の同意書。
Sarah Katz
カッツさんのようなコンテンツ・レビュワーは、フェイスブックで働き始める前に、権利放棄の同意書に署名することが求められる。これは、不快な投稿を見ることへの事前の同意を示すもので、いかなる法的措置からもフェイスブックを守る。
右に示したのは、カッツさんが実際に署名した同意書だ。ポルノ画像を含め「一部の人にとっては不快に感じられるかもしれない」ものにさらされる可能性があることを警告している。また、スタッフに対して、「(業務を)継続したくないと思ったら」フェイスブック側に「速やかに伝える」よう求めている。
「フェイスブックには何十億というユーザーがいて、プラットフォームの正しい使い方を分かっていない人もいます。そのため、ポルノや残虐な画像、露骨な暴力が数多く存在するのです」カッツさんはBusiness Insiderに語った。「フェイスブックでシェアされることはないであろうコンテンツがたくさんあるんです」
カッツさんが働いていたメンローパークのオフィスには、無料のスナックが用意されていて、同僚との連帯感もそれなりにあったという。レビューを必要とする投稿は長い列をなしていて、カッツさんは数秒で画像の可否を判断していた。
1日の処理数が目標に達しない場合、彼女自身は実際に目にしたことはないものの、スタッフの間では「1度か2度」なら警告で済むが、3度を超えると「恐らくクビになるだろう」と考えられていたとカッツさんは言う。
「しばらくすると、単調な仕事になってくるんです。あまりに多くを見過ぎたことで、一部の画像に対して明らかに感覚が鈍くなってくるし、こうしたコンテンツの多くは何度も回ってくるんです」
繰り返し現れる「悪意ある画像」
カッツさんによると、彼女のチェックリストの中には繰り返し現れる、特に悪意ある画像と動画があった。
これは9歳から12歳の間と思われる2人の子どもが向かい合って、下半身に何も身に付けていない状態で、互いに触れ合う様子を撮影したもので、カメラの外にいる誰かが指示を出しているのは明らかだとカッツさんは言う。
「1日に何度も、消えたかと思うとまた現れるんです。そして毎回、ユーザーの位置情報が変わるんです。パキスタンかと思えば、アメリカからシェアされたりするので、もともとの出所を特定するのが難しいんです」
当時、こうした投稿をシェアしているアカウントについての報告は求められておらず、これはカッツさんにとって「悩みの種」だったと言う。「ユーザーのアカウントが作られてから30日以内なら偽アカウントとしてそれを停止することもできますが、30日以上だとわたしたちはコンテンツをただ削除するだけで、アカウント自体は野放しです」
カリフォルニア州メンローパークにあるフェイスブック本社。
Reuters
彼女の体験は、子どもの性的搾取の撲滅に対するフェイスブックの取り組みの効果に疑問を生じさせるものだ。
フェイスブックは2011年、マイクロソフトの画像識別技術「PhotoDNA」の使用について、同社と契約を結んでいる。これは、フェイスブックとインスタグラムの全ての画像の中から児童ポルノとして認識されたものにフラグを立て、再度アップロードされるのを防ぐものだ。これに加えて、フェイスブックではモデレーターに疑わしい画像を見かけたら、それが児童ポルノに該当するかどうかを判断し、上に報告するようトレーニングを受けさせている。
フェイスブックは2012年、ニューヨーク・ポストに対し、同社は子どもの性的搾取の事例の「全て」を全米行方不明・被搾取児童センター(NCMEC)に報告していると語った。「我々は、フェイスブックに投稿されたいかなる児童ポルノをも寛容しない。子どもの性的搾取に関するコンテンツを積極的に予防、削除していく」と同社は述べていた。
しかし2016年当時、こうした対応をカッツさんは聞いたこともなかったと言う。「フェイスブックは(今は)どこに報告すべきかを定めたポリシーを持っているかもしれません。でも、当時はありませんでした」
Business Insiderはカッツさんの主張とポリシーの相違について、フェイスブックにコメントを求めたが、回答は得られなかった。
「人間の視点」
カッツさんは現在、クラウド・コンピューティング会社「サービスナウ(ServiceNow)」でサイバーセキュリティーのアナリストとして働き、フェイスブックでの経験から着想を得た『Apex Five』というSF小説を書いた。彼女は自身の経験を、全般的にポジティブなものとして捉えている。ユーザーを守っているという感覚が、仕事上のマイナス面を上回るという。
「この仕事には多くの人間の目が必要で、どんなに多くの人が言おうと、その全てを人工知能で置き換えることはできないでしょう」カッツさんは言う。「人間の目は、微妙な違いを認識することができます。AIは、何十億ものユーザーが投稿するコンテンツを追跡する助けになるでしょう。ただ、人間の要素は欠かせません。わたしたちは良い仕事をし続けるでしょう」
フェイスブックのCEOマーク・ザッカーバーグ氏。
Reuters
カッツさんはテック企業に対し、こうしたモデレーターの仕事を短期的な仕事というより、キャリアの1つとして成立させるよう求めている。「フェイスブックだけでなく、ソーシャルメディア・プラットフォーム全般は、こうしたモデレーターをフルタイムの正社員として雇うべきです。そうすることで、インセンティブが高まるからです。より条件のいい仕事を求めて動き回るよりも、輝かしいキャリアとして、これを一生の仕事とする動機を与えてくれるでしょう」
フェイスブックの広報担当者は言う。「我々のコンテンツ・レビュワーのグローバル・チームは、フェイスブック・コミュニティーの安全な環境づくりにおいて必要不可欠な役割を果たしている。安全な環境づくりは、我々にとっての最優先事項だ。この仕事がしばしば難しいものになり得ることは認識しており、我々は全てのスタッフのために身体的、精神的サポートを用意している」
「20億人以上が利用するフェイスブックで、この仕事は本当に大きな意味を持つ仕事だ。毎週上がってくる何百万という報告をレビューするため、我々は最近、全世界で既存のスタッフ4500人に新たに3000人を加え、コミュニティー運営チームを強化している」
(翻訳、編集:山口佳美)