マンハッタンにあるアップルストア。
Mike Segar/Reuters
- アップルの児童保護のための新機能は誤解されていると、同社幹部がウォール・ストリート・ジャーナルに語った。
- 同社は2021年8月上旬、iPhoneとiCloudの画像をスキャンする2つの機能を発表した。
- 「これは、決してバックドアの類ではない」と、ソフトウェアエンジニアリング担当役員のクレイグ・フェデリギは述べた。
アップルのソフトウェアエンジニアリング担当シニア・バイス・プレジデント、クレイグ・フェデリギ(Craig Federighi)は、iPhoneユーザーの画像をスキャンして児童性的虐待の画像を検出するという同社の計画は「大きく誤解されている」と語った。
「我々が行っていることは正しいと考えているが、大きく誤解されているとわかったので、もう少し明確にしたほうがいいだろう」と、2021年8月13日に公開されたウォール・ストリート・ジャーナルのビデオインタビューで、フェデリギは語った。
アップルは2021年8月上旬、iPhoneからICloudに画像をアップロードする際、「ハッシュ」と呼ばれる数値コードに変換する機能について発表した。このハッシュは、児童虐待防止団体が保有する性的虐待に関する資料のデータベースと照合される。
「iCloudフォトライブラリに画像を保存する前に、その画像が児童性的虐待コンテンツ(CSAM)のハッシュと合致するか、デバイス上で処理が行われる」とアップルは述べている。
長い間プライバシー保護を売りものにしてきた同社にとって、この機能は間違いだと批判する人もいる。電子フロンティア財団(EFF)は2021年8月12日、この新機能はプライバシーを脅かす「バックドア」であり、拡張されたり悪用されたりしかねないと指摘した。ロイター通信によると、アップルの従業員の中には、この機能が政府に利用される可能性があると懸念する者もいた。
ステージ上のフェデリギ。2019年撮影。
Jeff Chiu/AP Photo
「これは決してバックドアではないと思う」と、フェデリギはウォール・ストリート・ジャーナルのインタビューで語った。
「私には理解できない。その表現は本当に理解できない」
児童性的虐待画像の検出機能は、同社が発表した2つの画像スキャンのうちの一つだ。もう一つは、受信したiMessageの画像をスキャンして裸の画像を検出し、12歳未満の子どもが性的コンテンツを閲覧した際、保護者へ警告するものだ。
「まず『アップルが、私のiPhoneの画像をスキャンするなんて』という声が上がったと思う。そのようなことはない」と、フェデリギはウォール・ストリート・ジャーナルの動画で語った。
「それは、クラウドに保存された画像についてのことだ」
EEFのサイバーセキュリティ・ディレクター、エバ・ガルペリン(Eva Galperin)は、今回のことはプライバシーの専門家の間では誤解されていないとツイッター(Twitter)で述べた。
「この場でクレイグにはっきり言いたいのは、全米行方不明・被搾取児童センター(NCMEC)の児童性的虐待のデータベースとiCloudの画像を確認するというアップルの計画について誤解しているわけではないということだ」
「今回は善意のものだが、アップルは他の目的に使用されるかもしれないシステムを作っている」と、彼女は付け加えた。
(翻訳:Makiko Sato、編集:Toshihiko Inoue)