撮影:今村拓馬
すでに進行しているデータ・AI社会と私たちはどう向き合うべきか。
前編に続き後編では、データは誰のものか、それを公共財として扱うにはどういう仕組みが必要か。そもそもデータ活用における「フェア」とは……。さまざまな論点や課題をIT批評家の尾原和啓さんと、慶應義塾大学医学部教授の宮田裕章さんに引き続き議論してもらった。
—— 尾原さんは著書『アルゴリズム フェアネス もっと自由に生きるために、ぼくたちが知るべきこと』の中で、フェアネスを維持するための3つのポイントは、国家による監視、システムによる監視、ユーザーによる監視であると書かれています。私たちが今後フェアネスを維持していくためには、何が大切だと思われますか。
尾原和啓氏(以下、尾原):まず国家による監視について言うと、残念ながら国家自体も何らかの利権を守るためのアルゴリズムが主体なので、国家の監視だけに頼るのはバランスが悪いと思います。
例えば、日本では小選挙区制がある以上、どうしても保守派が強くなるというアルゴリズムの偏りがあります。アメリカの大統領選でも、ヒラリー氏の方が得票数が多かったにもかかわらず、トランプ氏が選ばれたのもアルゴリズムの偏りによるものですよね。
このように、国ですらアルゴリズムによるバイアスに利用されている状況です。だから、今後はユーザーによる監視のプロセスをどう進化させていくかが大事になると思います。
アメリカ大統領選の仕組みでは、得票数で勝っても「選挙には負ける」というアルゴリズムになっている。
Rebecca Cook/REUTERS
——具体的に、プロセスとはどういうイメージですか。
尾原:もし、フェイスブックがどの投稿を上位に上げるかというアルゴリズムを公開したら、悪意のあるものが上位になるでしょう。アルゴリズムが公開されたら、得をするのはどんな手段を使ってでも上位に上げたい悪意を持つ人物ですから。
だから現実的にはアルゴリズムが公開できないなかでフェアネスを確立するには、アルゴリズムの偏りを指摘できるように、それを監視する専門家の偏りをなくすことです。今はサンフランシスコ在住のエンジニアという偏りの中で作られていますから。
——フェイスブックを使わないという選択もありますよね。
尾原:そうですね。そういう選択肢を増やすことも重要だと思います。
——宮田さんは、フェアネスの確立についてどうお考えですか。
宮田裕章氏(以下、宮田):私も基本的に尾原さんと同じ考えです。いまデータに関して言えば、中国のような国家モデルかGAFAモデルの2択しかないんですよ。国家モデルの問題点は、尾原さんがおっしゃったようにトップダウンで決まることです。
中国で香港暴動が抑えきれていないように、多元的な自由を考えた時には、アルゴリズムを動かす人が限られていることが問題なのです。とはいえ、市場の自由さだけで、それが実現できるのかというとできません。
例えば、アメリカではケンブリッジ・ アナリティカ事件(企業がフェイスブックの個人データを不正収集し、政治広告に利用した事件)がありました。このように、企業の自由な経済活動だけでは、極端な覇権主義に陥ってしまう恐れがあります。
こうした点がビッグデータにネガティブな人たちの懐疑にもつながっていますし、フェイスブックのリブラが激しい抵抗に遭っている理由でもあります。
フェイスブックの個人データが不正に利用されたケンブリッジ・アナリティカ事件は、フェイスブックだけでなくプラットフォーム企業への不信感につながった。
Erin Scott/REUTERS
—— EUで2016年に制定されたGDPR(EU一般データ保護規則)のような規制が必要だと思いますか。
宮田:GDPRの考え方は良いのですが、運用の仕方に課題がありました。データを独占することで生まれる富もある一方で、データは共有財の側面もあるのです。
2019年のダボス会議で日本は、「DFFT=Data Free Flow with Trust」として、国境を越えた自由なデータ流通のためのルールづくりを提唱しました。さらに、医療データの活用と個人の情報保護を両立させる「医療情報基本法」という制度も提案し、実現に向けて動いているところです。
尾原:私の今回の本の中ではフェイスブックに関しては歯切れが悪いのです。例えば、英語を使うために1文字10円課金すると言われても、誰も英語を使うのを止められない。つまり、コミュニケーションの手段を握られると必然的に使うしかないわけですよ。
そういう権力になるのがフェイスブックの裏側にあるコミュニケーションプラットフォームの構造なんです。
——フェイスブックも当初は「世界をオープンにし、つなぐ」という高尚なビジョンがあったと思うのですが。
尾原:そういうコミュニケーションを握っているプラットフォームだからこそ、それを悪用してやろうという悪意も集まりやすいのではないでしょうか。
フェイスブックのようなコミュニケーションツールは、他の手段が主流になるとその地位を取り返せないんですよ。だから、彼らの生存戦略として、フェイスブックにはインスタグラムを買収しないという選択肢はなかったし、将来的にリアルよりもバーチャルでのコミュニケーションが主流になるかもしれないとなった場合、オキュラスを買収しないという選択肢はなくなるわけです。
——なるほど。今後、さまざまな分野でAI活用が進むなかで、さらにどういった課題が出てくるでしょう。
尾原:インターネットは誰もが無料で使える公共財になっていますよね。一方、今後新たに生まれるAIサービスは、どうやって公共財にしていくのかという課題がありますよね。
医療分野などのデータは公共財として、国や企業、アカデミアで利用できるようになるのか。
KPG_Payless/Shutterstock
宮田:そこにはいろんなアプローチがあって、そのひとつが、「個」を軸にデータを流通させるという方法です。今までは各企業がフリーなサービスを提供する代わりにデータを取得し勝手に使っていました。
「個」を軸にデータを流通させていくことで、フェアネスを確保する1つの仕組みとすることができるのです。例えば、医療のような公的な分野は、データの使用目的やアクセス権限などを総合的に管理することによって、自由に使えるようにしようという提案をしているところです。
そうなると企業側も変わらざるを得なくなります。「個」を軸にすると説明責任が生じます。つまり、人々の信頼を得なければ、企業はデータを使えなくなるということです。
まさにグーグルが「AI for Social Good」、Microsoftが「AI for Good」と強調するのは、信頼を得るためです。また、アップルがヘルスケアに注力しているように、ソーシャルグッドの中でも、健康はみんなが実感しやすい分野です。健康・医療は拡大する市場規模という点だけでなく、信頼を築くための分野として重要なものとなっています。
——医療の分野でデータを公共財にするときの仕組みは、誰がデザインしていくのが望ましいのでしょうか。
宮田:ベースは国がつくってもいいけれど、インターフェイス部分は民間に任せたほうが良いですね。特定の企業が独占すると新たな権力が生まれてしまう恐れがありますから、さまざまな企業が自由に選べる形が望ましいと思います。
特に医療のデータは、国も企業もアカデミアも状況に応じて適宜共用することが大切だと思います。
——そもそも「何がフェアネス」なのかという判断基準は人によって異なると思うのですが、AIやビッグデータに関する「フェアネス」についてお2人の考えをお聞かせください。
尾原:アルゴリズムは、何かを1位にしなければならないため、必然的に他の何かが2位、3位になってしまうわけです。これがなぜフェアじゃないと感じるのかとなると、「『機会の均等』と『結果の均等』は、どちらが重要なのか」という議論になるんですよ。
例えば、教育に関して言えば、「機会の均等」がなければ、受験戦争でも戦えないということになりますよね。
宮田:エクイティやジャスティスも含んだ均等ですよね。AIの普及によって、格差が拡大するという懸念がある一方で、格差を是正できる可能性もあります。例えば、中国では信用スコアによって、これまでローンを組めなかったような人たちが、スコアを上げることによって、ローンの審査をパスできるようになったりしている。
今後、データ活用をしていくなかで、私たち一人ひとりがフェアネスをどう設計していくのかが大切だと思います。
AIやアルゴリズムを活用することで、“機会の均等”が保障され、格差は縮まるのだろうか。
Jon Bilous/Shutterstock
尾原:教育に関して言うと、かつては成績優秀な一部の学生しか奨学金を得られませんでした。しかし今は、職業教育によって受講生の市場価値がどれだけ上がるかが予測できるようになった。将来収入の一部を還元する契約で、活動実績で将来の可能性があるとされれば、無償で教育を受ける権利を得られるようになってきています。
AIやアルゴリズムを活用することで、“資源の先渡し”ができるようになってきたことは、ひとつのポジティブな兆しではないかと思います。
宮田:その一方で、遺伝子のような先天的な要素で新たな差別が生まれるのではないかという考えもあります。また、誰もが最低限の生活が送れるようなベーシックインカムについても議論されています。
そうしたなかで、「何がフェアか」というと、さまざまなアプローチが入り乱れていますね。ただ少なくとも、システムと「個」の対峙の仕方を選べる社会にはなるでしょうね。
尾原:“AI競争”というゲームの中で、さまざまな選択をする国や企業が生まれます。議論が転がるきっかけになればと思います。
(聞き手・浜田敬子、構成・浜田敬子、松元順子、撮影・今村拓馬)
尾原和啓:IT批評家。1970年生まれ。京都大学大学院工学研究科応用人工知能論講座修了。マッキンゼー、NTTドコモ、リクルート、グーグル、楽天などを経て現職。主な著書に『ザ・プラットフォーム』『ITビジネスの原理』『アフターデジタル』(共著)など。
宮田裕章:慶應義塾大学医学部医療政策・管理学教室教授。東京大学院医系研究科健康・看護専攻修士課程了、同分野保健学博士(論文)。東大大学院准教授などを経て、2015年5月より現職。厚生労働省のデータヘルス時代の質の高い医療の実現に向けた有識者検討会のメンバーも務める。