第305回 消費者委員会本会議 議事録

日時

2019年8月8日(木)14:00~16:11

場所

消費者委員会会議室

出席者

  • 【委員】
    高委員長、池本委員長代理、受田委員、大森委員、長田委員、樋口委員、増田委員
    (高委員長の「高」は、正しくは「はしごだか」)
  • 【説明者】
    慶應義塾大学法科大学院山本教授
    東洋大学経済学部生貝准教授
    消費者委員会事務局担当者
  • 【事務局】
    二之宮事務局長、福島審議官、金子参事官

議事次第

  1. 開会
  2. デジタル取引における消費者の意思決定の保護について
  3. 「産業構造審議会商務流通情報分科会割賦販売小委員会中間整理についての意見」について
  4. 閉会

配布資料 (資料は全てPDF形式となります。)

≪1.開会≫

○高委員長 それでは、時間になりましたので、第305回「消費者委員会本会議」を開催いたします。

皆様、お忙しいところ、御参集いただきまして、ありがとうございます。

本日は、蟹瀬委員、鹿野委員、山本委員が御欠席となります。

それでは、配付資料の確認につきまして、事務局より説明をお願いいたします。

○金子参事官 配付資料について、議事次第の下に載っております一覧のとおりでございます。

もし不足がございましたら、事務局までお申出いただきますようお願いいたします。

よろしいでしょうか。

○高委員長 ありがとうございました。


≪2.デジタル取引における消費者の意思決定の保護について≫

○高委員長 本日の最初の議題は「デジタル取引における消費者の意思決定の保護について」でございます。

消費者委員会は、オンラインプラットフォームにおける取引の在り方に関する専門調査会の報告書を受けて、平成31年4月に、関係省庁に対し、同報告書を踏まえた取組を進めることを提言したところでございます。この提言においては、今後の課題として、インターネットを利用する中で、プラットフォーム事業者に情報が集積され、それを基に消費者の嗜好などを分析・予測するプロファイリングなどを念頭に、利用者の情報の取扱いに関する課題を示したところでございます。

本日は、プロファイリングの現状や課題、海外動向やその法的・制度的な考え方等について、有識者からヒアリングを実施し、意見交換を行いたく思います。

本日は、慶應義塾大学法科大学院山本龍彦教授、東洋大学経済学部生貝直人准教授にお越しいただいております。

お二方とも、お忙しい中、御出席いただきまして、ありがとうございます。

それでは、恐縮でございますが、最初に山本教授から30分程度で御説明をお願いいたします。

○慶應義塾大学法科大学院山本教授 ただいま御紹介いただきました、慶應大学の山本と申します。

本日は、このような機会をいただきまして、誠にありがとうございます。

私は、課題を抽出することにとどめまして、現状の制度的な展開については後で生貝先生から御報告いただくことにしたいと思っております。

プロファイリングは、今、委員長からもお話がありましたように、最近、非常に重要な技術として注目されています。プロファイリングが我々のプラットフォーム上の生活の基盤になっていると言っても良い。生活の多くの場面にこのプロファイリングが溶け込んでいると言っても良いかと思います。

従来、日本やアメリカですと、プロファイリングは犯罪捜査の文脈で、証拠から犯人像を割り出すといったような意味で使われていましたけれども、最近ではこのプロファイリングはより一般的な法律用語として使われるようになってきております。これは、御承知のとおり、EUのGDPRがこのプロファイリングを法律上定義して、これに一定の規律を加えたことに由来しています。

GDPRの条文が今、手元にないので、正確な定義を申し上げられないのですけれども、基本的には、個人の選好とか、健康状態や精神状態、政治的な考え方など、あらゆる私的な側面をデータを使って自動的に予測したり分析したりすること、こういうふうに定義をされております。

こういうプロファイリングが、様々なデータを引っ張ってきて、アルゴリズム、この計算方式を使って、社会の至るところで自動的に行われるようになってきている。このプロファイリングの結果に基づいて、この人は、今、こういう商品を求めているのではないかとか、こういう精神状態にあるのではないかといったことが非常に詳細に分析されるようになってきていることになります。

消費者保護の観点で、特にこのプロファイリングの問題を検討してみたいと思うのですが、報告資料ではCase AとCase Bを最初に挙げておきました。こういったものを今後どう考えていくのか。2つともあくまでも仮定的な事例でして、現状、既にこういった問題が日本で起きているという報告はありませんが、技術的には可能だろうと思われるものです。

最初のCase Aは、ビッグデータの解析によって、女性は、Depression、鬱状態にあるときに化粧品の購買傾向が強くなることが統計上分かっているようです。こうした統計的な結果を踏まえて、かつ、女性が鬱状態にあるかどうかを予測するアルゴリズムを作って、化粧品会社がスマートフォンユーザーであるXの行動記録を網羅的に集めて、女性であるかどうか、今、鬱状態にあるかどうかということを予測して、鬱状態にあるというタイミングを見計らって化粧品の広告を打ったという事案であります。

Case Bは、もうちょっと進んでおりまして、例えば、メタボ症候群を気にし始めた30代男性であるXが、ネット上でダイエット関連の商品をチェックしたり、見学のためトレーニング・ジムに立ち寄ったりしていたと。ダイエットサプリ等を扱う健康食品会社Yは、Xの閲覧記録や行動履歴等を収集しており、これらの情報を用いたプロファイリングから、Xがメタボを気にする30代男性であることを把握している。これも、プロファイリングによってそういうことが分かっていた。ここだけなら先ほどの事案に近いのですけれども、加えて、Yは、検索エンジン等のサービスを行うインターネット広告事業者Aに対して、同社のポータルサイト上で一般的なニュースとともに、メタボの健康への危険性を煽るようなニュースを集中的に送ってほしいという依頼をした。メタボに対する危機感を高める情報介入をあえて行う。その上で、メタボへの恐怖感が高まった段階で、ダイエット関連の商品の広告を送るという事案であります。

恐らくこれは両方とも、マーケティングの一環として、現状において法的にこれが確実に違法だ、ということにはならないかと思います。けれども、こういった問題をどう考えていくのかということが今後のテーマになるだろうと思います。

レジュメの28行目ぐらいですけれども、Ryan Caloという、シアトルにあるワシントン大学、私が在外研究をしていた先なのですけれども、情報法の先生がいます。Calo先生が2014年に出した論文が非常に注目されまして、Digital Market Manipulationという論文なのですけれども、彼はこの中でこういうふうに言っているわけです。

プロファイリング結果に基づく選択的な情報フィード、「選択環境の操作」という言い方もしていますけれども、こういうものによって事業者はカモを待つだけではなく、カモを自ら作り出すことができる、と。これはCase Bに恐らく妥当するような言葉なのだろうと思います。彼の言葉を使えば、個人が「最も脆弱な瞬間」、その個人が心理的に非常に脆弱な瞬間を見計らって、そのタイミングで情報をフィードするという事例です。

彼が2014年に指摘したことは現実になりつつあって、例えば、同じ年のThe Guardianの記事ですけれども、2ページの2行目以降ですが、イギリスはギャンブルが合法化されている国ですけれども、イギリスのギャンブル業界がAIを用いてギャンブル依存症の者を予測したり発見したりしていると報じられている。どうもギャンブル依存症になっている人だけではなくて依存症になりやすい人も予測をして、彼らをギャンブルにはまらせておくための広告を送信しているという実態を批判的に紹介しているものであります。これについてイギリス議会の議員が反対をしているとも書かれています。その後、イギリスの議会がどう動いているのかをフォローをしておりませんので、申し訳ありませんけれども、分かりませんが、こういった記事もThe Guardian誌に掲載されているという状況です。

さらに次の6行目ですけれども、こういったやり方は特にオンラインゲームで採用されているようで、オンラインゲームのアルゴリズムは、ユーザーの常習性を作り出し、ユーザーの利用を維持するためにデザインされている。つまり、ユーザーがどういうタイミングでガチャを購入してお金を払うかというパターンを発見し、これを個々人のユーザーに適用しているわけですね。オンラインショッピングのウェブサイトでも、顧客を引っ掛けておくために、いわゆるマイクロ・クリフハンガーを使っていると言われています。購入に向かってせき立てるような情報を集中的に送っているといったことなのだろうと思いますけれども、そういう指摘もあります。引用したのは、WagnerとEidenmüllerの論文です。注3にあるように、この2人はそれぞれフンボルト大学とオックスフォード大学の教授なのですけれども、彼らがこの「Down by Algorithm?」という論文をChicago Law Reviewで今年発表しています。シカゴ大学では昨年Personalized Law、個別化される法というテーマでシンポジウムを行っていて、その一つの論文として書かれています。このシンポジウムは、様々なプロファイリングを行う結果、情報やサービスを個別化して提供できるということが法的に様々な問題を引き起こしている問題認識の下、いろいろな研究者を呼んで開かれたわけですけれども、その一つが、消費者保護に焦点を当てたWagnerとEidenmüllerの論文ということになります。

次に挙げたAlter氏の本は、サブタイトルに「Addictive technology」とあるように、個人の常習性を高めていくような技術を問題視しているわけです。

さらに、この辺りは法的な問題かどうか分からないところでもあるのですけれども、13行目に、オハイオ州立大学のある実験について言及しておきました。これは、個人の趣味嗜好をプロファイリングして送られる個別化広告が、個人の自意識自体にも重大な影響を与えるということを実証した実験になります。もともと環境保護に対して特に関心のない人に対して、「あなたに合っています」ということで、環境保護に積極的に取り組んでいるような商品を送っていくと、だんだん環境保護に熱心な人だと自分で思い込んでしまうという実験だったわけです。ですから、15行目に書いてあるように、被験者となった大学生は、自分のオンライン上の行動の結果として送られてくる個別化広告を、それが本当に自分の性向とマッチしているかどうかにかかわらず、自己の反映として認識してしまう。だから、プロファイリング結果の方に本人がすり寄ってしまうわけですね。

さらに、最近はAIスピーカーだけではなく、家庭の中にカメラ等のような情報収集のデバイスが持ち込まれる。AI家電とかもそういう傾向のなかに位置付けられます。23行目ですけれども、そういうAIカメラで表情解析が行われるような技術が開発されているわけです。表情によって、今、鬱状態にあるかということが読み取れるので、悪用しようと思えば、攻撃的で操作的なターゲティングにも使えることになってくるわけです。

Ryan Caloは、結局、このような状況を踏まえて、25行目ですけれども、今後の消費者は「mediated consumer」として、つまり、「媒介された消費者」として考えるべきだと言っています。この「媒介される消費者」とはどういうことかというと、26行目にあるように、他の誰かによってデザインされたテクノロジーを媒介にマーケットと相対する消費者ということになります。特徴として、この消費者は、マル1継続的・網羅的に監視されている、マル2それにより詳細に特性を把握される、マル3これが恐らく重要な点だと思いますけれども、この特性に合わせて選択環境が調律される、マル4さらに、時間的優位性を指摘されています。時間的優位性とは、最も個人が精神的に脆弱になっているときに事業者はアプローチできるということを意味しています。消費者は常にプラットフォーマーによって調整された色眼鏡を通してマーケットと相対しているのだ、と。それがフィジカルなフェース・ツー・フェースの取引と違ってきているのだと。ですから、正にその媒介となるプラットフォーム次第だということを指摘しているわけです。

3ページ目ですけれども、結局、そういったある問題状況に対してどういうふうに対応していけば良いかということについて、大きく分けて3つほど異なるアプローチはあり得ると思います。

1つ目と2つ目ですけれども、プライバシーないしは個人情報保護の観点から対応していくというアプローチであります。これら2つは消費者保護という観点から外れますが、簡単に紹介をしておくと、プライバシー権のリーディングケースとされている昭和39年の「宴のあと」事件判決。これは、三島由紀夫の「宴のあと」というモデル小説で夫婦生活を克明に描かれた政治家が、プライバシー侵害だということで損害賠償請求を求めたものです。あくまでモデル小説ですから、真実そのものをこの小説の中で公開したわけではありません。このことから、本当にプライバシー侵害になるのかということが問題になったわけですけれども、4行目にありますように、この判決は、一般の人が当該私人の私生活であると誤認しても不合理でない程度に真実らしく受け取られるものであれば、それはなおプライバシーの侵害として捉えることができると言っています。プロファイリングによって、この人はこういう人だと真実らしく受け取られる可能性ですね。この人は内定辞退率がどれぐらいだ、というのはあくまで確率的な予測ですが、そういうものを一般人がどう受け止めるのか。つまり、今まで人間の頭で考えていたような単なる予測なのか、それとももっと精度が高い、真実らしく思われるような予測なのか。一般の人がそういったプロファイリング結果を正に真実らしく受け取ってしまうとすると、プロファイリングによって、鬱状態によって予測するというのはプライバシー侵害と言えるかもしれないというのが第1点であります。承諾なくセンシティブな情報を自動的に予測することがプライバシー侵害として捉えられれば、不法行為として損害賠償請求の対象になりうる。このように解されれば、レジュメでは「入口規制」と書きましたけれども、そもそもそういったプロファイリングを用いた攻撃的ターゲティングができなくなりますから、一定の歯止めにはなっていくことになるかと思います。

省略をいたしますけれども、個人情報保護法制による対応もあり得るようにも思うということであります。プロファイリングを、例えば、GDPRのように、一つの情報処理の過程、プロセスとしてきちっと定義して、前景化していく。そういうプロファイリングを行っている場合には、きちんと消費者に対して通知・公表するということですね。これまでは、情報を収集する場合には利用目的を通知ないし公表するということだったわけですけれども、こういった利用目的に加えて、プロファイリングを行っているのですということも一定の透明性を持って消費者の側に伝えること、それと、今、個人情報保護法の見直しの議論が進んでいますけれども、その中に利用停止権というものを導入すべきかどうかという議論があるかと思います。プロファイリングをやっていることを伝えれば、それが嫌な人は利用停止ができるということによって、プロファイリングに対して、一定の権利性を持つことができる。関与できるわけですね。こういうことをすることによって、攻撃的ターゲティングを未然に防いでいくということがあり得ると思います。もちろん攻撃的ターゲティングも別に良いですよという人は利用停止をしなければ良いわけで、そこに選択の幅が生まれてきます。

3番目が、そういったプライバシーとか個人情報の問題としてではなくて、消費者保護の問題として捉えていくというアプローチです。弱い個人、つまり、精神的に脆弱な状態にいる個人を狙い撃ちするものだと考えることもできますから、消費者保護の観点が必要かとも思います。

考え方として3つぐらいありまして、これは先ほどのChicago Law Reviewの論文から多くの示唆を得ているものですけれども、一つは攻撃的・操作的なターゲティングから身を守る防御的なアルゴリズムの使用を推奨するということです。13行目にあるような、自己抑制的な選好アルゴリズムを実装させ、対抗していくということです。

もう一つは、「セレンディピティ・アーキテクチャの選択可能性」と書きましたけれども、17行目にありますように、消費者はPersonalizedされた経験とPersonalizedされていない経験の間で選択することができなければいけないという考え方です。すなわち、消費者は、過去の自らの選択、例えば、購買履歴とか閲覧履歴というものから調律・構築された管理されたアーキテクチャと、一般的な平均的市民の選択を反映しているか、あるいは他の選択原理に従ったセレンディピティ・アーキテクチャとの間で選択が可能である必要がある、という考え方です。調律された選択環境は快適だったりするわけですから、それを選びたいという人もいるわけですよね。それに対して、ちょっと別の世界を見てみたい、今までの自分の購買傾向からは全然出てこないような商品と巡り合ってみたい、正にSerendipity、偶然的な出会いを求めるアーキテクチャとの間の選択可能性を担保していくという考え方です。22行目にあるMeta-choice、メタ選択というものを消費者の側に留保しておく。この選択可能性というものを法で強制すべきかという点が問題になってくるかと思いますけれども、これについて先ほどのLaw Reviewの著者はこういうふうに言っております。「個別化アルゴリズムによって消費者を標的化するプラットフォームその他のインターネット企業は、消費者が〔Curatedされた選択、これはなかなか翻訳が難しかったのですが〕精選された選択からオプトアウトすることを可能にするよう法によって要求され得る」と。これは軽度の規制として許容され得るということですね。要するに、後で見るような、例えば、取消権が認められるとか、そういうことではなくて、選択環境を選べるようにしたら良いのではないですかと。調律された環境から脱退する権利をアーキテクチャ上認めておくということであって、軽度の規制として許容されるのではないかという考え方であります。

最後は、正に消費者契約法の問題になりますけれども、取消しが可能な、あるいは取消し得るような、問題のある悪質なネット広告を定義し、そういうものについては取消権を行使できるようにするという考え方であります。私は、2017年に、34行目にあります論文を書いたのですけれども、この中で「操作的なネット広告」を定義いたしました。ここでは、「高度な情報技術を用いて、特定消費者のセンシティブな心理状況をプロファイリングした上で、当該消費者の意思形成に直接的な影響を及ぼすことを目的に、当該消費者が精神的に脆弱な状態にあるときを狙って、当該消費者に個別的に送られる広告」と定義いたしました。この文を見て非常に悩んだということがお分かりいただけるかと思うのですが、通常のターゲティング広告と攻撃的で操作的なターゲティング広告を法的に分けなければいけないのですが、この線引きが極めて難しい。何とか苦労して線を引けないかということでこういった定義を作ったわけですが、この定義が妥当かどうかは様々な角度から検証しなければなりません。

4ページに行きまして、こういう定義を行った背景は、「囚われの聴衆」という議論に近い状況に、今、消費者は置かれているのではないかと考えたからでもあります。例えば、消費者契約法の4条3項は、事業者が、ある一定の物理的な空間に、消費者を閉じ込めて、そこで執拗に勧誘をする場合、消費者は意思表示を取り消せるといったことが規定されている。プロファイリングを用いた選択環境の調律は、実質的にこういう状況に非常に近い。つまり、消費者を取り巻くバーチャルな選択環境を調律することによって、鳥かごの中に閉じ込めることができるという問題を感じたわけです。ですから、消費者契約法第4条の趣旨を踏まえれば、消費者がこういったバーチャルな空間で閉じ込められることについても対応が必要なのではないかと考えました。これについては、先ほどの論文の著者も近いことを言っていて、4ページの3行目ですけれども、「消費者の選択が、ビッグデータ及びAI技術によって影響を受けた場合、消費者に対して取消権を与えられることは正当であるように見える」と。消費者は、脆弱な瞬間、彼らも「vulnerability」という言葉を使っていますけれども、その脆弱な瞬間につけ込まれて、アルゴリズムの影響下で行った取引については、これを取り消すことが可能であるべきであるとも述べています。ただ、彼らはこれ以上踏み込んだ見解は示しておりませんので、まだ駄目なターゲティングと良いターゲティングをきちんと線引きできているわけではないのかなとも思います。これは今後の検討課題として、様々なケースを恐らく調査・検討して線を引く必要がある。もちろん、線を引けないかもしれない。線引けない場合には、恐らく先ほどの防御的アルゴリズムを推奨するとか、セレンディピティ・アーキテクチャの選択可能性を担保する、メタ選択を可能にするといった措置が必要になるかと思います。

他方、こういった操作的な、あるいは攻撃的な広告について、例えば、GDPRも一定の言及をしています。レジュメの4ページの8行目以降に載せておきました。ヨーロッパの対応については、後で生貝先生から詳しく御報告があるかと思いますので、ここでは省略いたします。

最後に、残り5分ぐらいということですけれども、スコアリングの問題についても少しだけ触れておきたいと思います。御承知のように、日本でも、個人の信用力をスコア化していくというビジネスは、生まれつつあるわけです。去年、みずほ銀行さんとソフトバンクさんが共同で立ち上げたJ.Scoreという会社が立ち上がりましたけれども、今年に入って、Yahoo!さんがYahoo!スコアリングを開始し、LINEさんがLINE Scoreというものを開始した。そういう意味では、スコアリングというものが日本でも一般化しつつある状況にあるのかなと思います。

このスコアリングが進んでいるのが言うまでもなく中国ですけれども、この4ページの下にありますように、一番有名なのはアリババグループの芝麻信用という信用情報機関です。この芝麻信用が様々な情報から個人の信用力を350点から950点の範囲内で付けている。スコアが高い人は非常に快適な生活が送れるわけですけれども、他面で、スコアが低い人はあらゆる場面で差別的な取扱いを受けることがあると言われています。シェアリングエコノミーのプラットフォームから排除される。借りる場合には高いデポジットを払わなければいけない。それだけだったらまだしも、最近はどうも状況が変わってきているようですけれども、かつては、婚活サイトでこのスコアが使われたり、採用などで使われたりすることもあったと聞いています。

時間の関係上、省略をいたしますけれども、個人の信用力をスコア化していくことについては、もちろんポジティブな側面もあります。例えば、これまで、採用の面接などですと、ある特定の瞬間でその人を評価していた。つまり、「点」でその人を評価していたわけですね。ところが、データを使えば、「線」でその人を評価することができるので、より正当・正確な評価が可能になってくる。本当にこれまで地道に努力してきた人が、そういったデータを使われることによってむしろ報われることもあろうかと思います。また、こういったスコアを付けることによって、17行目ですけれども、これまで融資を受けられなかったような人たちが金融取引に参加できるという「ファイナンシャル・インクルージョン」が起こるとも指摘されています。3番目に、消費者保護とも関連すると思いますが、取引の安全のためにも非常に有用だと考えられています。今、例えば、CtoCの取引でも、星が幾つとか、そういうことで相手がどれぐらい信用できるのかということを見ているわけですが、その評価が本当に信頼できるかどうかが疑わしいということもあるかと思います。それに対して、例えば、信用スコアで表示されていれば、この人は大体これぐらい信用できる、あるいは信用できないということが判断できるので、取引の安全に資する。特に今後はプラットフォームを通じたビジネスが一般化してくると思いますので、この取引を安全に行うために、信用スコアが重要な意味をもってくることは十分に考えられるのかなと思うわけです。さらに、中国の一部の状況のように、スコアとマナー、お行儀を連動させ、例えば、交通マナーが悪いとスコアが下がるといったアルゴリズムを使うことで、交通マナーが良くなる、あるいは社会そのものが安全になるというメリットも指摘されるところです。

ところが、ネガティブな側面もあるわけで、先ほど申しましたとおり、スコアが低い人がいろいろな場面で排除されるといったことがあり得る。もちろん自らスコアを上げるべく努力をしていけばまた社会に包摂されていくわけですけれども、正に今回のリクナビの問題でもそうですけれども、どういう情報がスコアリングに使われているのか、それがどのように不利益な判断に結び付いているのかがブラックボックスになるということが出てくるわけです。そうすると、自分のどのような行動が否定的な評価につながったのか分からないので、改善のしようがない。AI、とくに深層学習などを使いますと、どういうロジックで、つまり、どのような変数に、どれぐらいのウエイトが掛けられてそういう評価・判断になったのかということが高度に複雑化しますので、ますますブラックボックス化していく可能性があります。そうなりますと、改善の方法が分からず、途方に暮れてしまうということがあるわけです。そういう人たち、つまり、ロースコアの人たちが、社会の下層において固定化されてしまうという問題も指摘されています。これが5ページの27行目の「バーチャル・スラム」と呼ばれている問題です。消費者保護との関係で一言だけお話ししますと、スコアによってプラットフォーム取引から排除されるリスクもあろうかと思います。例えば、CtoCのプラットフォームでも、スコアが低いとそもそも取引に参加できないという事態も起こり得ます。そういうふうに考えますと、スコアリングが適正であることが非常に重要となるし、スコアリングの結果に対して異議を申し立てる仕組みも必要かと思います。スコアを導入する条件として異議を申し立てるような手続がないと、結局、泣き寝入りしてしまうと申しますか、スコアを一方的に付けられっ放しの状態になってしまう。それによって、例えば、オンライン上の取引が不自由になってくるということもあるわけで、スコアに対しては、異議を申し立てられるような手続、あるいは、クレームをつけたときに、Botでの対応ではなくて、人間が関与・対応しなければいけないといったことも必要になろうかと思います。アルゴリズムによって自動決定されていくような世界で、クレームもまた自動処理される傾向がありますので、これは最近いろいろなプラットフォームで問題になっていますけれども、どこかできちんと人間が出てきて、ちゃんと生の声を聞くという手続を設けておくということも、アルゴリズムによる自動決定を組み込んだプラットフォーム取引においては必要になってくるかと思います。

最後、2点ほど付け加えて生貝先生の御報告にバトンタッチをしたいと思います。まず、近年取り沙汰されている価格差別の問題です。高度なプロファイリングをしますと、相手が、今、緊急に何を求めているのかも分かる。要するに、足元を見られるわけです。そういう人たちに対して高い価格を設定するということが起きてきているわけです。緊急性があるので、その人はどれだけ高い価格を付けられても買ってしまう。ネットフリックスの例を挙げましたけれども、個人の様々な状況をつかんで価格を調律するようなことを第1種価格差別と呼んでいるようですけれども、ネットフリックスはこれにより相当利益を上げているようです。こういった第1種価格差別は、5行目にありますように、「企業に利益を与え、消費者を害する」とも言われています。そういう意味では、どこまで個人の具体的な状況を見て価格を調律して良いのかということ、この辺りについても、論点になってくるのかなと思います。

もう一つ、選択環境の調律によって消費者の選択できる世界が狭くなってしまうことが、消費者の福祉との関係で問題視されています。例えば、オンライン上のショッピングモール等で、ハイキングのガイドブックを購入した人が、最終的にエベレスト登頂することになるという例が論文等で挙げられている。要するに、ちょっとした気持ちでハイキングに行こうかなと思った人がいて、ガイドブックを買った。しかし、その後に、段階的にいろいろな商品が送られてくるわけですね。アウトドアの衣服とか。そういうものが徐々に送られていくことによって、結局、エベレスト登頂までつながってしまうという例です。ただ、最初にハイキングにでも行ってみようと思った人は、エベレスト登頂ではなくて、例えば、植物が好きだったり、野鳥が好きだったり、趣味の選択肢が広がっていたはずです。それが、プロファイリングが強く掛けられることによって選択のループが生じて、一定の方向へと選択肢が狭くなっていく。法的な問題と外れるかもしれませんが、こういった環境調律が、果たして消費者の福祉にかなうかどうか。これは先ほどのセレンディピティ・アーキテクチャの問題とも絡んでくるかと思いますけれども、こういう問題が指摘されています。さらに、子どもの場合、これは非常に重要だろうと思いますが、そもそもアルゴリズムが関与していない世界を知らない。そういうデジタルネーティブたちが出てくるわけですね。彼らからすると、選択肢が、プラットフォームが提示する選択肢しかないと思い込んでしまうかもしれない。当然アルゴリズムによって絞り込まれた選択肢であるはずなのに、それ以外を知らないので、そこから選択をするということですね。そういう意味では、子どもの意思決定は、プロファイリングによって大人以上にゆがめられることはあり得ると思います。

雑ぱくですけれども、以上で私からの報告は終わらせていただきたいと思います。

どうも御清聴ありがとうございました。

○高委員長 ありがとうございました。

それでは、ただいまのプロファイリングと消費者保護についてのお話に関しまして、御質問、御意見がございましたら、どうぞ御発言ください。

どうぞ、池本委員長代理。

○池本委員長代理 池本でございます。

非常に分かりやすくこの分野を説明していただきまして、感謝申し上げます。

私は、信用情報、クレジットとかローンの分野のところからこの問題に関心があるので、その辺りを前提に御質問させていただきます。全然違う観点ですが、先般、日米の貿易交渉で、AIなどを使ったアルゴリズムを国がその事業者に対して開示請求はしないのだということを合意した、そんな報道があったと思います。ああいった国が事業者に対してアルゴリズムの開示を求めるかどうかの問題と、先生が今日定義付け議論されている、当該本人が自分の個人情報に関連してアルゴリズムの開示を求めるかどうか、これは別次元として切り離して考えてよろしいのかどうかという点が1点です。

それから、信用情報の世界では、今はクレジットもローンも、いわゆる信用情報機関を業界ごとに作って、その情報に基づいて与信の審査をする。ただし、これは必ず登録し、必ずそれを確認するということになっていますが、消費者の側からは、自分の信用情報で何が登録されているかの開示請求ができる、誤ったものがあれば登録した業者に対して訂正を申し立てるという、個人情報保護法のルールで定められています。もちろんその場合は、何を登録するかという客観的なものに絞られているので、全体が開示請求の対象になっていくというのはよろしいと思うのですが、与信業者は、それとは別に様々なノウハウで与信をするかどうかの別の判断目安は持っているし、それは業務上支障があるというものは開示請求しなくて良いという、個人情報保護法のルールの世界があるかと思います。

問題は、AIの分野で正に様々な情報であり、なおかつ、何にどう比重を置くかというところが全く見えない、正にアルゴリズムのこの世界で、個人情報だから開示請求といったときに、そこに何か線引きができるのだろうか。線引きができないから何もできないというのはどう考えてもおかしいし、全部開示だということも情報の種類によっては難しいのかなと思うのですが、その辺りについて何かお考えがあれば教えていただきたいのです。

○慶應義塾大学法科大学院山本教授 御質問いただきまして、ありがとうございます。

いずれもお答えするのが非常に難しい問題だと思います。他方で、非常に重要な問題かと思います。2番目のご質問から答えさせていただくと、御存じのように、GDPRは完全自動意思決定を原則禁止しております。完全自動意思決定は、人生に重要な影響を与えるような決定を、人間が関与しないで、アルゴリズムのみで自動的に決定してはいけない、というものです。例えば、採用場面とか、与信場面といった重要な場面で、人間が関与せずにアルゴリズムにより自動的に決定するといったことを原則禁止しているわけですけれども、これは絶対禁止ではなくて例外も認めていることになるわけですね。

ただ、例外的にこの完全自動意思決定を行う場合であっても、どういうデータを使っていたのかということ、インプットデータと、それぞれのデータに対してどれぐらいのウエイトを掛けていたのか、重要なロジックと言われていますけれども、それについては基本的には開示しなければいけないことになっております。

ただ、これについても、私が聞いた限りですけれども、EUではっきりどこまでのものを説明しなければいけないということが明確に定まっているわけではないようで、正に議論の途上にあるように思います。そういう意味では、非常に難しい問題かと思います。

結局、予測精度をどう評価するかと関係していると思います。個人の信用力をどれぐらい正確に予測できるかという予測精度・正確性と、個人情報の保護やプライバシーはトレードオフの関係に立つ。全部洗いざらい知らせてしまうと、ユーザーの側はそれに合わせた行動を取るようになります。ゲーミングといわれるものですけれども、中国でもいろいろ、例えば、SNS上である一定の友達と縁を切ったりですとか、そういうことをあえてするといったことが見られると聞きます。このゲーミングを許してしまうと、予測精度が落ちてしまうので、全部きれいに開示するというのもなかなか難しいだろうと思うのですね。ですから、どの程度説明をするのかどうかというのが非常に難しく、かつ重要な問題になるのだろうと思います。

私自身はどう考えるかと申しますと、予測精度は多少犠牲にしても個人の自由を確保すべきだと思っておりますので、どういうデータを使っているのかとか、そういうものについては基本的には開示する必要が企業の側にもあるのではないかと考えています。そのデータですけれども、こういったデータとかロジックですけれども、その説明を受けて、どうも自分のスコアが間違って付けられているのではないかと思った人は、それに対して異議を申し立てるという手続も必要になってくるのではないかなと考えています。

どうでしょうか。池本先生、そういったお答えでよろしいですか。

2番目もそれに関連してということになるわけですけれども、恐らく個人の側からそういった請求があった場合に、これも範囲が問題になると思いますけれども、可能な限り企業の側は透明性を確保した形で説明していくことが求められるのかなと思っているところです。

以上です。

○高委員長 ありがとうございました。

他、ございますでしょうか。

どうぞ、樋口委員。

○樋口委員 シンプルな質問なのですが、価格差別のところで、緊急に商品を求めている人は高い価格でもそれを買ってしまうと。そういうところをAI等で分析をしてということになると、消費者利益が損なわれて、消費者を害するようなことが懸念されるということなのですが、そこはなかなか解釈が難しいような気がするのですが。通常の市場においても、緊急に何か必要な人は高い価格を出しても買うという行動に出そうな気がするのですね。それをこういうシステムの中でより強くそういう状況が引き起こされているということですが、ただ、よく考えると、本来、高くても買うつもりの人たちだったのではないかという気もするのですが。それが価格差別ということになるのかどうか。多少、素人的に疑問に思ったのですが、どうでしょうか。

○慶應義塾大学法科大学院山本教授 私もこの辺りの専門家ではないので大変申し訳ないですが、こういう課題があるということですので、原理的にどうのということは、なかなか申し上げにくいわけであります。

ただ、一般的にどういう価格で売られているのかということについて知らせることは必要になってくると思います。その比較をして本人が、それでも、今はこういう状態だからこの値段で買おうという選択の余地が必要なのかなと思います。

○樋口委員 分かりました。

確かに選択の余地を与えないような形でということになると、市場がそもそも成立しないわけですから、おっしゃるとおりだと思います。了解しました。

○高委員長 他はございますか。

受田委員、どうぞ。

○受田委員 極めて難しい問題を分かりやすく体系的に御説明いただきまして、本当にありがとうございます。

今、お話をお聞きした中で素朴な疑問として私自身考えていることを質問させていただきたいと思います。デジタルの世界で光と影が両方出てきているということはよく理解をできるのですけれども、何年前に時計を戻したら良いのか分かりませんが、従前のデジタル化されていない社会から、ともすれば今のデジタル化された社会で劇的に世の中が変わって、消費者問題を含めていろいろな弊害が出ているように多くの方々が捉えられているのですけれども、今の先生のお話をお聞きすると、実際はあくまで暗黙知の領域の中で、過去においてもずっと生じていた様々な現象であったり方法論が、あるところで形式知化されただけで、物事はほとんど変わっていないのではないかというような印象が一ついたします。

どこに変革点というかターニングポイントがあったのか、あるいはそこをどのように見極めていくのかというのが、もしかすると消費者保護とかという観点から見ると重要なポイントではないかなと感じました。

それで、例えば3ページにセレンディピティ・アーキテクチャのお話があって、ここも御説明をお聞きすると極めて納得できるのですけれども、一方で、管理されたアーキテクチャとセレンディピティ・アーキテクチャの境目は何なのか。セレンディピティをより確度を上げてデジタル化することによって管理された形へ持っていこうとするのが今のビジネスであって、ここの境目も極めて主観的というか、感覚的に見ると、時代によってそれがシフトしていっていることなのかなというふうにも映るのですね。

ですから、ちょっと今、私の質問自体も漠然としているのですけれども、何かアナログからデジタルに変わった、暗黙知が形式知に変わった、そこの変革点の部分を非常に我々は突き付けられているようにも思うのですけれども、先生のお考えを少しお聞かせいただければと思います。

○慶應義塾大学法科大学院山本教授 大変重要な御指摘だと思います。何が変わったのか。つまり、本質が変わったのか、程度の差が変わっただけなのか。例えば住基ネット訴訟などというのがございます。住民基本台帳というのは昔からあった。でも、それをネットワークにつないだだけで新たにプライバシー侵害だという話になる。これもある意味で技術が媒介することによって急に物事が変わったかのように見える。

あとは警察のGPS捜査というものがあって、あれも今までで言う尾行を技術的に置き換えただけだろうと。ターゲティングというところで申しますと、恐らくこれまでもセールスパーソンと呼ばれるような人たちは、相手の顔色を見たり、どういう靴を履いているのか、どういう時計をしているのかを見て、個別化したセールストークをしてきたわけですよね。そういう意味では、これまでもある意味でサービスというのは個別化していたし、マーケティングも個別化していたということになるはずですから、本質は変わらないとも言える。

実は先ほどご紹介したRyan Caloも、論文のなかでその点を非常に気にしていまして、「媒介された消費者」という概念を作ったのは、その差異を強調するためだったと。我々は常にスマートフォンなどを持っている。常にデバイスが身近にあって、常にデータが取られて監視されている。レジュメでいう2ページの下ですけれども、こういった要素を挙げて、やはり従来とは違うんだ、ということを強調しているわけですね。

私自身も、確かにこれまでも同系統の問題はあったけれども、アルゴリズムによる媒介の程度が非常に甚だしくなる。本質的な差が起きていると言えるのではないかなと思っています。特に、心理状態というものを、透明なものとして可視化してしまえるような技術ができたと。これは多分、従来と違ってきているのではないかなと思います。今まで相手の人が何を考えているのかというのを、外形的な特徴から、探り出すと申しますか推測するしかなかったわけですけれども、今の技術というのは、心の中をある意味でダイレクトに読み取ることができてしまう。センシング技術とかそういったものを使いながら、いろいろな情報を掛け合わせていくことで、心の中が読めてしまうというようなことが従来の状況との差異を作ってくるのではないかと。それによって誘導操作というものもこれまで以上に強力な、効き過ぎてしまうということが出てくるのかなと思います。

プロファイリングなどによって便利になる側面ももちろんあって、それは否定できないのですけれども、やはり保護の側面も考えておかなければいけないのかなと思います。

セレンディピティ・アーキテクチャのお話ですが、プロファイリングを解いたときのアーキテクチャも、プラットフォームのアルゴリズムの影響は受けているわけですから、それが本当にニュートラルと言えるかというと、決してそうではない。何らかのバイアスが掛かっているのだろうと思います。その点で、セレンディピティ・アーキテクチャの構成ロジックもきちんと伝えることが重要です。プロファイリングを解いたときのセレンディピティ・アーキテクチャはこういうふうに組まれているということも一応説明をしておくことが必要で、調律環境との差異をちゃんと可視化し、メタ選択の機会を与えておくということがまず重要かなと思います。

ありがとうございました。

○高委員長 大森委員、どうぞ。

○大森委員 今、若い人たちは、SNSを使っていろいろな情報を本当に幼いときからアップしていると思うのです。私たちが子供のころもいっぱいばかなことをしましたが、何も証拠は残らないけれども、それをスコアリングされて就職に影響するとなると、今の子供たちにとっては大変な問題になるかと思うのですけれども、その辺りですね。全く無法地帯であるのか、何歳以下の分はしないとか、そのような社会的なルールみたいなものができているのか、例えばこちらが就職活動をしようとしたときに、この会社はスコアリングを採用している、していないとかいうことが分かるのかどうか。その辺り、一般消費者に知るすべは全くないのでしょうか。

○慶應義塾大学法科大学院山本教授 後者から申し上げますと、現状、例えば情報の収集等について、当然、利用目的というのは通知または公表しなければいけないと、個人情報保護法上なっているかと思いますけれども、プロファイリングとかスコアリングを実施していますということは特に通知または公表を求められておりません。ですので、現状、恐らく採用活動にAIを使っている企業が「AIを使っています」と法的に言わなければいけないかというと、これはそうではないということに現状なろうかと思います。

ですから、個情法の改正に当たって、プロファイリングあるいはスコアリングといったようなものを行っている場合には、それを伝えていくといったようなことを義務付けることも具体的に議論して良いと思います。透明化するだけでも状況が変わってくると思います。それが2番目の御質問です。

最初のところは、重要だと思っております。例えば今、個情法の3年見直しの議論を見ていますと、利用停止については議論が進んでいるようですけれども、ヨーロッパなどで言う忘れられる権利、消去権というものについては、そこまで議論されていない。そうすると、過去の若気の至りのようなものを消すということが今後できるようになるかどうかというのは、非常に不透明です。

他方でヨーロッパは、もしかしたら後で生貝先生が触れられるかもしれませんが、消去権というものがGDPRの中に組み込まれています。

ただ、これは2つの考え方が多分あって、1つは情報の賞味期限と申しますか、そういったものを設けて、基本的には人間の頭が自然に忘れていったように、データの世界でも忘れるということを制度的に担保していくような考え方です。

もう一つは、ずっと取っておくという方向性ですね。データサイエンスの観点からは、恐らくずっと取っておくということのほうが支持されるのではないかと思います。要するに若気の至りがあっても、その後にそれを乗り越えるような努力をしさえすれば、AIは若気の至りのウエイトを落としていくはずだ、と。そうすると、きちんと更生しようとした人については、若気の至りは実質的には忘れられるようになる。ところが、若いままで、ずっとやんちゃなまま大人になったという人は、忘れられると正しい評価が出来なくなるため、かつての記録がずっと意味をもつ。要するに、誰しもが若気の至りはあるが、消去せずに、その後も継続的に追跡しておくことによって、更生の努力を正当に評価でき、そのほうがフェアなのではないかという議論が、データサイエンスの世界にはあるわけですね。どちらが良いのか。取り続けてその後もフォローし、正しい評価をしていくこと、すなわち、努力しだいでウエイトが変わってくることを良しとするか、それとも、とにかく一律に忘れるという選択肢を採っていくのかどうか。これは非常に難しいのかなと思います。

私自身は、差し当たりは後者が妥当だと思っています。というのも、その後のフォローをしていくためには、ずっとその人を監視していなければいけないので、これは現実的にはかなり難しいだろうと。そういう意味では、誤差は出るかもしれないけれども、やはり過去を忘れる、過去の拘束から逃れて新しい自分を再創造できる自由を認めていくことが重要かなと思います。

ありがとうございます。

○高委員長 ありがとうございました。

増田委員、どうぞ。

○増田委員 ポジティブな側面とネガティブな側面というのがありまして、これは双方関係することだろうと思うのですが、スコアリングの仕方自体で全然違ってくると思うのです。スコアリングの方法であるとか質、レベルに関しては、各社がそれを採用するについては自由にできるのだろうと思うのですが、その辺りについて分析とか評価が外からできるのかどうかということをお伺いしたいと思います。

○慶應義塾大学法科大学院山本教授 これは最初の池本先生の御質問とも関係していると思うのです。各社がどういうアルゴリズムを組んでいるかということが監査可能でないと、例えば非常に差別的なアルゴリズムを組んでいるといった問題がブラックボックス化してしまう。第三者から検証のしようがなくなってしまうわけです。ですから、それをチェックするような手続とか制度が必要になってくると思います。

問題は、それを誰がやるのか。国が直接やるのか、それとも企業の中に倫理委員会のようなものを立ち上げて、そこがチェックしていくのか、それとも業界団体のようなものを作って、その業界団体がそのアルゴリズムの適切さをチェックしていくのかという、いくつかの選択肢があると思います。いずれにせよ、私自身は、どういうロジックでアルゴリズムを組んでいるのかどうか、どのようにスコアを付けているのかを、第三者がチェックできるような仕組みというのは必要だろうと思います。

○高委員長 ありがとうございました。

他はよろしいでしょうか。

山本先生、ありがとうございました。

続きまして、生貝准教授から、海外の動向や制度設計などを中心に、30分程度御説明をお願いいたします。

○東洋大学経済学部生貝准教授 本日は貴重な機会をいただき、ありがとうございます。東洋大学の生貝でございます。

ただいま山本教授から、恐らく本日の一つの中心的なテーマであろうプロファイリング、特に個人データを用いた消費者の意思決定への介入等の問題について包括的に御紹介をいただきましたところでございますけれども、私は、そこにある種の蛇足と申しますか、本日の会自体のお題であるところのデジタル取引における消費者の意思決定の保護、そのことを考えるに当たり、果たして他にいかなる制度的側面あるいは事象というものを考えていく必要があるのかということについて話題を付け加えさせていただくという趣旨でございます。それに当たり、EUの消費者保護法とその周辺というものが何かと参考になるのではないかと考えます。

また、ただいま山本教授の質疑応答で出ました論点というのも、少し私のところにもところどころ重なりますので、報告の中でもそのことについて適宜触れさせていただきたいと存じます。

まず1ページおめくりいただきまして、2ページでございます。最初に、なぜこのような報告をするのかということについての問題意識を書かせていただいております。やはり今現在、デジタル取引の環境というのは大きく変化している。プラットフォームの拡大、アルゴリズムの高度化、そういったようなものは明らかに消費者に対して新たな機会をもたらす部分がございます。他方で消費者の情報劣位、プラットフォームや事業者と比べて情報的な劣位に置かれるといったようなことを拡大・固定化させるといった懸念、ないしはそれに非常に深く関係するところとして、意思決定に対する不透明な干渉を常態化させるリスクというものがある。

そのようなときに、今正に山本教授から御紹介いただいたような個人情報、個人データを用いたプロファイリングによる意思決定への干渉等の問題というのは、その中で最も重要な中心的なイシューであろうかと思います。なのですけれども、現代のデジタル取引の環境がもたらす意思決定をいかに保護するかという問題は、それには必ずしも限られない。

そして、そういう中で取引の基盤となるオンライン市場等のプラットフォーム事業者及びそこに参加する個々の事業者というものがどういった透明性等を実現することで消費者の意思決定を保護し、その信頼と健全な成長というものが可能になるか。

そういったような中で、また少し最後にも触れさせていただきますが、消費者の意思決定に関わるプラットフォームというものが、やはり今のデジタル取引の最大の特徴の一つであろうといったときに、その支配的状況というものも考慮する必要があろうという点にも触れさせていただくところです。

3ページを御覧いただきますと、これは御参考でございますけれども、2016年にOECDから電子商取引における消費者保護レコメンデーションというものが出ているところでございます。やはりこの中でも、今までの物理環境とは明らかに大きく異なる環境の中で、消費者が情報に基づく意思決定に必要な情報をどのように保有できる状況を作っていくのかということが、25番、3行目のところで触れられております。この2016年の段階では、まだプラットフォーム等の議論は直接は出てきておりませんでしたけれども、やはりそれは共通した問題意識であろうと思います。それに加え、後ほどEU法制でも関係するところでございますけれども、こういった消費者保護のルールというものを、金銭的及び非金銭的な取引双方に関係した商行為を対象にしていくべきだということも、ここで述べられていたところでございました。

4ページ目をおめくりください。ここから少し各論になってまいりますが、EUでは、まず1つは加盟国レベルで様々な取組が行われており、そして、様々な消費者保護に関連する指令等の改正も行われてきたところでございますけれども、この問題に対して最も包括的な対応を行ったものが去年提案されて、そして、2019年3月に欧州議会とEU理事会の暫定合意が行われて、これはほぼ成立でございますので、近く、秋には官報に他の法律との表現上の調整等を行なった上で掲載されるところだと認識しております。

この内容は極めて多岐にわたるのですけれども、少し前年度のプラットフォーム検討会でも御紹介させていただいたところですので、簡単に述べさせていただきます。まず1つは、消費者権利指令を改正する形で、同指令をデジタルコンテンツ、デジタルサービス、そういったようなものにも適用する。そして、事業者に個人データを提供または提供することを引き受ける契約を対象とすることで、今のデジタルサービス、プラットフォームビジネスなどを含めた形でのビジネス全体というものをこの指令の中に引き入れている。この中で更にオンライン市場、オンラインマーケットプレース、正にデジタル取引全体の基盤となるものに関して新たな定義を挿入しまして、ウェブサイトあるいはその一部ないしアプリケーションを含むソフトウエアを使用して遠隔契約を結ぶことを可能とするサービスという形で定義しているところです。

そして、この指令には様々な消費者関連の規定が含まれますが、情報提供義務というものが非常に力点を置かれている。その中には、もちろん日本の法制のように商品の性質などの情報が全体的に含まれるわけですけれども、それに加えて商品検索ランキングを決定する主なパラメータ、そして、パラメータ間の相対的重要性までを求めるということを言っているところです。

この点に関して、少し先ほど池本委員長代理がお話をされていたところに関しましては、正しく山本教授も触れていらっしゃったところですけれども、アルゴリズムを開示するとは一体どのようなことなのかということについて、これもかなり深く見ていく必要があるのだろうということでございます。

私も国際協定におけるアルゴリズム開示の議論は必ずしも深くは追ってはいないのですけれども、国際協定の文脈で中心的な問題意識にあるのは、いわゆる強制的な技術移転というものではないかと思います。そのようなときに、ここでは簡単に書いておりますけれども、そこにいわゆる営業秘密ですとか知的財産を侵害するような形であってはならない。だから、本指令では、アルゴリズムと言わずにパラメータとパラメータの相対的重要性という表現を使っている。

そのようなときに、これはあくまで私見という形になりますけれども、そういった国際協定の中で約束するということが、一般論として、例えば強いIT企業を多く有する国というのは、その企業に規律が掛かるような事態はできるだけ抑えたいというインセンティブを持つところでございますので、果たしてどのようなところまでが認められて、どのようなことまでが認められないという約束をするのかということ自体、極めて重要な消費者保護の論点であろうと認識しているところでございます。

2番目に、この辺りは正にシェアリングエコノミー等を含めて、商品を提供する第三者が事業者であるか否か。そして、それが直接関わって3ポツ目で、それにより消費者法上の権利が適用されるかどうかというものが大きく変わってくる。そして、契約に関連する義務の、商品を提供する第三者とオンライン市場での分担というものも明確に定義すべきだということを言っているところでございます。

さらに他方で、5ページ目に行っていただきますと、これは同じパッケージの中で不公正取引方法指令、こういった取引方法は不公正であるから禁止されるということを付表で指定している指令でございますけれども、この中にいわゆるステルスマーケティングを行うような状況、有料広告や高いランキングを得るための支払いを明示せずに商品検索の結果を提示することを不公正な取引として追加している。そして、やはりレビューというものに消費者の意思決定というのは極めて大きな影響を受ける。むしろそのこと自体がオンラインプラットフォームを安全な場所にしていくものだということが様々なところで期待をされていることは、山本教授からも御指摘があったところだと思います。

そのことが正確であるということをどこまで担保することができるか。ここでは合理的かつ比例した確認を行わずに商品レビューが実際に当該商品を使用・購入した消費者によるものだと表示すること、そして、製品を宣伝するために虚偽の消費者レビューや推薦、それから社会的推薦といったようなものは、恐らくこれだけ多くの人がこの商品を推薦していますといったようなことかと存じますけれども、それを別の自然人・法人に委託すること、ステルスマーケティングに近いようなことが禁止されているところでございます。

ちなみに、下に※印で書いておりますけれども、さきの消費者権利資料のところでも言葉として出てきましたランキングというものについて、この消費者ニューディール全体の中で少し広めの定義をしております。アルゴリズムの順序付け、評価またはレビューメカニズム、視覚的なハイライト、その他の顕著性ツールあるいはその組み合わせを含む検索機能の提供者によって提示・整理される検索結果の相対的な目立ち方ということで、技術的にかなり中立的な定義をしている。上に来るかどうかというよりも、ハイライトされているかどうかですとか、そういったところも含めた提示の仕方というものを規律しているところです。

今般のニューディールの中では、こういったことが特に消費者に対して提供されるべき情報だということを記しているわけでございますけれども、6ページを御覧いただきますと、こちらは簡単に主たる発見だけを引いてきているところでございますが、こういった消費者取引に関わる指令に限らず、欧州委員会では新しい立法提案をやるに当たって極めて入念なインパクトアセスメントというものを実施するのが通例になっております。

その中で、特にここでは4,000人以上のEU各国の消費者に対して、こういったような画面の見せ方であるとか、こういった情報を提供することというものが意思決定にどういった影響を与えるのかといったようなことを、行動経済学的な観点から全体的な調査を行って、それをこの消費者ニューディールの法案とともに提示したものでございます。

例えば検索結果のトップページに来る商品を非常に多くの利用者は選択する傾向がある。そして、他の利用者が良いというふうに言っている、人気と言っているようなものを強く消費者は選択する傾向がある。であるから、例えばマニピュレーション、人気の操作といったようなものは誤認をもたらすものであるし、そして、ここで紙のほうに戻りますと、例えば検索結果のランク付け基準に関する情報がないのと比して、それがしっかりと特定の基準、人気などの基準に基づいていていることをちゃんと示された場合には選択する確率を115%上昇させる。

2番目では、先ほどの責任のシェアというところに関わるところかと存じますが、プラットフォーム上の当該販売者が消費者の権利をちゃんと確保できる、売っている先がちゃんとその権利によって規律されている主体だということが分かることで50%買う可能性を向上させるということ。

3番目は、レビューが消費者の選択を200%増加させるといったような、一面では消費者の行動というものをしっかり把握しながら、しかし、また他方でそういった情報提供というのがヨーロッパのシングルマーケットの確立といったようなものに対していかにポジティブな効果も含めてあり得るのかといったようなことを調査した上で立法提案を作っているということだと認識しております。

7ページ目をめくっていただきますと、実はこれは今回の法案の審議の中でもかなり最後になって入ってきた条項であるのですけれども、山本教授からも言及がございましたパーソナライズド・プライシングへの対応というものがニューディールの中で一定程度取り入れられることになりました。

6条におきまして、情報提供義務に、契約締結前に提供しなければいけない情報の中に、先の様々なものに加えまして、該当する場合、価格が自動的決定(automated decision making)、これは正しくGDPRの中でもともと出てきた言葉でございますけれども、それに基づいてパーソナライズドされていることというのはしっかり提示しなければならない。

これはプラットフォームに限らずオンライン市場を介した取引以外にも適用される一般的な情報提供義務ということになります。ただ、これは少し経緯がございまして、当初、議会からこういった条項の提案があったのですけれども、当初の修正提案ではオファーの提示や価格決定のためにパーソナライズド・プライシングを含むアルゴリズムまたは自動決定が用いられているのか否か、どのように用いられているかというところまでの情報義務を求めていたところだったのですけれども、やはりまだこのパーソナライズド・プライシングということ自体、特にここ数年、各国で調査が続いているところでございますけれども、まだその実態というものが見えにくい状況にあるということ。

それから、樋口委員から少し御指摘があったところに関わりますけれども、パーソナライズド・プライシングが果たして経済厚生にどのような影響を与えるかということについては、これは専門研究者の間でもかなりまだ議論があるところであるようです。このパーソナライズド・プライシングというものは、ある種、消費者の購買力を測る、それに応じた価格を付けるという側面があるものでございますので、例えばメリットを言えば、お金のない人に安い値段で売る。ビジネスモデルとして極めて合理的なことであるわけでございます。それというのは、確かに場合によっては経済厚生を上昇させる確率が一面では例えばあるのではないか。また、プラットフォームが寡占的か独占的か競争的かといったようなところによってもまた大きく異なってくるというような様々な議論がされているところであり、そこまで踏み込んだ規律というところにはまだ入ってこなかったということなのかと理解しているところです。

そういう中で、最終的にはパーソナライズド・プライシングをしている場合はちゃんと伝えることを規律することになったと。これは恐らくある意味で、個人データの保護や差別等の禁止等をある種の主目的に置くGDPRの中で規定されるプロファイリングに対する抵抗権、しかし、あれもちゃんと情報を提供するといったようなところを含め、必ずしも全ての状況に当てはまるわけではございませんし、また、執行当局としても当然、個人データ保護のリスクに対する問題を優先的に執行していく部分はあろうというふうに申しましたときに、EUでは消費者法の執行というのは各国に委ねられているところでございますが、消費者法の執行当局として、どういう側面から同じ事象を見て、またエンフォースメントをしていくのか。これはGDPRと消費者法、正にクロスといいますか重なる部分もあるかと思いますけれども、それぞれの観点からそれぞれの規律を行っている部分があるのだと思います。価格という消費者保護にとっても極めて重要なところに関して、補完的側面という言葉で表現すべきかどうかはともかく、深い関係性を持っているというところです。

8ページでは、この条項に関してのある種説明に位置付けられる前文の45のところを書いているところでございますけれども、やはり消費者の購買力を評価することができる自動決定やプロファイリングに基づいて、特定の消費者または特定のカテゴリーの消費者に対する、これも第1種、第2種、第3種など幾つかの種類があるところでございますけれども、包括的に対象にする。

そういう中で、消費者は自らの意思決定において、もしかすると他の人たちより高い価格が僕たちの個人情報等に基づいて付けられているのではないか。あるいはこの中では特にパーソナライズドの価格というところが主たる問題として挙げられるところでございますけれども、例えば検索結果を個人情報に基づいて変更するといったようなことも、ある種の亜種としてはしばしば行われるところです。すごくシンプルなケースとしては、ウインドウズのユーザーとマックのユーザー、これはアクセス先からは簡単に分かるものですけれども、それによってオンライン旅行サイトがマックのユーザーに高い価格の宿を優先的に表示したということが少し話題になったりいたしましたが、やはりパーソナライズドによって消費者に対する意思決定の介入を行う手段というのは、必ずしも価格だけではないということはここで強調させていただきたいと存じます。

正しくこのことというのは、消費者にどのような情報を提供するのかという、ある種、消費者法の中心的な問題です。他方で、しかし、パーソナルデータのプロファイリングというものをどのように規律するのかという山本教授が御指摘なされた問題とも正にクロスする、中心的結節点にある問題として国際的にも議論されているという認識でおります。

9ページ以降、関連法制、その周辺というところについて幾つか触れさせていただきたいと思います。例えば消費者をプロファイリングするでございますとか、あるいはそれに基づいて価格やその他のサービスを変更するといったようなことは、一般的には消費者行動のトラッキングというものに基づくものでございます。そのようなときに、このことについてEU側もGDPR、個人データ保護法だけでアプローチをしているわけではございません。また別の切り口といいますか、こちらが正にクッキーですとかトラッキングに関しては中心的な手段になるのですが、2002年に最初の指令が作られ、2009年に大幅に改正されております、eプライバシー指令というものがございまして、ここは通信に関わるプライバシー保護というものを特別に規律している指令でございます。その中に5条、Confidentiality of the communications、正に日本語で言えば通信の秘密ということになろうと思いますけれども、この1項、2項では、日本法で言うところの通信の秘密、通信の内容は知得したり漏らしてはいけないといったようなことを規律しつつ、3項において、加入者またはユーザーの端末機器への情報の保存または既に保存された情報へのアクセスというものはしっかりと同意をとった上で行わなければならない。少し分かりづらい書き方をしておりますけれども、これはいわゆるクッキーのことを指している条項でございまして、クッキーをブラウザの中に埋め込んで、それを追跡するためには同意が必要だというのがヨーロッパでは2009年以来のルールとなっているところであります。なので、前提としての制度的環境が日本とは少し異なる。

そして、現在、2017年10月からこれは激しい審議が続けられているところでございますけれども、それを規則に置き換えるeプライバシー規則案では、消費者をトラッキングするテクノロジーというのは当然クッキーだけには限られなくなってきている。私も必ずしも詳しいところではないのですけれども、デジタルの空間だけでも、あるいはリアル空間の行動をトラッキングするといったようなことも、Wi-Fiトラッキング等をはじめ日常的に行われてきているものを包括的に対象にしている。そして、そこも原則として同意を取らなければならない。

しかし、同意というのは、果たしてどのように取れば消費者の意思決定を尊重したことになるのか。トラッキングされるたびに我々が一つ一つ同意をするというのは、必ずしも我々の適正な意思決定ではないように思われます。そのようなときに、これはGDPRの特別法という位置付けでございますけれども、同意に関して、ブラウザやソフトウエア等の設定によって行い得る規定を導入することで、よりこの状況に即した同意を可能にしていこうという側面も含まれているものであります。

11ページを御覧ください。これはビジネスユーザーのためにプラットフォームの透明性をどのように規律するかという規則ですが、今年の7月に成立して、既に官報に掲載されているところでございますけれども、目的としてはかなり、今、申し上げました消費者ニューディールと重なります。と申しますか、正しくほぼ同じ時期に提案されて、同じような目的意識、つまり今まで以上に巨大化、影響力を増すプラットフォームから力関係として弱いユーザー企業を保護するために、まずはプラットフォームとしてはどのような情報をちゃんと事業者に提供する必要があるのかということを規律しており、これは日本でも様々議論になったところでもあったかと思います。

そういう中で、この中でもいろいろな規律があり、詳しい御説明は省きますが、正にランキングや検索結果の決定パラメータというふうにいったような、これは事業者サイドにとっても自分の情報がお金をたくさん払えばランキングの上位に来るのかどうか。なぜか一番最後に落とされて全くお客が来なくなったのだけれども、これはなぜだろうといったようなことをちゃんと伝えていただく。消費者にとってだけでなく、事業者にとっても大変重要な情報である。

他にも、契約条件の明確化や変更前の事前通知といったようなもの、これは既に消費者法の中では手当てされているものでございますけれども、やはり事業者に対しても力関係に鑑みてそういうものをしっかり含めていく。こういった、特にアルゴリズム等によって複雑性とブラックボックス化を増すプラットフォームが、果たしてそれを正しく提示しているのか。そして、新たな問題が起こっていないのか。そういうことを考えるためには専門的、継続的な監視機関が必要だということで、この規則の提案日と併せて、プラットフォーム経済監視委員会という専門の組織を設置するといったようなことをやっているところでございます。

これはこの規則と同日に提案されたものですけれども、必ずしもミッションというのはBtoB、ビジネスユーザーの保護だけには限られない。消費者に対してそのアルゴリズムが正しく提示されているのかといったようなところも含めて監視する機関だというふうに認識しているところであります。

12ページを御覧いただきますと、今、申し上げたものがユーザー企業とオンライン市場というものの左側の関係性、透明性を規律する規則です。ヨーロッパでは、このこととセットとして正に前半で御紹介を差しあげた消費者ニューディールというものの審議と策定を進め、同時に提案されて、同時にほぼ成立しているというものであります。

そうした中で、これは一つは、我が法では左側の側面については相当程度、例えば具体的な立法も含めた議論がされているというふうに聞き及んでいるところでございますけれども、この両面から、消費者保護という観点からもこのことをどう考えていくのかということを我が法の文脈においても考える価値は高いのかと存じるところです。

御参考までですけれども、13ページには、これは私自身お手伝いしております内閣官房IT室のシェアリングエコノミー検討会議において、実はこの2つの規則と指令、ニューディールを含めたものを少し御紹介させていただいたことがございました。そして、ここでは正にソフトローの方法によって、民間の認定という形によって緩やかにプラットフォームの安全性と適切性を、特に小さいプラットフォームを中心にして実現していこうというものでございますが、特にシェアリングエコノミーのようなものは提供者がコンシューマーなのか、事業者なのかということが常に判然としない状況にあります。

なので、どちらのアプローチで保護すれば良いかといったようなことも必ずしもはっきりいたしません。そのようなときに、ここではソフトローの正に参照軸となるガイドラインの中にこの2つの指令や規則を参照した上で、まずはやはり特に小さいプラットフォームに関しては、この両方の側面というもの、右下のアクションのところにございますけれども、契約条項の変更ですとか、あるいはランキングを決定するパラメータですとか、できる限り透明性を確保していこうといったようなことも含めた仕組みづくりというものが進められているところであります。

14ページを御覧ください。残り時間も少なくなってまいりましたけれども、関連法制マル3として、競争法の重要性というものが、とりわけここの領域において改めて議論をされているところであります。特に御承知の方も多いかもしれませんが、この2019年2月のドイツ連邦カルテル庁フェイスブック決定、2~3年ほどかけて調査をしてきた結果としての決定が出されたところでございます。これは公正取引委員会の邦訳を引いてきているものでございますが、ごく端的に要約をいたしますと、消費者にとってSNS、フェイスブックというのはそれしか選択をせざるを得ないといったような状況にある中で、それが提示している契約の条件、個人情報の使い方というものが極めて搾取的なものであった。そのことをドイツの競争当局としては、競争法上の問題として、正しく3ポツ目にございます搾取的濫用としてエンフォースメントを行ったといったような事例となります。

当然これは消費者の意思決定というところからは、選択肢が極めて限られている、支配的なプラットフォームの状況の中では、それが提示した条件というものを実質的に受け入れざるを得ないといったような環境にある中で、やはり従来の個人情報保護法のようなことだけではないアプローチの在り方というものを加重的に考えていく必要があるのではないかという考え方を示していると認識しているところでございます。

他方で、ヨーロッパではそもそもGDPR自体が同意というものは自由に与えられたものでなければならないというふうに規律しているところでございますので、GDPR自体としてもこういった状況にはある程度アプローチできる状況がなくはないと思うのです。しかし、それでもこういった行為の是正というものを真正面から行っていく上では、この競争法によるアプローチというものが選択されたのだろうと想像するところでございます。

他方、我が国においては同意というものは極めて形式的な取扱いをされている中で、正しく最近の就職活動プラットフォームの状況がそれに近似した状況というところはございますけれども、正にこの消費者の自律的な意思決定を可能とするプラットフォーム市場の在り方とはどういうものなのかということも、これから考えていく必要は、プロファイリングを含めてあるのではないかと認識しているところです。

15ページ、これも少し御参考に近いところがございますが、消費者がプラットフォームを移ることができる状況というものを作るというのは、恐らくそういった状況の少なからず解決に資する部分もあるかもしれないと申しましたときに、GDPRの20条ではデータポータビリティー、個人が自らの個人データを他のプラットフォームに移したり取り戻したりできる権利が導入されたということは御承知のとおりかと思います。

それと加えまして、4月に成立したばかりのデジタルコンテンツ供給契約一定側面指令の中では、先ほども言及されていたアプリ、クラウドストレージ、SNS等、これは正にさきの指令と同じパーソナルデータを供給する契約を含むものでございますけれども、それの取消しですとか情報提供義務というものもこの中に含まれているものであります。

その中の16条で、契約終了時の取引者の義務として、パーソナルデータ以外の情報についても消費者がスイッチをしやすいように持ち運ぶことができる。例えば写真ですとか3Dモデリングのような、その上で作った自らのデータといったようなものが持ち出せなければ、消費者は実質的にスイッチングできないであろうと。パーソナルデータだけ持ち出せても、実はスイッチングというものは余りはかどりません。ここもやはり深い補完関係にあるであろうといった中で、ヨーロッパとしては、これはフランスを含め国内法で幾つか先にやっているところもございますけれども、正に重層的な仕組みを用いてこの状況に対応しているという認識であります。

16ページ、これが正にフランス法で先にやっているといったものですが、これは割愛させていただきます。

最後に、幾つかの示唆ということで、我々が消費者の意思決定というものを考える上で何を考えれば良いのかということの参考としてヨーロッパの幾つかの動きを、全てではございませんけれども、御紹介したところでございます。そこから示唆を得ることができるとすれば、1つはプラットフォーム企業やアルゴリズムというものが消費者の意思決定に与える影響をより広い観点から、プロファイリングというものを一つの重要な問題軸としながら、しかし、それ以外の点についても広い観点から特定をしていく。そのためには、やはりかなりしっかりとした調査と研究というものが必要だろうと思います。

その中では、やはり特にエビデンスと申しますか、さきの欧州の行動調査のようなアプローチも極めて有用であろうと思います。特に消費者法というもの、消費者政策というものが今は主として国民側から具体的な苦情というものが多く挙がったものに対応するということを中心に置かれていると認識しており、このこと自体は極めて適切なことだと思いますが、やはりデジタル市場というところの問題を特定していくためには、もしかするとこういったアプローチも考えられるのではないか。

2つ目に、そのことを含めて専門的、技術的な状況を見ていくためにはモニタリング機能の在り方といったようなものもしっかり考えていかなければならない。

そして3つ目、個人データ保護法、通信法、競争法等々、これだけに限らず、やはり消費者の意思決定、プラットフォーム市場というものは極めて多くの政策・法領域に関わるものであります。そういったようなところとのコーディネーションといいますか、シナジーと申しますか、それをどう図っていくのか。私はこの消費者委員会というところは、様々な政策の領域を消費者保護という観点から総合的に御覧になられる組織だと勝手に認識しているところでございますので、正にそういう観点から様々な法領域を見ていただくというのも意味のあることなのではないか。

そして4つ目に、正に市場支配、強固なロックインに対して、特別に支配的な状況が起こりやすい状況にどう対応していくかといったようなこともアディショナルに重要な論点として考える必要があろうということです。

以上、私の発表とさせていただきます。御清聴ありがとうございました。

○高委員長 ありがとうございました。

ただいまの御報告に関しまして、御質問あるいは御発言がございましたら、よろしくお願いいたします。

長田委員、どうぞ。

○長田委員 ありがとうございました。

私も幾つか関わっているところで、すごく難しいなと思っているのは、例えばテレビの視聴履歴をデータとして利用して、最初は番組のリコメンドに、スマホや何かにそれがやってくるというような仕組みを利用したいと考えていらっしゃる放送局の皆さんがいらっしゃる。そこで、今、ルールを考えているところなのですけれども、それがいずれ今度は広告で、きっと最終的には見ているテレビの広告もパーソナライズされたものになるのかもしれないのかなと思うような状態になってきている中で、我々はまず一つは、当然同意は取りますと言っている同意の取り方です。御指摘がありましたけれども、一体何が明示的な同意となるのかという問題と、テレビの受像機のように一人ではなくいろいろな人が利用するものというときの同意をどう考えるのかということ。それは他のものも全部そうなのですけれども、結果として出てきたリコメンドでも広告でも何でも良いのですけれども、それを見分けるために何か、色が違うぐらいだったらすぐ分かるのですけれども、ページにがんと大きなマークが付いているとかというのだったら分かりますけれども、そうならないこととか、仕組みとして、この今ある仕組みが完全に駄目、プロファイリングについても禁止ということにはならないのだろうと思うので、そこでどういうふうにルールを作っていくのが適当なのか。すごく目前にいろいろなものが迫ってきていて困っているのですが、何か良いアイデアがあったら、是非お願いします。

○東洋大学経済学部生貝准教授 ありがとうございます。

大変難しくも重要な課題であると存じておりまして、まず前提として、現代のメディア環境はより高度化されていくべきであると思います。例えばネット上の動画やニュースのプレーヤーが個人情報をうまく利用してより優れたサービスを提供している状況の中で、しっかりこれまでの重要な社会インフラを担ってきたサービスというものがキャッチアップしていけるかいけないかということは、正しくこの国の民主主義の基盤を誰が担うかということにすら関わる問題であると、私自身、認識しているところでございます。

他方で、おっしゃったテレビという文脈については、2つの特別な論点を併せて考えていく必要があるかと思います。例えば、先ほどのドイツのフェイスブック決定との関連で言えば、嫌であれば他に行けば良いといったようなものと少し違ったタイプの状況であること。そういった中で、いかに消費者個人個人が自らの意思で、正に自由に自分のデータをどこまで出し、どのようなプロファイリングを受けるのか、適切に情報を通知する必要は当然ある一方で、実質的な選択をどのように確保していくかを考える必要は特に高い領域かと存じるところです。

それに加えまして、2点目としては、個々人がどういう情報や知識を得るかということ、これは特に米国等の一部の分野では知的プライバシーと呼ばれるもので、つまり、我々はどういう情報を得るかということは、正しく思想・信条等の内面に関わるものであり、そして、例えばそれを誰かに見られているといったことは、私たちの人格の形成、正に知的な発展そのものに深く関わるところであり、特別な配慮が求められる領域であると認識しております。それが正しく、そういった枠組みの中でどう保障されるのか。全く答えはないのですけれども、私としてはその2つの論点が特に重要な分野だと認識しているところです。

○高委員長 ありがとうございました。

他はございますでしょうか。

どうぞ、樋口委員。

○樋口委員 今、お話を伺って、EUを中心としたいろいろな動きはある程度流れが分かってきたような気がするのですが、世界を考えると、中国やアメリカなど、グローバルなシステムですから、いろいろなところで同じような問題が起きてくるのではないかと。そのときに、消費者保護という観点から、国内であれば消費者委員会がいろいろ問題提起をすることも十分可能だと思うのですが、グローバルないろいろな動きに関して、どういうふうにアプローチして良いのかなというところが私自身は見当がつかないのですが、その辺り、いろいろお知恵がもしあれば教えていただければと思います。

○東洋大学経済学部生貝准教授 ありがとうございます。

様々なプラットフォームの議論に関わっておりまして、やはり一番難しい論点だと考えております。そうした中で、非常に様々な論点はあるのですけれども、一つはっきり言えることは、例えば相手がグローバルなプラットフォームであることを念頭に置くのであれば、そのプレーヤーは世界的に活動している共通のプレーヤーだということで、それに対して影響を与える各国の法制度というものが、極めて深い相互依存関係の中にあるものだと存じます。

実際問題、今、こうしてヨーロッパで動きが進んでいる。そうすると、多くの場合、プラットフォーマーとしては、各国ごとに消費者保護の対応を分けるというのは必ずしも合理的ではないケースが多いですから、事実上、それがプラットフォームを通じてグローバルなルールという形で機能する場合が少なくない。例えばGDPRでもそういったことを広く言われるようになっており、それにより恐らく我々自身が何かをしなくても、適切な消費者保護が実現されるかもしれない。しかし、最初のルール形成自体にどう関わっていくかというレベルから、本来は考えないといけないところである。なぜなら、プラットフォームを通じて各国のルールはある種統合されるわけですから、最も影響力の強いところと矛盾するルールを作っても、なかなかその実効性自体が実現し難い部分がどうしても出てくるということ。

もう一つとして、この分野では、正に共同規制などと言われるように、技術変化が速い中で、法律としては大枠を定めた上で、内側の細かいルールに関しては、業界団体やプラットフォーマー自身のソフトロー的な形で実現していただく部分が極めて大きくならざるを得ない。その中で、例えば消費者への情報提供の在り方といったようなことでも、EU法の中でも全てコード・オブ・コンダクトという言葉がどこかに入っているところがあり、そして、EUやアメリカ等を含めて、それと並行してソフトロー作りの努力を官民合わせてマルチステークホルダーで進めているところでございます。それは時として、例えばオンラインレビューですと、既にISOのスタンダードはございますけれども、標準化団体が用いられることもあれば、様々なフォーラムが用いられることもある。そういったソフトローにもしっかり関わっていくことが極めて重要である。

例えば正しく、これもごく私自身の個人的な認識でございますけれども、シェアリングエコノミーで透明性という論点をガイドラインの中に含めたということを御紹介させていただきましたけれども、正にこの部分というのも、日本発という形でISOのスタンダード化を進めているところであり、一つの向きとして私自身期待しているところであります。明確かつ端的なお答えがない領域ではあるのですけれども。

○樋口委員 非常によく分かりました。ありがとうございました。

○高委員長 他、ございますでしょうか。

どうぞ、受田委員。

○受田委員 御説明ありがとうございました。

今、消費者保護の観点から、個々人のデータをいかにプライバシーの侵害を含めて保護していくかという観点が議論の中心になっているのですけれども、一方で、ビッグデータ自体が生み出す価値というところから、例えば情報銀行の仕組みが構築されようとしていることもございます。要は、個々人のひも付けされた情報ではなく、メタデータというか、ビッグデータとして生み出される価値の点からも、こういう情報の取扱いが非常に重要になっているという点をどう考えていくかというのが一つポイントとしてあるのかなと。

そんな中で、先ほど15ページにGDPR20条のデータポータビリティー権の補完というお話がございました。こういったデータポータビリティーが機動性あるいはフレキシビリティーを担保されることになれば、一方で、データの生み出す価値の部分が非常にまた脆弱で、あるものが欠け落ちていくことによって、そのビッグデータが生み出す価値自体にも毀損する可能性も出てくるのではないかとも想像します。要は、こういう情報銀行などの考え方と、今日、お話のあった内容とは、どのように整理をしていけばよろしいのか。お考えを伺えればと思います。

○東洋大学経済学部生貝准教授 ありがとうございます。

このことも大変重要、難しいところではあるのですが、私見として2点申し上げたいと思います。まず、データがあちらからこちらに移るということが常態化してくる中で、ビッグデータの価値に与える影響というところでは、実はデータポータビリティーの権利自体は、GDPRにおいても、あるいはこの新しい指令の中においても、イコール移されたデータを元のデータ管理者から消すということを必ずしも前提にはしておらず、むしろそれを消すか消さないかということは、例えば先ほど言及がありました消去権、忘れられる権利という別の権利が適用される文脈であるのかどうかといった文脈で決定されるものであり、ヨーロッパでは強固な消去権及び忘れられる権利を前提として、データポータビリティー権を実装している。他方で、我が法にはそういったルールは必ずしも強くないといったときに、双方を含めてしかるべき本人の意思に基づくデータ移動の在り方の定義を構築していく必要があろうというのが1点目でございます。

2点目といたしまして、例えばデータポータビリティーで様々なところに情報を移すことができるようになったとしても、移し先が安全であるのかどうかですとか、活用の方途というものが本当に自分の望んだものであるのかどうかといった一つ一つの判断は、脆弱な消費者には難しいところがあるところでございます。

そうしたときに、しかるべく消費者の代理として機能する情報銀行が本当に成り立ってくるのであれば、それは正に自らのデータを自らが様々な形で意思を反映して利用していくということにおいて、極めて重要な意義を持つ社会的装置として機能することが期待されるところであります。

そのような中で、正しく情報銀行に関しては、こちらにいらっしゃる山本教授も御参加になる形で様々な制度設計の努力が行われているところでございますけれども、ただ、ああいうものが一つの種類だけではないことに、恐らく配慮する必要がある。片方では、もっとデータをマーケティングですとかプロファイリングに使いたいという企業側の代理人としての情報銀行というものが、どうしても企業側としては正当なビジネスとして様々考えるところが強いであろうと思います。しかして、そのインターミディアリーが消費者側を代理するインセンティブをしっかり持つための仕組みはどのようにあるべきなのかということ。この側面をしっかり深く考えていかなければならない領域だと認識しております。

例えば、就活サイトのような問題は、あれは企業側の代理人であったのか、学生側の代理人であったのか、双方代理のような状況になっている中である種の不透明性が生まれて、ああいったことが起こったと理解できる側面もあると思います。

実は情報銀行のような議論は我が国に限られたことでは全くなく、特にヨーロッパでもデータトラストですとか、そういったような名前で議論をされているところです。データポータビリティーとセットで、情報銀行、データトラスト的なものが議論される。様々な情報を消費者の意図するところにまず1回集める。そして、それを様々な信頼できる形で活用する。そして、特に諸外国では、例えばそのオーナーシップ、ガバナンス、場合によっては協同組合のような形で保有されるようなプラットフォームというもののほうが、消費者の代理人として機能するインセンティブが強いのではないか。そうしたガバナンス、そして、データオーナーシップというより、データトラストのオーナーシップの議論まで踏み込んだ検討が行われている状況であることを、少し追加しておきたいと思います。

○高委員長 他、ございますでしょうか。よろしいですか。

今日、お二人の先生からお話をいただきまして、大変勉強になりました。樋口委員が先ほど質問された内容ですけれども、消費者行政に携わる者、あるいは消費者委員会として、この問題に関してどういうアプローチが可能なのか、我々、皆、悩んでおりましたが、御説明をいただいて、私自身の個人的な整理なのですけれども、整理ができたような気がしております。

問いのレベルとしては、いろいろな問いがあって、私なりに整理すると3つぐらいの層に分けられるのかなと思いました。一つは、これは個人情報保護の問題あるいはプライバシー保護の問題を除いた場合の消費者行政という観点、特に個人の「自律的・合理的な意思決定、判断」というところで考えた場合、まず1番目に出てくるのは「哲学的な問い」というのでしょうか。何をもって消費者の自律的・合理的な判断と言えるのか。今日、山本先生から説明がありましたが、操作的なネット広告による影響によって判断したとき、それは自分の自由な意思に基づいたものなのかどうなのか。ここの判断は非常に難しいと思います。GDPRの例も説明していただきましたけれども、その条文を読んでも、ターゲティング広告による影響は余りないとしながらも、例外条項もあり、この自由な意思に基づく判断であるかどうかについては、難しい哲学的な問いが残ると思いました。

2番目は、「社会的な問い」といったら良いのでしょうか。こういう状況になってくると、これはプラットフォーマーというよりも、AIあるいは情報主導の社会が進んでいく中で、「市民の自律的・合理的な判断の機会」が奪われる状況もあらわれてくる。こういう問題指摘があったのではないかと思います。例えば、プロファイリング、スコア化、こういうことが進むことで、各自の再挑戦の機会が奪われるといったお話をいただきました。あるいはバーチャル・スラムに一度落ちてしまったら、なかなかそこから抜け出せない。それは意思決定、判断との関係でいえば、「合理的・自律的な判断の機会」を奪われることを意味すると思います。こういった哲学的・社会的な問いが最初の上の2つの層に来るのかなと感じました。

特に我々が関心を持って、また、我々としてできるところは、3番目の層を構成する問いかなと思います。具体的な問いということで整理しますと、これは、更に3つに分類されると思います。

少し前提を整理させていただきますと、消費者が、バーチャルではなくて、デジタルではなくて、リアルな世界で合理的な判断を行う上で、これを阻んでいた3つの制約がありました。1つ目は、例えば電池の購入を考えた場合、最も有利な電池を買おうと思ったら、自分の身近な店にある電池の中から探すしかなかった、つまり、選択肢が限られるという制約があった。また2つ目として、最も有利な電池を探すには、時間をかけなければいけない、つまり、時間という制約があった。3つ目としては、最も有利な電池を探そうとすれば、移動のためにコストを掛けなければいけない、つまり、費用という制約があった。もう一度、言いますと、限られた選択肢と時間とコストという制約が、かつて、リアルな世界にあったと思います。

オンラインプラットフォーマーが一気に力を付けてきたのは、この3つの制約をほぼ解消してしまったからだと感じています。膨大な数の中から、瞬時に、しかも無料でどれが合理的かを教えてくれる。そういう意味で、それ以前にあった事業者と消費者の間の「情報の非対称性」を解消してしまったわけです。では、これで消費者は合理的な意思決定、自律的な判断ができるようになったのかというと、実は、ここから別の問題が出てきた。それが今日、先生方にお話しいただいたことだと思います。オンラインプラットフォーマーが中心に立つことで別の問題が出てきた、「情報の非対称性」の問題が出てきたと、先生方の話から理解させてもらいました。

具体的な問いとして、3つのレベルがあると言いましたが、1番目のレベルは、そもそもオンライン上で提供される情報の信頼性に関するものです。透明性が確保されていなかったら、そこから提示される情報そのものが本当に正確なのか、中立的なのか、よく分からない。それで、生貝先生からいろいろな御説明をいただきました。ヨーロッパの消費者のためのニューディールというところの動きで、情報提供義務の中にはこんなものが入ってくるのだということを、具体的な例を挙げて説明していただきました。また、先生には、以前、専門調査会で、プラットフォーム事業者の役割について、9つを明確にする作業を手伝っていただきましたが、それにつながるお話を頂いたと思いました。

2番目のレベルは、表面的な情報の提供の話あるいはそれがどうやって格付されたのかという背景にあるアルゴリズムの話などではなくて、さらにその裏にある問題、例えば、オンラインプラットフォーマーが取得、加工したデータによる広告誘導などに関するものかと思います。つまり、取引履歴等を駆使した購買誘導を行っている可能性があるかもしれない、これはある意味では、より精巧な形での自律的・合理的な判断をゆがめる手法なのかもしれないと思いました。山本先生がこういった言葉で紹介されておりましたけれども、「媒介される消費者」の問題と。特に、脆弱な状況に追い込んだところであるものを売りつけるというような、プラットフォーム上のインターフェースでは分からない、オンラインの中上では分からない、こういった操作の問題が第2番目のレベルの問いになると思いました。

最後のレベルは、これは消費者委員会、消費者行政のところとも関わってきますけれども、どちらかというと競争法との関係かと思います。オンラインプラットフォーマー、それがデジタル市場に対する支配力を強めていくことで、いろいろな問題が出てくる。使えば使うほど、企業側も、商品を出すほうも、それを利用する消費者も、ますます利便性が増して、そこにロックインされるという問題があることを確認させていただきました。

これは個人的に何かおかしいなと思っていたのですけれども、プラットフォーマーというのは、例えば証券取引所のような、ある場所を提供して売りと買いを仲介する役割なのかと思うのですけれども、不思議なのは、取引所は決して売り買いには参加しません。ところが、オンラインプラットフォーマーは、仲介するだけでなく、売り買いにも参加してくる。その際、様々な商品の流れが全て分かっているわけですから、売れ筋商品を、例えば「何とかベーシック」とかといってより安い値段で委託生産させて、オンライン上で売るということまでやってしまう。こういうことができること自体、競争法上の問題になると思いました。

情報銀行のお話もいただきまして、正にこの市場に対する支配力をどうやって壊していくのかというところの動きとして、新たな動きについてもお話をいただきました。

我々もどういう方向で今後議論を進めていったら良いのかがまだはっきりしていませんけれども、少なくとも具体的な問いの3つのところですね。インターフェースのところの情報提供の問題と、2番目の特にターゲティング広告の問題、それから、競争法上のところの問題を整理しながら考えていかなければいけないと感じました。

現在、日本においては、オンラインプラットフォーマーやプロファイリングを直接規制する法律はまだございませんけれども、消費者委員会としては、本日お伺いいたしました様々な法制度的なアプローチ、海外での法整備状況、非常に具体的な分かりやすい事例をいただきましたけれども、そういったものを踏まえまして、特に消費者の自律的・合理的な判断という視点から、引き続きこのテーマを検討していきたいと思っております。

本日は、山本先生、生貝先生におかれましては、お忙しいところを審議に御協力いただき、また、貴重な最新の情報を御提供いただきまして、ありがとうございました。心より御礼を申し上げます。

それでは、どうぞ御退席ください。

(慶應義塾大学法科大学院山本教授、東洋大学経済学部生貝准教授退室)

≪3.「産業構造審議会商務流通情報分科会割賦販売小委員会中間整理についての意見」について≫

○高委員長 次の議題は「産業構造審議会商務流通情報分科会割賦販売小委員会中間整理についての意見」に関してでございます。

本件については、本年6月の第299回委員会において、同中間整理についてヒアリングを行い、それを踏まえて委員の間でも議論をいたしました。それらの結果を踏まえ、経済産業省において、今後、中間整理を踏まえて割賦販売法制の在り方について議論を深めていくに当たって踏まえてもらいたい観点を提示すべく、当委員会の意見として取りまとめたく思います。

お手元に、資料として「産業構造審議会商務流通情報分科会割賦販売小委員会中間整理についての意見(案)」を配付しておりますので、意見案につきまして、まず、事務局から説明をお願いいたします。

○消費者委員会事務局担当者 では、資料2に基づきまして、意見案の御説明をさせていただきます。

頭書きのところの第1段落、第2段落につきましては、今、委員長より御指摘があった経緯を記載してございます。

3段落目でございますが、経済産業省においては、今後、本中間整理を踏まえて割賦販売法制の在り方について議論を深めていくに当たり、本意見の趣旨も踏まえて検討されたいということを求める内容としております。

その下の記以降が具体的な内容になっておりまして、1.から3ページの6.までございます。このうち1.から3.までが、いわゆる支払可能見込額調査に代わる技術・データを活用した与信審査関係になっておりまして、4.以降がその他の内容となっております。

1ページの1.から順番に御説明させていただきます。まず、1.で「支払可能見込額調査に代わる技術・データを活用した与信審査、及び、指定信用情報機関の信用情報の使用義務に関する考え方について」が中間整理で示されておりましたので、この点についてのものになっております。

第1段落からですが、多重債務者の発生を未然に防止するという現行の支払可能見込額調査義務の趣旨・機能を踏まえれば、本中間整理で検討の対象とされている技術・データを活用した与信審査について、現行の支払可能見込額調査と同程度以上の多重債務防止機能が担保される必要がある。その際、事業者ごとに、与信審査方法や審査の基礎となる情報に差異が生じることになったとしても、上記の担保がなされるようにすることが重要であるということを指摘しております。

その上で、次の段落で「この点」ということで、本中間整理では、性能規定の考え方に基づき、事業者に求められる取組や行政等の第三者による事前チェック及び事後チェックなどの必要性が指摘されています。今後、事業者に求める取組の内容、事前・事後のチェックの主体・対象・基準等の具体的な内容の検討を進める上では、技術・データを活用した与信審査の基礎となる情報の質及び量並びに与信審査方法の精度を十分に確保するために、いかなる方策が効果的か慎重に検討すべきであるとしています。

次に「また」でございますが、技術・データを活用した与信審査について、指定信用情報機関の信用情報を使用する義務を課さないとした場合に、個々の事業者が把握する情報のみで、利用者の支払い可能な能力を判断するために必要かつ十分な情報の質及び量を確保することができるかについて慎重に検討すべきであるということを指摘しております。

「そして」以下で、これらの検討に際しては、技術・データを活用した与信審査の精度を検証しながら、支払可能見込額調査義務及び指定信用情報機関の信用情報の使用義務について段階的に緩和を検討する方法なども併せて検討すべきであるとしています。

「加えて」ということで、利用者に対する技術・データを活用した与信審査に使用される情報の範囲・内容や審査等に関する情報提供などの利用者の予測可能性等を考慮した方策も検討すべきであるということを加えております。

2.が、今度は「少額・低リスクのサービスにおける指定信用情報機関への信用情報の登録義務に関する考え方について」です。

第1段落で、少額サービスであっても累積により債務額が利用者にとって多大となるリスクがあるという前提を指摘しておりまして、「また」ということで、少額サービスは若年者にとっても利用しやすいものであると考えられることから、若年者保護の観点が一層重要になるということを指摘しております。

次の段落で、これらの観点も踏まえ、低リスクといえるのはどのような場合かについて慎重に検討すべきであるとしています。

次の「また」の段落で、技術・データを活用した与信審査について指定信用情報機関の信用情報を使用せずとも与信可能とすることを前提にして、少額・低リスクのサービスで指定信用情報機関への信用情報の登録義務を課さないこととした場合に、業界全体の水準として現行制度と同程度以上に多重債務防止が担保できるかについて慎重に検討すべきであるとしています。

3.が、今までの1.2.に共通するものでございまして「指定信用情報機関の運用・システムの在り方の検証・改善について」でございます。支払可能見込額調査に代わる技術・データを活用した与信審査や指定信用情報機関の信用情報の使用義務、登録義務について検討を進めるに当たっては、政策課題を指定信用情報機関の運用・システムの在り方を見直すことで対処することが可能かについても並行して検討すべきであると指摘しています。

4.で、ここからはまた別の観点になっておりまして、まず「新成年への対応について」でございます。本中間整理でも、事業者による自主的な取組を紹介した上で「こうした取組を参考とし、今般の見直しに対するセーフティーネットとしての観点も踏まえつつ、新成年への対応を更に充実していくことが必要である」とされています。

引き続き、新成年に対する健全な与信を確保するため、事業者の自主的取組を推進するための検討を進められたいということを指摘しております。

3ページの5.が、もう少し広い視野で捉えたものでして「技術・データの活用に伴って生じる新たな課題」ということで、本日、先ほどまでの御議論にもつながるところでございます。AI等の技術・データの活用については、消費者に多大な利便をもたらす可能性がある反面、プライバシーの問題や不当な差別につながるおそれがあるという問題等の課題も有していると考えられることから、そのような新たな技術の特性を踏まえた消費者保護に係る取組が欠かせないことにも留意されたいということを指摘しております。

6.が、最後に「多面的な議論の必要性」ということで、本件については、様々な分野に関わる課題を有すると考えられることから、検討に当たっては、より幅広い主体等に参画を求めつつ、多面的に議論を進めることが望ましいと指摘しております。

説明は以上になります。

○高委員長 ありがとうございました。

ただいま、事務局から意見案について説明をいただきました。御発言がございましたら、どうぞ御自由に発言してください。

どうぞ、池本委員長代理。

○池本委員長代理 3番と5番に関連して意見を申し上げたいと思います。記述されている中身に正に賛同するところなのですが、特に3番の指定信用情報機関の運用やシステムの在り方については、割賦販売小委員会での議事録の中でも、事業者の中で現在の制度はなかなか使い勝手がよろしくないと。例えば夜に使えないとか、審査の結論が遅いというような運用改善を求めるような意見もありました。そして、そういう問題の見直しがきちんと早く進めば、フィンテック事業者がこの分野に参入するについて、信用情報機関を使用しなくて良いようにしてくれということではなくて、逆にこの信用情報機関の情報があればより精度の高い審査ができるはずですから、その意味でこの3番の議論は、特にこの委員会でのヒアリングの後の委員間打合せの中でも出てきたところだったと思いますので、この観点は是非経済産業省の側での審議でも活用していただきたいと思うところです。

5番のところは、正に先ほどのヒアリングの中でも出てきた論点ですが、現在の指定信用情報機関の信用情報は、個人が開示請求をして間違いがないかどうかをチェックできる。間違っていれば情報を出した事業者に訂正申し立てを申し立てることができる仕組みですが、AI、ビッグデータを使った場合には、アルゴリズムの細かいところは出せないといって全部含めて開示ができないとなると、現行法制度との矛盾を来してくることになると思います。だとすると、AI、ビッグデータの活用による与信審査という選択肢を認めるとすれば、この個人が生活する上で与信が拒否された場合に、基礎情報に間違いないかどうかをチェックできるかどうか。もちろん割賦販売法そのものに細かい規定があるわけではないですが、システムとしてこれを認めていくとなれば、この情報開示のところもしっかりと議論しておく必要があるのかなと思いますので、その意味でも、この指摘は大変大事な指摘かと思います。

以上です。

○高委員長 ありがとうございました。

他、ございますでしょうか。

増田委員、どうぞ。

○増田委員 今回は中間整理について今後検討してくださいという、留意していただきたいという内容なのですけれども、これを提案したということについては、その理由をしっかりと考えていただきたいのです。例えばこの1番のところにおいては、事前チェック・事後チェックなどが提案されて、そういうことが補完的にされるのであればということだと思うのですが、それが具体的にきちんと機能しなければ意味がないことですので、私としては限りなく反対の意見になっているので、今後注視していきたいと思うのですけれども、あくまでも中間整理に対して検討してくださいということであって、目的を実効性を高めるものとしていただきたいと思っています。

○高委員長 ありがとうございます。

他、ございますでしょうか。よろしいでしょうか。

○池本委員長代理 1点だけ、今後議決するに当たって、私の立場ですが、割賦販売小委員会の委員でもある立場です。向こうでの議論の状況の紹介も含めて、今回の意見に向けた議論にはずっと参加してきたわけですが、最終的にどういう意見を取りまとめるかという結論の議決そのものは、向こうでの委員の立場ということもあるので、私は議決自体は一旦辞退して、他の皆さんで賛否を決していただくのが適切かと考えるのですが、いかがでしょうか。

○高委員長 ありがとうございます。

ただいま、池本委員長代理から議決辞退の申出がありましたけれども、皆さん、いかがでしょうか。

それでは、池本委員長代理には、一旦ここで退席をいただきます。

(池本委員長代理退室)

○高委員長 いろいろ御発言をいただきましたが、この意見案については、皆さん、御了承いただいたということでよろしいでしょうか。ありがとうございました。

それでは、この意見案を経済産業大臣宛てに発出したいと思います。

池本委員長代理に着席をお願いしてください。

(池本委員長代理入室)


≪4.閉会≫

○高委員長 本日の議題は以上になります。

最後に、事務局より今後の予定について説明をお願いいたします。

○金子参事官 次回の本会議でございますけれども、8月15日、木曜日、14時からを予定しております。詳細につきましては、委員会ホームページを御参照いただければと思います。

また、この後、委員間打合せを行いますので、委員の皆様におかれましては、委員室にお集まりいただければと思います。

以上です。

○高委員長 それでは、本日の本会議はこれにて閉会とさせていただきます。ありがとうございました。

(以上)