第4回 消費者法制度のパラダイムシフトに関する専門調査会 議事録

日時

2024年3月8日(金)10:00~12:26

場所

消費者委員会会議室・テレビ会議

出席者

(委員)
【会議室】
沖野座長、大屋委員、加毛委員、河島委員、小塚委員、二之宮委員
【テレビ会議】
山本(隆)座長代理、石井委員、野村委員、室岡委員
(オブザーバー)
【テレビ会議】
鹿野委員長、山本(龍)委員
(参考人)
【会議室】
髙秀成 大阪大学大学院法学研究科准教授
(消費者庁)
【会議室】
黒木消費者法制総括官、古川消費者制度課長、原田消費者制度課企画官、消費者制度課担当者
(事務局)
小林事務局長、友行参事官

議事次第

  1. 開会
  2. 議事
    ①有識者ヒアリング (髙秀成 大阪大学大学院法学研究科准教授)
    ②石井委員プレゼンテーション
  3. 閉会

配布資料 (資料は全てPDF形式となります。)

《1.開会》

○友行参事官 それでは、定刻になりましたので、消費者委員会第4回「消費者法制度のパラダイムシフトに関する専門調査会」を開催いたします。

本日は、沖野座長、大屋委員、加毛委員、河島委員、小塚委員、二之宮委員には会議室で御参加いただいております。また、山本座長代理、石井委員、野村委員、室岡委員はテレビ会議システムにて御出席いただいております。

なお、消費者委員会からオブザーバーとして、鹿野委員長、山本龍彦委員がテレビ会議システムにて御出席いただいております。

また、本日は、大阪大学大学院法学研究科准教授の髙秀成様に御発表をお願いしております。髙准教授は会議室にて御出席いただいております。

配付資料は議事次第に記載のとおりでございます。

一般傍聴者にはオンラインにて傍聴いただき、報道関係者のみ会議室で傍聴いただいております。議事録については、後日公開いたします。

それでは、ここからは沖野座長に議事進行をよろしくお願いいたします。


《2.①有識者ヒアリング(髙秀成 大阪大学大学院法学研究科准教授)》

○沖野座長 ありがとうございました。

本日は悪天候の中にもかかわらず、お時間を割いてお集まりくださいまして、ありがとうございます。とりわけ髙先生には本当に有り難く思っております。

それでは、本日の議事に入らせていただきます。

一つ目の議題が「有識者ヒアリング」でございます。前半の検討テーマには「金銭の支払いに限られない消費者取引の拡大への対応の在り方」があり、そこでは消費者が時間、情報、関心・アテンションを提供するということを捉えた検討が必要になります。また、それに限らず、デジタル化による影響の分析との関係でも、消費者の情報・データの扱われ方について検討することの重要性につき、これまでの議論の中で御指摘いただいているところです。

本日は、髙秀成大阪大学大学院法学研究科准教授にお越しいただきまして、「個人データ取引の規律を基礎づけるいくつかの視点について」というテーマで、15分から20分程度御報告をいただきまして、その後意見交換をさせていただきたいと思います。

それでは、髙先生、よろしくお願いいたします。

○髙准教授 よろしくお願いします。

御報告の前に、説明として前半部分の前置きが非常に長くなっておりまして、前半の前置きはあまり本委員会の御関心に触れる内容ではないと思いますので、早口で駆け足で報告させていただきます。

御紹介にあずかりました、大阪大学准教授の髙秀成でございます。

今回お声がけいただいたのは、昨年10月の私法学会シンポジウムでの報告「データ取引をめぐる諸規律と帰属保護の現在地」を機縁としたものと理解しております。

同シンポジウムでの報告は、様々な事情から非パーソナルデータに限定した内容を取り扱うことになりました。しかし、データ取引と消費者を考える上で、パーソナルデータを取り上げないわけにはいきません。また、パーソナルデータと非パーソナルデータを一緒くたにして議論することは、パーソナルデータを提供するものに必要な利益保護の観点を捨象してしまうため、適切ではないと考えております。

そのような次第で、そうなると、私法学会報告に関連する研究をこの場でそのままお話しするわけにもいかず、非常に困った状況に陥ってしまったというのが正直なところでございます。

そこで、今回は、冒頭で私法学会報告で申し上げた私自身の非パーソナルデータの法的取扱いに関する考え方を一瞥した上で、それと続ける形で、パーソナルデータの提供を伴う取引を検討する上での基礎的な視点に関し、現時点での私の考えをごく簡単に申し上げたいと思います。

では、スライドをお願いいたします。

既に至るところで指摘されているところではありますが、データは21世紀の石油とも呼ばれ、デジタル時代の競争力の源泉であり、その利活用が期待されております。不正競争防止法上の限定提供データ保護制度や経産省によるガイドライン、日銀の報告書の公表にもこのような背景があります。データが有効利用され、取引が活発化される。このような状況と同期し、事業者による消費者の個人データを収集し、活用し、収益を上げるビジネスモデルがなお一層進展することになります。

このような事業者相互間のデータ取引と事業者消費者間の個人データの収集活動は、視点を分けて検討する必要があると思います。

前半はひとまず個人データないしパーソナルデータという視点を捨象して、抽象的にデータないし情報という無体財について、民法上どのような取扱いがなされるのかという話が中心になされます。

スライドをお願いいたします。

本題に入る前に、まずデータの定義がそもそも非常に困難であるということについて少し言及いたします。ボーグマンによる近年の研究データに関する浩瀚な書籍によれば、データはあくまで観念に過ぎず、それ自体に何か本質があるわけではなく、その定義は困難で、まだ合意にほど遠いということであります。

次のスライドをお願いいたします。

データという語はラテン語の「与える」という意味でのdare、その変化系のdatumに語源を有することから分かるように、最も広い意味で、データは何らかの判断の基礎となるあらゆるものを指します。

結局のところ、データは捉えどころのない概念であり、その関心に応じて例示や観測可能なものに置き換えたり、グループ化し、カテゴライズするなどして用いられています。実際に日本法でも、データや情報それ自体が定義されることはなく、個人情報や限定提供データなど修飾語を伴って限定された形で用いられています。

では、次のスライドをお願いいたします。

データと情報について、その区分けや定義は均一するところではありません。ひとまずの区分けとしてビット列やバイト列などの符号で表記した符号的表現としての統合論レベルでの情報を「データ」と呼び、意味論レベルでの情報をそのまま「情報」と呼称することが考えられますが、本報告は一般に通有している訳語との関係もあり、厳密に区分することはいたしません。

では、6枚目のスライドをお願いいたします。

そのなかで、個人データないしパーソナルデータについて言えば、その外縁は捉え難いものとなっております。

個人情報保護法2条1項では個人情報が定義されているほか、同条2項以下、個人識別符号、要配慮個人情報では様々な類型が設けられています。

GDPR上の個人データは識別された自然人、または識別され得る自然人に関する情報とされておりますところ、広義のパーソナルデータは特定の個人を識別できないように加工された人流情報、商品情報などを含むともされています。

では、次のスライドをお願いいたします。

昨年公表いたしました私法学会の報告資料であるNBL掲載の「データ取引をめぐる諸規律と帰属保護の現在地」の問題関心は、知的財産法の保護から外れるデータは民法上どのような取扱いを受けるのかということにありました。ただし、パーソナルデータは財産的保護だけではなく、人格的価値が問題になり得るため、一緒くたに扱うわけにもいかず、また、データの財産性ないし帰属を認めるという一般論は、パーソナルデータもまた、あたかも自由に処分でき、他人の支配に服するような誤解を招きかねないので、ここでは検討対象から厳密に排除しておりました。

そのことに留意していただいた上で、まずは非パーソナルデータの民法上の取扱いについて、ごく簡単に一瞥することにしたいと思います。

しばしば民法85条の「物」とは有体物を指し、データなどの無体物は所有権の対象にならないと言われ、また、これが民法上の通説とされるわけです。これは民法体系と条文根拠といった形式論だけでなく、実質論からも正当化されています。

まず、有体物は外界の物理的な境界を通じて、どこからが侵害になり、自由が制限されるかを明確に事前告知することができます。これに対し、データや情報、知識などの無体物には非競合性と非排他性があり、もし、その対象について所有権を認め、さらに物権的妨害排除請求権などの排他権を認めると、他人の自由制約のインパクトが非常に大きいものになります。

データ所有権に対する慎重論は日本のローカルな傾向ではなく、EUデータ法に至る議論の中でデータに排他権を認めるべきとの主張に対して、マックス・プランク研究所が非常に強い反対声明を出していた点も重要です。

パーソナルデータと共通する点に関して興味深い点として、以下の批判を一つだけ御紹介いたします。それは、データ所有権などを認めると、データ保有者の保護になるどころか、強い市場のアクターが所有権を集積して新たな市場支配力を形成して、反競争的な障害をもたらすという指摘であります。

では、次のスライドに移ってください。

以上述べたとおり、データには所有権は一般に承認されておりません。ただし、ある情報やデータが営業秘密や限定提供データに該当することが理由になって、結果として保護を受けるということが不正競争防止法において認められています。しかし、これは著作権法や特許法などとは違い、営業秘密に権利性を認めたものではないというのが立案担当者をはじめ有力な見解のようです。

また、不正競争防止法やその他の知的財産法上の保護を受けないとしても、民法上の一般不法行為法の保護が考え得るわけですが、この点については重要な判例があります。平成23年12月8日最高裁判決、いわゆる北朝鮮映画『司令部を遠く離れて』放映事件でございます。同判決は、ヴェルヌ条約から外れる結果、著作権法6条で保護されない北朝鮮の映画『司令部から遠く離れて』の一部をニュースで放送したということにまつわる事件であります。

同判決は、著作権法は国民の文化的生活の自由と調和を図る趣旨で、著作物の利用について独占的な権利を及ぼす範囲や限界を定めていることからすると、ある著作物が著作権法6条に該当しない場合、その著作物の独占的利用権は法的保護の対象にならないといいます。そこから、同法6条の著作物に該当しない利用行為は、著作権法が規律の対象とする著作物の利用とは異なる法的に保護された利益を侵害するなどの特段の事情がない限り、不法行為を構成しないと判示しました。

では、10枚目のスライドをお願いいたします。

この判決の理解として、著作権法など各種知的財産法はどこまでを保護するかと同時に、そこから外れるものは保護しないという積極的な政策決定を行っているものだから、例えば著作権法が対象とする利益と異なる利益が侵害された場合でない限り、もはや不法行為は成立しないと強く読み込むものがあります。

これに対し、判決という異なる法的に保護された利益を侵害した場合は、「など」という副助詞をつけられているとおり、あくまで特段の事情の例示にすぎないと見るものがあります。この見方によれば、侵害行為の行為対応の違法性を相関的に見つつ、無体物の利益それ自体を不法行為法で保護したとしても、知的財産法の趣旨を潜脱することにはならないということになります。

私自身もこの考え方に与するものです。知的財産法の差止請求や損害賠償請求などは、要件、効果、期間などの面でかなり不法行為法とは異なりますし、あたかも罪刑法定主義のように、不法行為の成立余地を排除してまで対象から外れるデータや情報などあらゆる無体物の利用について積極的に自由を確保するという強い政策的決定まで知的財産法の中に読み込むべきかというと、そこまでの必要性はないかと考えております。また、不法行為の社会変化に応じた権利生成機能も封殺するほどの決定がそこにあるのかということについては疑問を持っております。

では、11枚目のスライドをお願いいたします。

ただし、このような考え方に立っても、例えば不正競争防止法を超えてデータ保護が際限なく広がることを認めるわけではありません。不法行為法で保護されるようなデータの類は、その多くが既に不正競争防止法で保護対象になっておりますところ、ごく例外的に営業秘密性を欠くデータや限定提供性・相当蓄積性を欠くため限定提供データとならないデータについても、不法行為成立の余地を残しておく程度のものと考えております。

では、12枚目のスライドをお願いいたします。

以上のように考えましたところで、不正競争防止法の対象とならないデータの保護は非常に脆弱で曖昧なものであることにほかなりません。したがって、当事者間で契約内容を詰めることを通じて、権利関係を明確にして、ルール形成し、紛争予防し、取引コストを低減する要請が高くなります。

まさにこのような観点から、経産省のガイドラインが策定されております。経産省のガイドラインは、まずデータ提供型契約、その中で譲渡型と共同利用型、次にデータ創出型契約、最後にデータ共用型契約の類型を設けて、それぞれについて契約条項例と考慮すべき要素を提示しています。

では、13枚目のスライドをお願いいたします。

データ取引について契約実務が先行し精緻化することと比例して、民法規定、とりわけ典型契約や任意規定の役割は弱くなってきています。それでもなお、各種類型のデータ取引における主たる給付は何か。当事者の利益が対立構造になるのか、共同利益を追求することになるのか、異なる利益を多数人が組織的に追求するのか、それをどのように契約目的に反映するのかを分析する意味はあるように考えております。

検討対象が拡散すると収拾がつかなくなるので、ひとまず最もシンプルなデータ提供型契約のうち、譲渡型を手がかりに考えてみたいと思います。もし特許法や著作権法上の保護を受けないデータには権利性を認めない、あるいは不法行為によってすら保護されないとした場合どうなるのか。例えばデータ譲渡は単なる作為と不作為をめぐる役務に還元されてしまうのか、あるいはデータの情報は単なるメタファーにとどまらず、財産権移転型契約に位置づけられるのか。データ譲渡に対価が発生するとするならば、それは役務に対してなのか、財産権移転に対してなのか。

例えば売買の法的性質決定は、「財産権」の移転に対して金銭を支払うことを約するという要素に係らしめられています。ここで「財産権」とは何を指すのでしょうか。ちなみに贈与は「財産」が対象であり、議論もありますが、情報も対象になると言われていることがあります。

この点について、様々な議論はございますが、以上を踏まえて総括だけをお示しいたしますと、法律上「権利」として確立している必要はないものの、最低限、移転、すなわち主体間の帰属移転が前提となるので、「帰属」を観念できる財産であるかどうかが問題になると思います。

では、14枚目のスライドをお願いいたします。

また、データに帰属を観念できるかどうかがより鮮明に表れるテーマが信託であります。現行信託法2条は、信託財産の対象たり得るものを「財産権」だけではなく「財産」にまで広げています。ここで信託財産の対象たり得る財産について、信託の構造から考えますと、ある財産が法人格のレベルで受託者に帰属しつつ、かつ責任財産というレベルで信託財産に帰属することになります。そうすると、ある財産は帰属が観念できることが前提になります。そして、どのような場合にデータに帰属というものが観念できるか。これは論者によってかなり意見が分かれているところであります。

では、次のスライドをお願いいたします。

ここまで、データに帰属を認めることができるかについての幾つかの問題考察の要となることを不十分ながらお示しいたしました。民法上、公共財からの利益享受と区別するために、帰属とは一般にある客体から排他的利益享受が可能であること、つまり、排他的帰属関係があることが前提になっております。ここで注意すべき点は、「排他的帰属」とは、債権にも「排他的帰属」が認められておりますことからも分かるように、所有権などの物権に認められる物権的請求権などをもってする「排他権の承認」とは別のレベルの話です。

それでは、データに「排他的帰属」を語ることができるのでしょうか。データには、先ほど申しましたとおり、消費の非競合性と非排他性が認められます。必ずしも経済学の用語法と完全一致するわけではないですが、これらの特徴は多数人が制約なくアクセスできる「公共財」としての特徴を示していると言われることがあります。これは純粋公共財の特徴と一致すると指摘されることもあります。そして、データには非競合性があるので、データがアクセスできるものが複数いる場合に帰属を観念できるのか、という問題が生じます。

では、16枚目のスライドをお願いいたします。

さきほどにも言及しましたが、データに帰属を認めることができるかどうか、まず不正競争防止法は権利付与法ではなく行為規制法だから、ある法主体にデータの帰属を認めるものではない、不正競争防止法は、データの占有という事実状態を保護しているにすぎない、などと言われます。しかし、不正競争防止法が一定の主体に損害賠償請求権や差止請求権を付与していることからすると、体系的に請求権者に一定の利益の帰属を認めていると見る余地があると考えております。

では、17枚目のスライドをお願いいたします。

次に、不正競争防止法の保護から外れる情報やデータはどのように考えるべきでしょうか。確かに多数人が制約なくアクセスできる情報などの公共財を対象とした活動が不法行為によって保護される場合があるとしても、それは法主体の人格と不可分な一般的自由にとどまり、何か財から排他的に利益を得ているわけではありません。

他方で、情報が囲い込まれることで希少性と価値を発揮することがあり得、この場合、特定の情報との一定の関わり合いそのものが事実状態として保護されるに至ります。不正競争防止法や不法行為法による保護がそれであります。

このような保護と不保護の在り方の両端を仮定いたしますと、その間には切れ目のない濃淡ないし分布が広がっていると言えます。そのため、ある希少性のあるデータないし情報が特定の法主体Aと同時に別の法主体Bに保有されている場合があったとしても、必ずしもAのデータに対する利益の保護があらゆる行為態様との関係で否定されるわけではないように思います。

Aの情報がBによって保有されるに至った原因は、契約なり、「窃視」によるものであったり、様々であり得ます。ただし、データや情報は複数の人に伝播し保有されるにつれ、希少性と財産的価値が摩耗し、公共性を帯びていき、ある段階でデータの要保護性が完全に消失するに至ります。そのため、データの排他的帰属は、必ずしもあるデータや情報が単独法主体にだけ囲い込まれている状態だけに限られるわけではなく、たとえデータに管理可能性が残されている限り、個別の法主体ごとにデータの関わり合いごとに利益と帰属を観念することが可能であると考えております。

では、18枚目のスライドをお願いいたします。

以上、データの民法上の取扱いについて帰属という視点から包括的に取り上げましたが、一口にデータの「財産」性ないし帰属と言っても、実際のところ、取り上げられる問題群に応じて論者のトーンは様々であります。帰属という中間項ないし概念を設けて幾つかの問題を統一して説明することには強い異論もあり得まして、この点についてはなお検討を要するということを付言しておきたいと思います。

では、19枚目のスライドをお願いいたします。

前半の内容がやや長くなってしまいましたが、これより個人データについての現時点での私自身の考え方を今から簡単に申し上げていきたいと思います。

まず、しばしば見かける臓器売買とのアナロジーから、個人データ取引が認められるか、認められないかといった議論の立て方については、やや注意を要すると考えております。といいますのも、これはあくまでメタファーによるレトリックにすぎず、そのレトリックが奏功しなかった場合、臓器売買の比喩で表現しようとした問題の本質も含めて否定されてしまう危険性があるからであります。

では、20枚目のスライドをお願いいたします。

次に、近年では、個人データの提供と引き換えになされるサービスは必ずしも事業者による無償のサービスではなく、反対給付ないし「対価」としての個人データを提供していることを踏まえて、利益の分配の適正化を含めて個人データ取引を規律すべきという議論が注目されます。この発想は、必ずしも個人データ取引が売買であるとか役務提供型契約であるかなどの議論について直接の示唆を含意するものではありません。

ただし、ここでも反対給付ないし対価としての個人データの提供取引において何が給付対象とされているのかを問題にする余地はあるように思います。先ほどの議論に引きつけて申し上げますと、私自身は、個人データを一つの財産権として帰属を認めて、それが相手方に移転するという思考様式に対しては、そこに付帯する人格的価値を捨象してしまうことから、適切ではないと考えております。

先ほどの議論でも申しましたとおり、データの帰属にはグラデーションがあるとしても、個人データそのものは、ほぼ帰属という観念を入れる余地はないと考えております。個別の個人情報それ自体が主体による任意の情報流通やコミュニケーションの対象にもなり得ますし、そこに帰属や他者への支配などを観念いたしますと、場合によっては憲法21条の表現の自由とも深刻な緊張関係をもたらすと考えております。

個人データの提供によって何かしらの財産権であったり、客体ないし対象が移転するわけではないと考えた場合、個人データの提供という取引における給付の中身をどのように捉えるべきでしょうか。単なる不作為によって事実上、事業者に利益をもたらすものであるのか、個人データの提供は、表現形式としては「同意」という形でなされることが多く、これは医療行為などにおける「患者の同意」とも幾分似ている側面があります。

すなわち、将来あり得る客観的に違法行為と評価されかねない行為に対して、あらかじめ、「同意」という形で、自己決定をもって違法性阻却事由を構成するわけです。同意がない場合、個人データの利用は、そのデータの内容によっては、人格権などの権利利益の侵害ともなり得ますが、同意によってそれを回避するわけです。いわば、個人データの提供とは、他者による自らの個人データの利用の違法性を阻却する同意により、個人データにまつわる人格的価値を他者に対して部分的に開放する側面があるわけです。

しかも、個人データ提供は売買などの財産権移転型契約などとは違い、一回的、終局的な取引ではなく、むしろその後の事業者のデータの管理・利用の在り方に人格的価値に対するリスクの有無が大きく依存し続ける、継続的なものです。そうすると、単に提供して終わりというものではなく、本来的にはデータ被提供者ないし事業者への信頼が基礎となるべき性質のものです。

このような個人データ取引に対する視点を消費者取引にどのように反映させていくか。この観点について非常に大きな示唆を提供してくれるものが、つい最近公表されました吉田克己先生の論文「デジタルプラットフォーム事業者と消費者―個人情報・ビッグデータの法構造の分析を通した考察―」であります。吉田先生は公正取引委員会、デジタルプラットフォーム事業者と個人情報等を提供する消費者との取引における優越的地位に関する独占禁止法の考え方と、それに対する越智教授の批判から問題の対立軸を抽出いたします。

公取の考え方は、個人情報提供を一つの取引と見た上で、プラットフォーム事業者は消費者に対し優越的地位に立つものであり、そこでもたらされた取引の不均衡や消費者の不利益を問題視するわけです。この考えは、もしかすると反対給付としての個人データという発想と親和性を有するのかもしれません。

これに対し、越智説は濫用行為と給付の不均衡とは視点が異なるものを混同している、個々の個人データ単体には価値がなく、対価性を見いだすことはできないなどと批判します。なかでも、公取の考え方の根底には個人の尊厳などの価値の保護があるのかもしれないが、それは独占禁止法で保護される法的利益と混同されるべきでない、と指摘している点が興味深い点です。

以上の対立点から抽出される視点は、一つに、個人データの財産的価値をどのように評価し、それをどのような形で対価に反映させ得るかという視点であります。もう一つは、人格的価値を、消費者取引をはじめとした取引法的規律にそもそも反映させることができるか、それができるとすればどのような形においてであるか、という視点であります。

これについて、吉田先生は、個人データには財産的価値も人格的価値もともに認め得るものであり、人格的価値は提供者に依然として残るという考えから立論いたします。

本来であれば、吉田先生の理論体系も踏まえた上でその考えをつぶさに御紹介すべきところでありますが、時間の制約もございますので、現時点での私見を簡単に確認しておきます。

私自身は、個人データ提供は同意に伴う人格的価値の部分的開放と考えており、人格的価値が事業者に移転しないという点では吉田先生と同意見であります。他方で、個人から直接、提供される個人データそのものには帰属や「財産」性を認めるわけにはいかず、やはり個人データ提供を通じて、何かしらの財産権移転が生じるとは考えておりません。

とはいえ、財産権移転がないからといって、個人データ提供が何かしらのサービスに対する「対価」を決して構成することはない、とは言いません。また、個人が提供するそれぞれの個人データ単体を必ずしも、それ単体の客観的な市場価値で評価すべきとも考えておりません。事業者にとって集積された結果についての効用から、対価としての価値を評価し、給付の均衡を考えるという発想は十分にあり得ると考えております。そういたしますと、個人データ取引については、対価性の観点からの取引法的規律と、人格的価値の考慮の両方を問題にし得ると思っております。ただ、人格的価値の考慮については、いわば憲法上の権利を、事業者と消費者法の間の取引的規律にどのように反映していくのかという理路が問題となり得ましょう。

31枚目のスライドをお願いいたします。

まず、人格権を前憲法的な権利と考えるか、憲法上の権利と考えるかについても争いはあります。また、近時はプライバシー権については古典的な「放っておいてもらう権利」という像から大きな進展が見られます。私自身は、個人データ利用に関する環境の変化やそれによって生じ得る個人の尊厳に対する深刻な危険に鑑みますと、積極的な自己情報コントロール権をより深めていく最近の研究を支持したいと考えております。

33枚目のスライドをお願いいたします。

そして、近年の研究になぞらえて申しますと、プライバシーの危殆化、すなわちプライバシーを危険にさらすという人格権侵害の懸念に対する手当ての必要性が、確かに生じており、プライバシー権にはその払拭を要求する客観法的側面、予防的側面を見いだし得るのではないかと考えております。

34枚目のスライドをお願いいたします。

そして、消費者・事業者間の個人データ取引においても近年のプライバシー権の議論が当てはまる側面があり、そこでの人格的価値の侵害のリスクは事業者によるデータの利用・管理の在り方に大いに依存することになります。しかも、消費者は潜在的なリスクを継続的に負い続けることになります。

35枚目のスライドをお願いいたします。

以上をまとめますと、個人データ取引で問題になり得る人格的価値は、近年のプライバシー権の進展を踏まえて、その中身を充実させていく必要があります。そして、そのような人格的価値にまつわるリスクを取引によって事業者に委ねるという側面に、事業者と消費者との間の信認関係を見いだす契機があります。この限りにおいて、近年、斉藤邦史先生などが提唱する信認義務としてのプライバシー保護義務の議論についても支持できるところがあります。これは、広い意味で民法が従来、委託信認関係に緊密な義務を認めてきたことからも外れるところはないと思います。

36枚目のスライドをお願いいたします。

最後に、繰り返し述べてきたところではありますが、まとめに代えて、改めて現時点での私の考え方を申し述べさせていただきます。

まず、個人データ提供において、個人データを反対給付ないし対価と捉えるとしても、財産権移転モデルで捉えるべきではありません。その本質は、同意による違法性阻却からもたらされる人格的価値の一部開放であり、そこにはプライバシーの危殆化リスクが潜在し、そのリスクの発現は相手方、つまり事業者の利用・管理の態様いかんに委ねられる側面があります。

このように考えますと、事業者・消費者間の個人データ取引は、対価性の評価に根差した規律と、人格的価値に根差した規律による重層的規律に服すると考える余地があると言えましょう。

人格的価値に根差した取引的規律については、近年のプライバシー権をめぐる議論を参照した基礎づけとともに、信認関係ないし委託信認関係を背景としたより緊密な権利義務を認めることは現行法においても可能であると考えております。

では、最後のスライドをお願いいたします。

今回、少し迂遠ではありましたが、非パーソナルデータの帰属一般の問題から説き起こして、パーソナルデータないし個人データの規律を基礎づけるに当たってあり得る視点についてお話しさせていただきました。その結果、非常に抽象的な問題の検討にとどまり、対象となるべきパーソナルデータの枠づけや具体的な規律内容、GDPRなどを参照しつつ提唱されている個別の規律との関係性については言及ができませんでした。この点については、私自身も、まだ十分に検討を及ぼすことができていません。今回のお話が皆様の御関心に果たして触れることがあるのか、非常に心許ないところではありますが、これで報告を終えさせていただきます。

御清聴ありがとうございました。

○沖野座長 髙先生、ありがとうございました。

ただいまの髙先生からの御発表内容を踏まえまして、質疑応答あるいは意見交換をしていきたいと思います。

会場にて御発言のある方は挙手をお願いいたします。オンラインの方はチャットでお知らせくださいますようお願いいたします。

いかがでしょうか。

加毛委員、お願いします。

○加毛委員 東京大学の加毛と申します。

髙先生、本日は多面的な検討をお示しくださり、ありがとうございました。大変勉強になりました。

3点ほど、お伺いしたいことがあります。

まず、スライドの29頁に、髙先生のお考えが要約されていいます。そこでのキー・フレーズは「データ利用の同意に伴う人格的価値の部分的開放行為」であると理解しました。一つ目の質問は、この点を私法的に表現するとどうなるのかということです。人格的価値を部分的に開放するということは、データの帰属主体・保有者が、他者に対して差止請求権や損害賠償請求権などの権利を有していることを前提として、同意により、それらの法的権利を行使しないという不作為義務ないし受忍義務のようなものを負担することを意味するのでしょうか。この点について、もう少しご説明いただければと思います。

次に、ここで言われている「人格的価値」につきまして、情報には様々なものがあり、古典的な学説では、固有情報と外延情報という区別もされているかと思いますが、そのような情報の性質や内容の違いに応じて、当該情報に関して認められる人格的価値にも差があるのではないかと思われます。仮に差があるのだとすると、一つ目の質問にも関わるのですが、データの帰属主体・保有者が有すると考えられる法的権利にも差が出てくるように思われます。情報の性質・内容と人格的価値の関係について、髙先生のお考えを伺いたいというのが、二つ目の質問です。

第3に、スライドの35頁において、髙先生は、信認義務としてのプライバシー保護の議論に着目されています。憲法学における新しい議論を参照されているのだと思います。私は憲法の研究者ではないので、私法の観点からお伺いしたいのですが、ここで想定されるのは、データを保有する個人ないし消費者が事業者にデータを提供するに際して、両者の間に契約関係があることを前提とするのでしょうか。プライバシーの問題を考える際に、情報を取得した事業者等がどのような形で情報を管理するのかが重要であるという考え方は、従前の議論においても有力であると思われますし、私も、その通りだと思います。ただ、情報の管理を義務づける根拠について、情報提供者と情報受領者の契約関係に求めるのか、それとも契約関係が存在しないとしても、情報の収集につながるサービスを提供する事業者には法的義務・責任が課されるとお考えなのかということが気になりました。

信認義務としてのプライバシー保護という議論が由来するアメリカ法・アメリカ法学では、フィデューシャリー・デューティーが様々な機能を果たしていると思いますけれども、一つ重要なポイントと思われるのが、当事者間に明示的に契約関係がない場合でも、一定の地位にある人に対して義務・責任を課すといいう機能を果たしていることです。他方、日本法では、契約の概念もアメリカ法とは異なりますし、ある者に義務・責任を課すための法技術として信義則なども存在するところです。そのような違いの存在がアメリカ法の議論を参照して日本法を考える際に留意すべきように思います。この辺りについてお考えをさらにお聞かせいただけると、理解が深まると思いました。よろしくお願いいたします。

○沖野座長 お願いいたします。

○髙准教授 ありがとうございます。

まず1点目ですけれども、少し難しい点が、差止請求権を民法上どういった性質と捉えるかによって説明が若干変わってくる点です。ひとまずそれを置いた上で、人格的価値の部分的開放という表現の中核的な含意というものは、ひとつには、将来あり得る客観的な権利利益侵害行為に対する、違法性の阻却であります。それは違法性の阻却ではあるのだけれども、完全に、いわばフリーハンドで自分の情報を他人がどう利用しても構わないというものではなく、自らにいわば人格的価値ないしプライバシー権に基づくコントロール可能性を残したまま、一定範囲での違法性阻却というものを行うものであって、それが管理の在り方によって、いわば人格的価値に対する危殆化をもたらす場合には一定のコントロールを及ぼすものです。この「部分」性の具体的な発現形態としては、他者による個人データの管理・利用行為が結果として違法性が阻却されず、不法行為になり得るという場合もありますし、また、差止請求権というものについても、それが受忍限度論など様々どの枠組みで考えるにしても、違法性の評価と連動しつつ、なお同意があったとしても差止請求権が及ぶといった形のコントロールという余地をデータ提供者に残すという意味合いで部分的開放という言葉を使っております。

2点目ですけれども、この辺りについて、私自身、正確に憲法の議論を捉え切れていないところがあるやに思えますが、プライバシー権、人格権自体には議論がありまして、民法学者、憲法学者の中でも、例えば私人間におけるプライバシー権を考える上で、あえていわば憲法との階層関係というものを考えなくとも良い、歴史的には前憲法的な権利としての人格権というものが認められてきたわけであるから、私人間効力の問題を論じるまでもなくプライバシー権は認められるのだという考え方を取る余地もあります。しかしながら、私自身はやはり歴史的に前後したとしても体系的・論理的に憲法との階層関係というものを問題にすることはできると考えております。そのように考えますと、第一義的には、プライバシー権というものは幸福追求権などとの関連も考えた上でひとまず対国家的な権利として措定する。そして、それは古典的な「放っておいてもらう権利」にとどまるものではなく、近年の研究が示すとおり、一定のデータの適正管理というものを要求するような積極的な意味合いを持つ考えるべきですし、しかも、それは具体的ないわば権利・利益侵害という主観的権利の侵害というものがもたらされない場合でも、一定のリスクに対して対応を求めるという意味での客観法的、予防法的側面があるものと考えていくことができるのではないか、そういう方向性を支持しているわけであります。

その上で、やはり私人間、事業者・消費者間でそういったプライバシー権を認めていく上では一定のロジックを挟む必要がありまして、それは例えば古典的な私人間効力の問題であったり、あるいは強大な事業者、国家に比肩し得る主体に関して、憲法的規律をもたらしていくか、などを検討する必要が生じます。そういった議論を参照の余地があり得まして、ひとくちに信認義務といったところで、事業者・消費者間でそういったプライバシー権が考慮されるべきという場合には、そこで信認されているものは何なのかを考えてみる必要があります。そこでは、まさに憲法的な対国家間で認められるようなプライバシー権の対象となりうるようなものが、私人間において提供されているということに鑑みて、そういった利益の重要性から事業者・消費者の取引を憲法的価値から充填していくという発想がありうると思います。対国家的なプライバシー権を参照した上で事業者・消費者間の取引の内容を充填していく。そういった発想で申し上げたところであります。この説明が説得的かどうか、さらに検討を加えたいと思います。

最後の点に関し、信認義務に関して契約が介在するかどうかという点と、信認義務という概念を扱う上での留意点はまさにおっしゃるとおりでして、ほぼ付け加える点はございません。ただ、日本法においてたとえ信認義務という概念を用いられないとしても、旧来から言われてきた、たしかにそこに何らかの意味での取引関係は必要だけれども、しかし、その取引というものは信義則を媒介とした柔構造の下にあるのであって、例えばそこに一定の広い意味の権力関係であったり、支配関係であったり、広い意味での委託信認関係がある場合には、明示の合意がなかったとしても、その関係性に応じた、信義則によって、信認義務類似の権利義務関係が発生し得ると思います。ただ、このような発想の限界というものがどこにあるのかということを見定める必要がありますけれども、このような発想のもと、信認義務によって表現されているものに近い権利義務関係を認めていく方向性はあるのではないかと考えております。

○沖野座長 よろしいでしょうか。お願いします。

○加毛委員 ありがとうございます。

今のご説明を伺って、髙先生のお考えに対する理解が深まりました。そのうえで、若干の補足的な発言をいたしますと、現在問題となっている事象は、利用者が情報提供について明示的に同意していない場合にも、情報が収集されてしまうという場面なのだろうと思います。そのような場合には、利用者の同意によってうまく対処できるのかが問題となります。そこで、一つの対処の在り方として、利用者の同意や当事者間の契約関係が存在しない場合に、一定の情報を管理する主体に何らかの義務・責任――私法上の義務・責任であるとは限らないかもしれませんが――を課す法技術として、信認義務のような考え方を提示されていらっしゃるのかと思いまして、髙先生のお考えをお尋ねした次第です。ありがとうございました。

○沖野座長 では、小塚委員、お願いします。

○小塚委員 学習院大学の小塚です。

私も加毛委員と同じような問題意識を持ったので続けて質問しますが、髙先生のお考えをまず私はこういうふうに理解したのです。例えばテレビの視聴データを取るということを考えたときに、個人データを直接取るのはテレビの受像機のメーカーです。メーカーが放送事業者にそのデータを提供する。これは同意に基づいて出しますね。第三者提供ですね。そのときに、これを視聴者からメーカー、メーカーから放送事業者というふうに輾転移転すると捉えるのではなくて、第三者提供のところのメーカーと放送事業者の間、これは契約だと思うのですが、それと視聴者の与えた同意は性質の違う問題だと。こういうことをおっしゃりたかったのだと思いまして、それは私はそうではないかなと思うのです。

お聞きしたいのはその先で、多分ここは加毛委員の問題意識と一緒だと思うのですが、視聴者がデータの利用に同意するというところを、それは取引ではないと言っていくと、突き詰めて言うと、それは消費者法の問題というより個人情報保護法の問題ではないか。だから、個人情報の問題でそちらで対応してくださいという話になるのか。EUなどはむしろそこを取引法に取り込むことで消費者の利益を守ろうとしているのではないかと思うので、そこのインプリケーションは髙先生はどうお考えなのでしょうか。

○髙准教授 ありがとうございます。問題意識についてようやく理解できて参りました。

端的に申しますと、同意がある場合には一定の部分的開放があるのですけれども、同意が介在しない場合には、なおのこと、まず人格的価値を保護しないといけない。そういうふうな前提に立って御報告申し上げているところであります。

ただ、かなり広い意味での信認関係という形の義務が介在する場合もありますし、全くそういったものを見る余地がないような場合についても、やはり公共財としてデータというものを収集しているような場面とはかなり違いまして、本来収集できない筈の個人的なデータというものに、個人の同意を通じてアクセスできるルートがあるというような場面がございます。そこでの利用・管理の在り方というものは、たしかに、それは場合によっては、法定債権である不法行為の違法性阻却などの道具立てに限られてしまうのかもしれません。それでもやはり、偶発的な接触関係とは違う場面として、その関係性を厳しく見ていくべきものとして、そのような場面での厳密な意味で取引関係に基づかない権利義務関係というものの方向性を今後、検討していく余地はあるだろうと思っております。

このような可能性ついて、もう少し私自身も詰めて考えないといけないかもしれと、加毛委員、小塚委員のお話を聞いて、そう思っている次第であります。

○沖野座長 よろしいでしょうか。

そのほかはいかがでしょうか。

二之宮委員、お願いします。

○二之宮委員 二之宮です。

いろいろ示唆に富む御説明をありがとうございました。

今日のお話を聞いていまして、結局、同意の射程範囲というものを考えたときに、似たような議論として、民法改正のときに定型約款の組み入れ要件だとか、みなし合意の例外要件とかというのが議論をされたのと近いものを感じました。要は、結局同意をしても、仮に同意があったとしても、承諾したとしても、それは事業者が用意した約款を信頼してある程度同意をするのだけれども、社会通念に反したような取扱いだとか信義則に反するような取扱いは同意の射程範囲外だということで、同意があったとはみなされないこととなる。今回のデータを承諾するときの同意するときには簡単に同意をしてしまっているのですけれども、結局それが社会通念だとか信義則に反したような利用の仕方がされると、その同意の効力は及ばないというところはやはりある程度のグラデーションをもって線引きがあるのだろうと思います。そう考えたときに、今、簡単に何も考えずに希薄な同意でクリックしているけれども、データが収集されて、分析されて、自分に悪用されて向けられるとしたときに、そういう使い方をするけれどもいいですかと問われれば、それを同意するということはあり得ない。定期約款の組み入れ要件のときに、事前にちゃんと説明しなければいけないとか、あるいは説明があっても社会通念に反した使い方はさすがに駄目だと同意の射程範囲にはいろいろ幅があると思うのです。そうすると、抽象的にはそう考えられるのですけれども、社会通念とか信義則ということを考えたときに、同意する人々は実際には何に不安を覚えていて、どういう使われ方はさすがに嫌だと思っているのか、あるいは、こんなのは別にあまり気にしないからどうぞ御自由にと感じているのか。これから先にルールを考えていくときの前提として、そういう社会状況がどうなっているのか、調査結果とか、もし何か御存じであれば教えていただきたいと思います。

○髙准教授 ありがとうございます。

まず、前半部分のお話に関して、まさにそのとおりでございます。そのうえで、同意の問題を捉える上で幾つかの段階分けができるかと思いまっておりまして、第一に、そもそも同意が真の意思に基づいているかどうか、同意そのものの有効性のレベルで問題にできるものがあります。次に、同意の射程というものを考えた上で、データの利用そのものには一見、有効に同意しているようではあるけれども、その利用といっても様々なものがあり得て、許容されない利用方法などを切り取って枠づけていくという方向性があり得ます。それぞれの局面で、やはり問題の捉え方はかなり異なるものと思っております。

前者についてお話しいたしますと、これまでは説明義務、要するに一定の合理人というものを想定していたところ、情報の格差があるから、説明した上で意思決定ができるように、といった形の議論がありました。他方で、現実の社会を見ますと、様々な無数の約款による取引に取り囲まれていて、インターネット上も、クリックするたびに同意、同意、同意…、という形になっております。それはもはや判断の合理性の問題ではなくて、リソースに限界があり、時間的制約に追われた我々は、もはや合理的判断の前提となる説明を見る時間など、到底ありません。本日いらっしゃってる皆さんも本当に忙しいと思います。一日仕事が終わって帰ってへとへとになったところで、例えばちょっと買い物したり、動画を見たり、検索するときにでも、同意が要求されたりするわけですが、読む気力も時間もないと思うのです。そういった意味で言うと、ここでの問題は、もはや意思決定における脆弱性ではなくて、有限な時間とか労力などのリソースの限界という意味での、自然人に普遍的な脆弱性というものが問題になりうるように感じます。そういう観点から言うと、同意というものの前提そのものが危うくなっている側面はあるのではないかと思います。

そうすると、スワイプをしてざーっと見るような約款を提示すればいいという話ではなくて、何が中核的な条項なのかというものを非常に分かりやすく、一瞬して判読が可能なかたちで、端的に提示して、その部分について同意を求める、ということが考えられます。しかし、このような形でも、いちいちそこで思考して、判断するということは、実際には困難なのかもしれません。

最後の質問に関して、私はあまり具体例について詳しく存じ上げておりませんでして、強いて言えば、小塚委員が書かれた書籍で紹介されている、かつて問題になったようなSuica事件などはまさにそういった類の事件の例ではないかなと思っています。現実に個人情報に対するリスクというものがたとえ生じないとしても、何となく気持ち悪い、という感情も問題の背景にたしかにあったと思います。全く説明されないまま、そういう利用・提供されていたという問題を示すものとして格好の材料だと思っております。

データ提供者が感じる違和感の問題に関して、一点付け加えるとすると、例えばアーティストとかが自分の作品とかインターネット上でAIにフィードされていくということは、単にサービスを利用することに伴ったデータ提供の同意いかんの問題にとどまらず、それは同時に、今後自分が生活する世界をどうデザインされていくかについて、明確な意識がないまま関与させられていく側面があるとも言えます。例えば、アーティストは、自分の創作物についてのデータ提供を伴うアプリケーションを使いつつも、便利だなと思いこそすれ、自分のいわば創意工夫というものに価値が見出されなくなる世界に参画しているとは思っていません。しかし、さまざまな創作物のデータが集積されて、いわばAIが肥大化していって、気づけば他でもなく自分が阻害される社会になっている。そういう未来が現実化してくる過程のなかで、危惧感であったり、気持ち悪さを抱くという方も少なからずおられるのかもしれません。個人データの集積と、AIによる個人の追跡・管理能力の向上についても同様の問題局面があるのかもしれません。同意して自分のデータを提供するということは、人格的価値を部分的に開放するにとどまらず、広い文脈では今後どのような世界になるのかについて、知らず知らのうちに、その都度、小さな投票し、意思決定をさせられている側面を指摘できるかもしれません。

○二之宮委員 ありがとうございました。

○沖野座長 ありがとうございます。

山本龍彦委員から御発言の希望が出ています。お願いします。

○山本龍彦委員 ありがとうございます。

髙先生のお考えを私は強く支持いたします。まずその旨を申し上げたいと思います。私も自己情報コントロール権を現代的な状況を踏まえて批判的に発展させていかなければいけないのではないかという立場ですので、その点でも共通しているところがあるかなと思いました。他方で、民事法、私法の世界では自己情報コントロール権的なものというのはあまり評判がよくないというのを聞いていました。そのようななかで、吉田先生の御見解も出てきたり、状況がまた少し変わりつつあるのかなと感じたというのが第1点目でございます。

2点目は、やはり憲法学の世界では同意ですとか自己決定というのをデータ保護の本質的な要素としないという見解もまた有力になってきているということも事実だと思いますけれども、私はさっき加毛委員がおっしゃっていたことには異論があります。同意が今、有効にはできていないのではないか。そういう意味では同意というのはやはり形骸化しているのではないか、ということはその通りだと思います。しかし、そのときに、同意のほうを問題にすべきなのか、現状の決定環境のほうを問題にすべきなのかといえば、私は今の髙先生と同じで、決定環境のほうを問題視していくべきなのではないかと考えています。現状の同意が形骸化している決定環境を前提に、同意はよくないのではないかというのは、議論としてあべこべのような気がしているということも2点目に申し上げたいと思います。

3点目は質問です。信認義務の議論が有力化しているというのもそのとおりかなと思っているのですが、その議論は、やはり同意とか自己決定が難しくなっているので、ある種パターナリスティックな方向に傾斜させていく必要があるのではないかという議論かなと思って見ておりました。そういう意味では、自己決定という、人格権的な価値を重視するという考え方と、信認義務を重視するという考え方はどのように両立し得るのかどうか。髙先生はその辺は両立し得るというお考えだと思います。私も実はそう思っているのですけれども、その辺、ロジックとしてどういうものがあるのかを伺えればと思いました。

以上です。ありがとうございます。

○沖野座長 ありがとうございます。

では、お願いします。

○髙准教授 ありがとうございます。

まず、先ほどの同意の問題に関しては、2点目の御指摘によって私自身も内容が非常にクリアになったところがありまして、要するに同意と、いわば同意が必ずしも認められない場合の論理関係というものについては、山本龍彦委員の御指摘を踏まえて精査したいなと思っているところであります。

最後の点に関して、信認義務と自己決定の関係について申し上げますと、結論から言うと、私自身の報告は両立し得るという考えに立って説明していたわけなのですけれども、今、御質問を受けた上で、直ちに回答を練ることができませんが、かなり重要な御指摘だと思いますので、もしかしたら会議中に思いつくかもしれませんけれども、少しお時間をいただいてよろしいでしょうか。

○沖野座長 もちろんです。

○山本龍彦委員 ありがとうございます。私も重要な部分だと思っていますので、ぜひいろいろとまた御知見をいただければと思います。ありがとうございました。

○沖野座長 ありがとうございました。会議中と言わず、会議後にいろいろお考えがありましたら補足などもしていただければと思っております。

では、大屋委員、お願いします。

○大屋委員 慶應義塾の大屋でございます。

大変興味深い御報告をありがとうございました。

私は法学者かどうかよく分からない生き物なので、つい現在の情報環境において消費者は個人情報やアテンションを対価として差し出していると言ってしまうのですけれども、これは法律的にはやはりレトリカルであって、おっしゃったように財産的関係ではないと。財産権移転ではなくて、ある種の受忍の受入れであろうという御指摘についてはそのとおりかと思います。

その上で、ただ、1点だけ分からないなと思ったのは、プライバシー権について、一応それは憲法上に根拠を持つとされているのだけれども、対国家権と位置づけた上で民間適用の話をお考えになったのだけれども、Warren and Brandeisにしても、『宴のあと』にしても、政府は出てこないのだと思うのですよ。あれはやはり本来的に私人間の不法行為を基礎づける権利として考えられているのではないかなと思ったのですが、その点についてだけもし何かあれば補足いただければと。

○髙准教授 まさに御指摘のとおりでして、私自身、あまり詳しくないのですが、憲法学上も、あえて憲法の私人間効力を持ち出すまでもなく、私法上の権利としても非常に古典的に認められてきた権利の一つであると言われているとおり、人格権というものは、前憲法的という意味において、ある種普遍性のある権利利益としての側面を有するとは思っております。ただ、論理的に憲法というものが存在する以上、歴史的に先後関係が逆になったとしても、いわば法体系として憲法が法段階の上位に位置づけられる以上は、憲法との関係でその権利を位置づける必要があり、また、それが適切だと考えるという趣旨で、憲法とひもづけた上で説明する経路を提示させていただいたという次第でございます。

○沖野座長 ありがとうございます。

そのほかはよろしいでしょうか。

時間がほぼ来ておるのですけれども、私もコメントだけさせていただければと思っております。

同意の関係なのですが、定型約款の例というのは類似の状況にあるようにも思っております。同意疲れ状況というか形式的なだけであるという点です。髙先生がおっしゃったように、最低限ここは分かってくださいということを抽出するというのは、定型約款でも例えば解除条項だけは知るようにとか、活字のポイントなども変えていろいろな工夫のもと理解できるように説明するというのが同意の前にあるのですが、それだって多分ほとんど届いていないだろうと思われる中で、そうすると、一つは同意の前提としての説明や情報提供、理解というものがあり、同意したことに伴う責任というものがあり、両方をつなぐものとして同意があると思うのですけれども、あまり多くは期待できないとなれば、同意したことが何をもたらすのかというところにフィデューシャリーをかけることで、適正な管理を要求する。それを前提に、だから、変なことはされないだろうということで同意しているというところだと思います。それが決定環境だけではないその後の使われ方におけるものとセットなのだろうと思うのですが、同意に多くを期待するのはなかなか難しいところがとりわけ消費者の場合はあるのではないかと思っております。ただ、それが全く期待されないというのも問題で、何らかのコントロールというのは最後にあって、それをどう実効性あるものに、そして、それが全ての人でなくても考える人は考える。それが全体を適正化していくということもあり得るのかと思った次第です。

それから、フィデューシャリーについてなのですけれども、信認義務をどう捉えるかという問題はあり、一方ではそれが何らかの意思に基づいている。委ねるほうの話が今回はあったと思いますけれども、引き受けるほうの何らかの意思的な引き受けに基づいているということもあるかと思います。ただ、フィデューシャリーの概念自体は恐らく英米でも一致しないところだと思うのですけれども、他方で、フィデューシャリーというのは本人の利益のために専らにするものだと言われます。人格的な価値を一部委ねられているということであれば、そういうふうにも言えるかなとも思われるのですけれども、他方で、消費者取引における事業者はフィデューシャリーですかという問いに対しては、恐らくフィデューシャリーではない。事業者は、自分の利益ではなく、消費者の利益を専らにしなければならないという状態にはなくて、一定の格差がある中で配慮は求められる。そういうものとしてフィデューシャリーを考えたときに、おっしゃるフィデューシャリーがどこの部分なのか。消費者取引一般におけるフィデューシャリーということだとすると、多分、一般的なフィデューシャリー概念とは違うのだろうと思われます。しかし、人格的な価値を一部委ねられている人だということになると違ってくる。しかし、それは、今度は小塚委員がおっしゃったように、消費者取引の問題であるのか、現象としては消費者取引だけれども個人情報のほうの問題なのかというところにまた戻ってくるような気がいたしました。いずれも感想でしかありません。

○髙准教授 ありがとうございます。

実は、まず1点目がまさに先ほど山本龍彦委員から御質問いただいた点とも関わる点でありまして、非常に悩んだところに関わる本質的なところでございます。先ほどのご質問と併せて回答させていただければ有難く存じます。また、この点は、まさに本日委員の皆様方がご質問くださった内容に関わるところでございます。要するに同意というものが機能しなくなっているし、しかも、そこに説明義務を果たしたとしても形骸化しているという状況を見ていくと、やはりそれを信認義務であれ何であれ、外在的にいわば充填していくと方向性が見いだされます。しかしながら、例えばそれを信認義務と言おうが何と言おうが、究極的には同意に対して何も期待しない、いわば外在的にどんどんパターナリスティックに規律を補充していくという方向性を想定することができ、これはある面で危険性を孕んでおります。ある意味で、それはいわば個人の意思決定というものに何も意味を見出さないという、いくぶんディストピアに近いような世界像にもつながるような側面があります。やはり自己決定との関係では、信認義務という呼称をするにせよ、そうでないにせよ、意思決定とパターナリズムとの関係については現存の法概念と人間像とを踏まえてかなり慎重に考えていかないといけないと思います。この点、不十分でありますが、先ほどの山本龍彦委員への回答としても兼ねさせていただければ有難いです。

2点目なのですけれども、まさにおっしゃるとおりでして、たとえ人格的価値というものが取引の中で委ねられるとしても、その消費者取引の全てがフィデューシャリーの側面を帯びるわけではありません。一つの契約というのは、預金取引もそうですけれども、複合的な要素を含んでいるわけでして、そこで何かしらの対価であったり、サービスが交換されます。あるサービスに何かしらの財産的価値というものを見いだして取引がなされる際に、付随的にいわば人格的価値が委ねられる側面があって、その部分だけを捉えて、いわば部分的にフィデューシャリーがあるように捉えていく余地があるのではないかと思っております。

そういった意味では、まさに沖野座長もおっしゃったとおり、消費者取引全てがフィデューシャリーの要素を帯びるわけではなくて、人格的価値に関する支配ないし委託という限りでのフィデューシャリーを部分的に見ていく。そういった発想として捉えていただければと思います。

○沖野座長 ありがとうございました。より明解に理解することができました。

髙先生におかれましては、貴重な御報告をいただきまして本当にありがとうございます。

時間の関係がございますので、後半のほうに進めさせていただきたいと思いますけれども、恐らく関連する議論も出てくるかと思いますので、おとどまりいただけるということですので、差し支えなければ引き続き御参加いただければと存じます。


《2.②石井委員プレゼンテーション》

○沖野座長 それでは、次にですけれども、二つ目の項目として委員からのプレゼンテーションをお願いしたいと思います。石井委員から御発表をお願いいたします。

専門調査会の前半の検討テーマの一つに「デジタル化による技術の進展が消費者の関わる取引環境に与える影響についての基本的な考え方」というのがあります。デジタル化が急速に進展していく中で、消費者法制度のパラダイムシフトを考えていく上では、従来のリアルでの取引との比較もしつつ、デジタル取引の特徴を分析・具体化し、リアルな取引あるいはフィジカルな取引と異なる規律が必要となる場面や規律が整備されていない場面の整理をするということが重要になってまいります。

その検討に当たりましても、本日は情報法が御専門の石井委員から御発表いただき、議論を深めていければと存じます。

消費者取引と情報法ということで御報告をお願いしておりますので、石井委員にも15分から20分というのを目安としまして御発表をいただき、その後、質疑応答、意見交換をさせていただくという予定でおります。

それでは、お待たせしました。石井委員、御発表をよろしくお願いいたします。

○石井委員 よろしくお願いいたします。中央大学国際情報学部の石井です。

私のほうからは「消費者取引と情報法」というタイトルで御報告させていただければと思います。

もし音声に問題がありましたら、御指摘いただければと思います。

次をお願いいたします。

「はじめに」ということで、次をお願いします。

まず、今御紹介がありましたように、第2回目の専門調査会の資料の中で、デジタル化による技術の進展が消費者の関わる取引環境に与える影響についての基本的な考え方を踏まえて御報告をさせていただくこととなっております。

リアル取引との相違点としましては、取引方法がデジタル化されてインターネット上で取引されるようになったこと、取引対象としての情報が財産的価値を持つようになったこと、これは前半の御報告と関わるところかと思います。3点目は、インターネットの環境に置く以上はインターフェースが非常に重要性を持っていくという点が挙げられるかと思います。

消費者の脆弱性のところに関しましては、能力的な脆弱性としてデジタルデバイドがあろうかということ。それから、立場的な脆弱性として、高齢者や子供がよく取り上げられるところかと思います。それ以外に、何かしらの不幸に見舞われた場合などの状況的な脆弱性が生じる場合もあります。

3点目、消費者の選択環境です。マイクロターゲティングが行われるようになって人々が誘導されやすくなっているのは、ほかの領域の施策を検討する場面でも意識されているところであります。インターフェース上は欺瞞的なインターフェースですね。ダークパターンの問題があります。それから、データ分析との関係で、消費者保護の領域ですと、ターゲティングに基づくパーソナライズドプライシングも論点になろうかと思います。

主体の広がりや多層化と可変性のところですが、こちらはプラットフォーム事業者が影響力を持っているということについては言うまでもありません。

規律手法の辺りに関しましては、これも確認でしかありませんが、民事法的な規律として主に消費者法の領域がカバーするという点。行政法的な規律としては、消費者法に加えて個人情報保護法も関わってくる。そのほか、共同規制ですとか自主規制の領域、自主規制の手法がよく議論されるというのが情報法の領域の特徴かと思います。

消費者団体と事業者(グローバル企業等)の対応力の相違、これもプラットフォーム事業者において顕著であることは申し上げたとおりです。

次をお願いいたします。

今度はデジタル取引に関する規律の頁になります。

消費者の「脆弱性」の利用・作出のところでは、マイクロターゲティングによる詳細な個人情報、脆弱な側面も含む個人情報を把握するという手法の問題があります。

消費者の取引環境の個別化、リアルの取引と異なる点としては、本人にとって相手が見えないということもさることながら、第三者が物理的にある人の取引を見て事実上の目視によるチェックみたいなものも働かなくなるという面はあるかと思います。

消費者が情報、時間、関心・アテンションを提供する取引、これまでの議論でも出てきているところですが、アテンション・エコノミーの広がりがフィルターバブルやエコーチェンバーをもたらし、偽・誤情報の原因となる。そして、ダークパターン等による誘導もあり得るというところになろうかと思います。

事業者が多層的に関わることとの関係ですが、これもプラットフォーマーに対してどういう規律を課すのが適切かという論点に集約されるかと思います。消費者保護の領域ではプラットフォームと消費者としての個人をいかに保護するかが問題となりますが、それ以外にもいろいろと広がりがありまして、偽・誤情報の問題ですとか、プラットフォームサービスを利用する利用者情報の保護をいかに図るかということ。また、取引透明化法が対象にしているような商品等提供利用者とプラットフォーマーの関係についての適正化をいかに図っていくかと。それぞれ関係する省庁で検討が進められているところではありますが、対プラットフォーム事業者への規律を全体的に見たときには、法分野をまたいだ考察が必要になってくると考えております。

最後、技術の進展の辺りですが、アテンション・エコノミーが広がりを見せる中で、消費者の自律性をどこまで維持することができるか。これも今までの議論の中で出てきている論点になります。

次をお願いいたします。

私は個人情報関係を主に仕事として取り扱っていますので、個人情報関係が中心になりますが、情報法関係の論点を御紹介させていただきます。

こちらは今年の1月9日のFTCのプレスリリースになります。個人情報の販売が問題となったケースです。アメリカには大規模なデータブローカーがいまして、個人情報の販売を行うことがビジネスとして成り立っている面があるわけですが、欺瞞的な実務が行われる場合には法執行をかけられる場合もあります。個人にとっては、自分の情報を勝手に取引対象にされてしまうということがプライバシーや個人情報の分野で規制される問題であると同時に、消費者の自律性を損なう問題でもあると捉えることができるかと思います。

こちらの事案では、あるデータブローカーがいまして、そのデータブローカーが生殖医療クリニックや礼拝所、虐待のシェルターなどの非常に機密性の高い場所への訪問履歴を追跡するために使われる位置情報を取って販売していたという悪質性の高い事案になります。結果として、FTCから指摘されて機密性の高い位置情報の共有や販売は禁止されることになりました。

データの取り方ですが、自分の会社のモバイルアプリから集める場合もあれば、サードパーティー製のアプリから集める場合もある。ほかのデータブローカーやデータアグリゲーターから位置情報を購入して、それを分析して正確な位置情報を割り出してライセンスを共有するみたいなビジネスをやっていたようです。

サードパーティーのアプリなどが機密性の高い位置情報にアクセスすることについて、消費者に十分な情報を提供して同意を得ているという手続を踏んでいなかったということが問題となりました。

次をお願いいたします。

こちらも連続してプレスリリースが出た件になります。FTCがデータアグリゲーターに対して摘発をしたケースです。このデータアグリゲーターは、自分の会社のアプリでショッピングポイントサービスやそうしたものを展開していまして、ユーザーに対しては位置情報を追跡することについては同意を求めつつ、ほかのユーザーデータと組み合わせてターゲット広告の目的で使うということについては情報提供の同意を得てなかったというケースになります。

問題は、位置情報もそうなのですけれども、いろいろなツールを使って情報を集めて分析するというところが本人にとって予見できない取扱い方法になる。これについてきちんと説明をして承諾を取るというプロセスを取っていないということが問題となりました。

次をお願いいたします。

こちらは、2018年にカリフォルニア州が消費者プライバシー法を制定して以降、プライバシー保護のための立法化が州レベルで進んでいることを示したスライドです。このカリフォルニア州の立法は民事法典の中に編さんされていまして、その特徴の一つに自己の個人情報の販売または共有を停止する、すなわちオプトアウトする権利を消費者に与えているという点が挙げられます。これについても、個人情報を取引対象とし、個人を消費者と捉えることを前提とした制度といえます。個人情報保護制度ではあるのですが、取引の側面、そして、個人を消費者として捉えている面があるだろうというのがアメリカの法令の一つの着目できる点だと思います。

次をお願いいたします。

個人情報を用いた事業活動でターゲティングに関する問題です。いろいろなプロセスがあるわけですが、まず端末情報を収集するというところでCookie問題がずっと議論されてきました。プラットフォーム事業者規制との関係の文脈でもダークパターンの文脈でもCookieの問題は登場します。

Cookieについては、特にサードパーティーCookieが閲覧履歴を収集することについて本人のコントロールが及ばないという点が以前から問題となってきました。

今度は集められた情報が分析・評価される場面ですが、分析・評価された後に本人の傾向に応じてターゲティングに使われることになります。先ほどのFTCの執行事例も広告目的で位置情報などを収集していたケースです。

プロファイリングの代表的な事例に関しましては、御説明するまでもないかと思いますが、ターゲット社の事例が非常に有名です。消費者の購入アイテムから妊娠予測を算出して関連アイテムのクーポンを交付した、そのことが娘さんの妊娠を知らないお父さんに訴えられてしまったというようなケースです。

ケンブリッジ・アナリティカ事件も非常に有名な事件です。Facebook上に展開していたアプリ開発者からデータ分析会社がユーザーとその友達の情報を不正に購入し、大統領選挙やブレキシットに使ったと言われている事例です。

リクナビ問題はやや性質の違う問題ですが、リクルートキャリア社が学生の内定辞退率を無断で分析してクライアント企業に提供していたという事例になります。

このようなターゲティングについては、気づかないうちに端末から情報が収集されます。これは主にとさせていただきますが、個人情報の問題になってきます。次に、分析・評価されます。これは個人情報と消費者保護の問題が関わりを持つだろうと思われます。その後、広告等によって誘導されるようになってきますと、個人情報、消費者保護に加えて、構造的な消費者被害が生じることで競争法の状態も出てくるのではないかと思われます。

次をお願いいたします。

端末情報の収集についてです。

次をお願いします。

EUのGDPRのルールの確認です。これは簡単に御紹介させていただこうと思います。

まず、Cookieを含むオンライン識別子は個人データに含まれます。データ主体の同意についても定義や要件が明確に定められているというのが同意の規律に関するGDPRの特徴です。同意の定義としては、自由に与えられ、特定され、事前に説明を受けた上での不明瞭でないデータ主体の意思表示です。この要件を満たせるかどうかというところが重要性を持っています。

ちなみに、GDPRは同意を含めて幾つかの個人データを取り扱うための適法性の要件を定めているのですが、GDPR自体は個人データを取り扱うときに同意を取りなさいと言っているわけではありません。他方、Cookieについては、ePrivacy指令が適用される領域になってきますので、ここの場面では同意を前提とする議論がなされています。

次をお願いいたします。

ePrivacy指令のほうですが、ユーザーの端末に情報を保存する場合、そして、保存された情報にアクセスする場合は、ユーザーへの十分な説明とユーザーからの同意を取得しなければならないとなっています。ここでの同意はデータ保護指令、これはGDPRに読み替えられますが、この同意の要件を満たさなければならないということになります。

ePrivacy指令の同意付与の方法については、前文でチェックボックスにチェックを入れることが示されていまして、この前文の解釈を含めると、オプトインを求めていると解釈することになります。

次をお願いいたします。

同意の解釈が争われた有名な事例にPlanet49事件というものがあります。この事件は欧州司法裁判所が判断を下したケースになります。ドイツのオンラインゲーム会社がありまして、抽選のプロモーションサイトを展開したのですが、そこにサードパーティーcookieを設置していまして、参加者に対してはチェックボックスに事前にチェックの入った頁を用いて広告を受容してくれますねという承諾を求めていました。これについて消費者団体から訴えられたというケースになります。同意の対象は幾つかあったのですが、広告のところではウェブ解析サービスについて同意してくれますかということを求めていました。cookieを設定してパートナーサイトから得られた情報を、行動履歴を分析してレコメンドに使いたいということについて承諾を求めつつ、チェックボックスにはチェックが入っていたというのが問題となったケースになります。

欧州司法裁判所がどう判断したかという部分ですが、同意を付与するために事業者にいかなる行動が求められるかに従って同意の解釈を行うのだと述べています。ePrivacy指令の前文の記載から見ると、利用者の同意については、「インターネットウェブサイトを閲覧する際にボックスにチェックを入れること」を含めて、自由に付与され、特定され、十分な情報に基づいた利用者の希望を示すことが必要だということで、あらかじめチェックボックスが入っている方法は駄目だと判断しました。

次をお願いいたします。

最近のものですが、cookieバナーを無効にした判断、執行事例もそれなりに出ているところであります。例えばですが、2022年1月に、Googleに対して1億5,000万ユーロ、Facebookに対して6,000万ユーロの制裁金命令を科した、cookieバナーを無効と判断したケースがあります。消費者はcookieを承諾する選択肢は与えられていたのですが、cookieを拒否するボタンがワンクリックで届くようなものではなかった、承諾の拒否のほうが手間がかかったという点が問題とされました。

また、cookieバナータスクフォースというのも展開されています。拒否ボタンのないcookieバナー、事前のチェックボックスが入っているもの、cookieバナーの外のリンクで選択肢を提供するものなど、いろいろなパターンがありますが、問題となるケースがこのタスクフォースのレポートのところで出ていたりします。cookieの同意の取り方によってはダークパターンに含まれる手法もあり得ると思います。

次をお願いいたします。

今度は、SNSにおいてパーソナライズ化された広告を配信する行為について、競争法の支配的地位の濫用の解釈の中でデータ保護法違反と判断した判決があります。これは支配的地位の濫用が解釈されたケースですので、競争法の領域における欧州司法裁判所の判決になります。

先ほども少しお話ししましたが、GDPRでは、GDPRの定める適法な根拠が幾つか挙げられています。同意や契約、法的な義務、正当な利益など、その中の一つの要件を満たさないとデータを取り扱ってはならないというルールになっています。同意も要件が厳しく定められておりますので、同意に依拠してデータを取り扱っているつもりであったとしても、後から違法と言われる可能性はあります。

こちらのケースはソーシャルネットワーク市場でMetaの支配的地位の濫用についての話だったのですが、SNSによってパーソナライズ化された広告を実施する場合におけるGDPRに基づく取扱いの適法性のところでの同意の解釈がなされた事案です。結論としては、Metaが支配的地位にあること自体が有効な同意を妨げるものではないものの、それ自体は重要な考慮要素になるということです。ユーザーが不利益なく拒否または同意を撤回できるよう、必要があれば適切な料金でそういうパーソナライズ化されない処理をしてもらうという、同等の代替案を提供してもらえるというのが必要ではないか。有料でパーソナライズ化された広告を受信しなくて済む代替案の提供が求められるべきであるということ。

もう一つ、ネットワーク内、Facebook内のデータとFacebook外のデータについて、それぞれのデータ処理についての別個の合意が必要だということも述べられています。

次をお願いします。

こちらは参考です。EUの欧州委員会ですらマイクロターゲティングについて指摘を受けることがあり得るというケースです。オーストリアに有名な消費者団体がありまして、その組織が、EUの行政を担う欧州委員会においてマイクロターゲティングを行っていたということで、GDPR違反だということを指摘しているケースが出てきております。

次をお願いいたします。

日本はどうかといいますと、総務省が2022年に電気通信事業法を改正しまして、緩やかな改正にはなりましたが、情報提供の義務が課せられるようになりました。利用者のパソコンやスマートフォンなどの端末で起動されるブラウザやアプリを通じて、電気通信役務を提供する事業者が外部送信プログラムを用いて情報を外部送信してしまうことがある。それについて確認の機会を本人に与えましょうという義務になります。メッセージングアプリやSNS、掲示板、検索サービスとか、いろいろサービスはあります。

原則として、通知公表義務、必要な情報を提供するという義務を課しているわけですが、必須CookieやFirst Cookie、オプトインの措置を講じている場合、あるいはオプトアウトの措置を講じつつも、利用者がそれを必要としない場合というのは例外とされています。

次をお願いいたします。

次の段階として、個人に関する情報の分析・評価、プロファイリングの問題についてです。

次をお願いいたします。

こちらはGDPRの確認になりますので、ごく簡単にお話ししておきたいと思います。GDPRではプロファイリングに関する定義が明確に定められています。個人に関する一定の側面を評価するためのコンピューター処理による個人データの取扱い、これがプロファイリングです。

義務としては、透明性の義務がかかっていたり、個人にアクセス権を認めたり、異議申立てを認めたり、そして、不利益判断を受けなくて済む権利を与えたりしています。

時間の関係もありますので、次のスライドに行きたいと思います。

デジタルサービス法は有名なEUの法令ですが、この中でも広告の透明性やプロファイリングに関する規定があります。

1点目、広告表示の透明性です。その情報が広告であること、そして、広告主、受信者を決めるパラメーターなどの意味ある情報を提供しなさいという義務が課せられています。

2点目です。これはGDPR上特別な種類の個人データということで機微な情報を取り扱って、それを使ってプロファイリングを行い、サービス受領者に広告を表示することを禁止する規定があります。

3点目です。オンライン上の児童の保護、これは日本の法制度が弱いところだと私は思っていますが、児童に対してプロファイリングに基づく広告を行ってはならないということをオンラインプラットフォーム事業者に義務づける規定もあります。

次をお願いいたします。

児童の保護については脆弱性と関わってくるところかと思います。前文の関連する箇所を少し抜粋しておきました。個々人向けのターゲティング広告を表示する際に脆弱性に訴えかけるデータを用いたり、脆弱な立場に立つ者に働きかけることという社会的弊害を考慮したというのが、先ほどの機微な情報を用いたプロファイリングですとか、児童に対するプロファイリングに基づく広告の禁止の趣旨になります。

児童の保護はEUの重要な政策目的だということ、ほかの法令上の前文でも同じように書いてあったりしますが、児童の保護が重要だということをEUは明確にうたっています。

もう一つ、高齢者の保護についてはどうかということについては、やはりこれについては少子高齢化の日本では顕著に表れやすい論点ではあるかと思います。ヨーロッパの法令などではあまりこういう場面では出てきていないという印象ではあります。

次をお願いいたします。

リスク評価の義務もあります。巨大プラットフォーム事業者等に対してはシステミックリスクに応じたリスク評価を義務づけるという規定もあります。リスクというのは、欧州基本権憲章に定められているようないわゆる人権を侵害するような危険のあるものをいいます。

GDPR9条に基づく特別な種類の個人データ、すなわち機微情報に基づき個別化されている場合には、差別を防止したり最小化の措置を講じたりしなさいといったことが挙げられています。

3点目、推奨システムの主要なパラメーターについて、プロファイリングに基づかない代替的な選択肢を提供するということも挙げられていまして、プロファイリングされたデータが広告表示として消費者に届かないようにするというのもリスクを回避する一つの手段であろうかと思います。

次をお願いいたします。

これは2023年7月のノルウェーの監督機関がMetaに対して行動ターゲティング広告のための個人データの取扱いがGDPR違反だということで、データの処理を3か月間禁止する措置を発動しまして、これについて欧州データ保護会議という各国の監督機関がそれを支持する決定を発出したというケースです。GDPRは制裁金が有名ですが、ビジネスの観点から見ると、サービスの利用を停止するように命じられてしまうほうが影響は大きいと言えるかと思います。

次をお願いいたします。

個人のデータを使って取引に使う場面では、パーソナライズドプライシングも消費者保護や競争法との関わりを持つ領域であろうと思います。

OECDの事務局が2018年に文書を公表していまして、その中で個別価格の定義を述べています。最終消費者の個人的な特性及び行動に基づき価格を差別する実務であって、結果的に消費者の支払意思額の増加機能として価格を設定することと説明されています。

近時のパーソナライズドプライシングの事例としては、例えばUberが裕福な地域間を通勤する利用者に多くの料金を請求していたとされる事例ですとか、中国の配車サービスが常連客から高い料金を搾取するビックデータ殺熱、常連客、よく使ってくれる方から高い料金を徴収するということが問題となったケースがありました。

公正取引委員会が2021年に「デジタル市場における競争政策に関する研究会報告書」を出していまして、その中でもパーソナライズドプライシングについて検討がなされています。要件としては、まず価格の個別化自体が有害となるわけではない。競争政策上の対応が必要なのは限定的だという整理になっています。基本的に市場における有力事業者が競争者を排除するために消費者の属性データや取引データを収集・分析し、価格の個別化を行う能力を利用して競合事業者の顧客にのみ廉売を行って公正な競争秩序に悪影響を与える場合、すなわち、相当条件を絞った選択的な価格設定の場合には競争政策上の問題が生じることがあるとされています。

次をお願いいたします。

法的なルールのほうですが、EU現代化指令が2019年に採択されていまして、この中に透明性の義務が設けられているということ。

それから、GDPRについては直接の明文規定はありませんが、プロファイリングに関する各規定が適用されると解されています。異議申立権やコンピューター自動処理のみによる不利益判断に服さなくてもいいという権利があったりします。

日本の場合は、個人情報保護法のガイドラインに若干関係する説明があります。スライドには書いていないのですが、本人から得た情報から本人に関する行動、関心等の情報を分析する場合に、個人情報取扱事業者はどのような取扱いがなされているかを本人が予測、想定できる程度に利用目的を特定しなければならないとなっています。取得した行動履歴等の情報を分析し、信用スコアを算出した上で、当該スコアを第三者に提供いたしますというように、利用目的のより具体的な特定が必要だと説明している部分がガイドラインの中にあります。

そのほか、中国個人情報保護法の24条という条文が、価格の個別化のところで、透明性や結果の公平性、公正性を保証する規定を設けているのですが、その中に取引価格等の取引条件において不合理な差別的待遇を実施してはならないという条文を設けています。

最後、ダークパターンについて少し触れておきたいと思います。

次をお願いいたします。

個人の誘導についてです。個人を誘導するというのはダークパターンだけでなく偽・誤情報も非常に大きな問題になりますが、今回はダークパターンについて取り上げていくことにします。

ダークパターンというのは、ユーザーインターフェースの専門家のハリー・ブリグナルさんが使い始めたということで有名なものになります。いろいろな国際的な文書、研究業績の中でパターンを取り上げているものがありますが、OECDのデジタルエコノミー文書が一番包括的に検討しているかと思いますので、こちらの定義を挙げておきました。消費者の自律性、意思決定または選択を覆し損なうようなデジタル選択アーキテクチャーの要素、特にオンライン・ユーザー・インターフェースを用いた事業活動というように説明されています。

これ以外にはFTCのレポートや、欧州データ保護会議、ヨーロッパの個人データ保護制度の監督機関が集まってGDPRの指針などを出していく組織もSNSの文脈におけるダークパターンのレポートを出していたりします。

おおむねということにさせていただきますが、ユーザーを欺くような広告を行うこと、ユーザーが意図しない不利益な選択をさせること、そして、オンライン上のインターフェースが使われることが特徴であろうかと思います。

次のスライドをお願いします。

こちらのスライドとその次のスライドはOECDレポートの分類を表にまとめたといいますか転記したものになりますので、御確認いただければと思います。

次をお願いいたします。

ダークパターンの弊害についてです。

ダークパターンは消費者の意思決定に大きな影響を与えるということは言うまでもないかと思います。

他方、個々のダークパターンには手法によって効果に違いがあるという指摘もなされています。これはOECDのレポートから引いてきているものです。

3点目です。ダークパターンには、有効性には微妙さや検出の難しさによって効果に差があることがあるというようなことも書いてあったりします。

4点目、ダークパターンは消費者が自由で十分な情報に基づいた選択を行うことを妨げることによって、消費者の自律性が損なわれる。この辺りがダークパターンと消費者保護の関係では重要なポイントになってこようかと思います。

その次です。ダークパターンは競争やオンライン事業者への信頼に対する影響を持つということで、消費者全体に影響を与える構造的な消費者被害を引き起こすものになります。

最後、脆弱性のところです。教育水準の低い消費者や児童など、ダークパターンの影響を不当に受ける可能性が高い消費者がいる。これは注意しておかないといけないという点かと思います。

とはいえ、2020年の段階のレポートの記載では、ダークパターンによる消費者の不利益を示す具体的な証拠はまだ足りないのだということも述べていたりします。

次をお願いいたします。

個人消費者の不利益のところを挙げてみますと、まず経済的な損失があるというのは言うまでもないかと思います。

プライバシー侵害については次の頁で少し取り上げます。

3点目の心理的被害及び時間的損失、これはダークパターンにさらされた消費者が、気づいたらですが、動揺したり、フラストレーションを抱いたり、苦痛、敵意、短気などの感情を抱くということ。それから、ダークパターンについては、ビデオゲームなどの領域、ビデオゲームなどを使っている場面だと中毒性があるということも指摘されていたりします。

次をお願いいたします。

プライバシー侵害のところですが、ダークパターンに関するプライバシーの懸念というのは、立法者だけではなくてデータ保護規制当局や消費者団体も指摘しているところです。

プライバシーを侵害するダークパターンの主な例としては、プライバシー侵害設定をデフォルトで設定するもの、事前にチェックボックスのチェックを入れるようなものです。それから、プライバシーに関連する選択や情報への関与、オプトアウトを困難にするようなパターン、プライバシーを侵害する設定を受け入れるように消費者に執拗に求めるようなものですとか羞恥心を抱かせるものなどがあると説明されています。

オーストラリアの消費者を対象とした調査によると、4人に1人が、ダークパターンを原因とし望ましい範囲を超えて個人情報を共有してしまっているという結果が出ているそうです。とはいえ、ダークパターンとプライバシー被害の規模を評価することは、経済的被害と比較すると定量的な指標が欠けているのでなかなか難しいとの説明が次に出てきます。これは前半の議論とも関わるところでありますので、省略させていただきます。

次をお願いいたします。

デジタルサービス法の中にはダークパターン禁止規定があります。オンラインインターフェースの設計及び構成についての規定です。オンラインプラットフォーム事業者は、そのサービス利用者を欺き操る態様、その他サービス事業者が任意かつ情報に基づいて意思決定を行う能力を実質的にゆがめ損なうような態様でオンラインインターフェースを設計、構成または運営してはならないということで、禁止規定を設けるという手法がデジタルサービス法では取られています。

前文のところは省略させていただければと思います。

次に、児童の保護のところです。国外では児童に対するダークパターンを制限するルールが設けられている例があります。UK Children’s Code、これはイギリスのデータ保護の監督機関でICOというところがあるのですが、ICOの定めた15の行動規範の中に、ナッジ技術を用いて児童に不必要な個人情報を提供させるよう誘導・奨励する行為、それから、プライバシー保護をオフにすることは駄目ですよというように書いてあります。また、カリフォルニア州の法令で、恐らく今でも執行停止中ではないかと思いますが、Children’s Codeに類する規定を設けているものがありまして、その中にダークパターンの利用を禁止するという規定を設けているものがあります。

「おわりに」ということで、個人情報の収集、分析・評価、誘導の各段階において法分野の交錯が見られますので、その辺りに気を配りながら議論を進めていく必要があるのではないかと思います。また、積極規制、EUのブリュッセル効果がよく取り上げられるところでありますが、規定で強気に出ることがいいのかどうか、日本の政策の方向性として適しているのかどうかという観点もあるかと思います。

3点目です。個人情報の取引、こういう発想を持っているのはアメリカの特徴かと思いますが、取引的な観点、それから、消費者のプライバシー保護という観点をどう見ていくか。

マイクロターゲティングによる脆弱な消費者の把握に関する問題、これは主体の性格がどうかということにかかわらず、データを分析することによって脆弱性を割り出していくという問題をどう捉えるか。

個人情報の分析・評価が消費者保護の領域でどういう場面で問題となるか。これはパーソナライズドプライシングだけではないと思います。

最後、違法な誘導の問題で、インターフェースへの規律の在り方に加えて、消費者保護の分野から外れますが、ケンブリッジ・アナリティカ事件のようなものが生じる状況にどのように法的に対応していくのかという点も検討が必要かと思いました。

すみません。大幅に時間を超えてしまいましたが、私のほうからは以上になります。

○沖野座長 石井委員、ありがとうございました。

ただいまの石井委員の御発表内容を踏まえて質疑応答、意見交換をしていきたいと思いますが、時間を延長させていただくことになると思います。

では、河島委員、お願いします。

○河島委員 河島です。

丁寧な御報告をありがとうございました。とても勉強になりました。

質問は2点ありまして、まず1点目ですけれども、日本でも急にCookieの同意を求める画面が出てきて驚いた人というのは多かったと思うのですが、Cookieの使用に同意している人でも、Cookieとは何かを理解している人はわずかであるという調査結果もあります。石井委員としては、Cookieの同意あるいは同意をとる手法についてどのように考えていらっしゃるかということをお聞きしたいと思いました。

2点目は非常に雑駁な質問なのですけれども、罰則以外で規律に実質性を持たせる体制についてどういうふうに考えていらっしゃるかということです。AI Actの場合は、ハイリスクAIについては主に整合規格で見ていくということがありますけれども、DSAの場合は欧州アルゴリズム透明性センターで実質性を持たせようとしています。消費者法のパラダイムシフトを考えるに当たって、柱としてどのような体制がよいと考えていらっしゃるのか、欧州アルゴリズム透明性センターのような新たなセンターをつくるべきなのか、あるいは現状の国民生活センターなどの体制変更でカバーできるとお考えなのか、石井委員のお考えを教えていただければ幸いです。

以上2点です。

○石井委員 御質問ありがとうございます。

1点目、Cookieが何かというのを理解していない人は多いというのはそうだろうなと思いますし、安易に受け入れている人も結構多いのではないかとは思います。Cookie自体の説明、Cookieはどういうものかという説明が表示されることは確かに必要かもしれないですね。情報を収集して、レコメンドに使いますと。小さく書いてあったりするのでしょうが、確かにそこはよく分からないまま同意をしていたり、拒否をしていたりする人は実際は多いのではないか。設定のところまで行って、これはいい、これは駄目というところまで個別に選択している人はさらに少ないだろうという現状がある中で、もう少しその点は周知啓発といいますか、画面が出るところでもう少し表示の工夫をするとか、そういう余地はあるのかなと思います。ちゃんと答えになっていなくて申し訳ないです。

2点目のエンフォースメントの体制については、新しい技術がどんどん出てくる中で、そうした技術やサービスに追いついていける人員の体制が必要だと思います。そうなったときに、現状の国民生活センターがそれを担うことができるのかというと、どうでしょうね。なかなか大変な面があるのかなと思います。もし国民生活センターを何か少し変えてやるのであれば、新しいところに追いついていける、新技術に対応できる人員組織の体制を設けないとならないという点は間違いないと思いました。それが柱になるのかどうかは分かりませんが、とにかく情報技術のスピードが非常に速いので、情報をスピーディーにキャッチアップできる組織体制がどういう形であっても必要になってくるというのが最低限必要な仕組みかとは思います。

お答えになっているか分かりませんけれども、すみません。

○沖野座長 河島委員、よろしいですか。お願いします。

○河島委員 ありがとうございました。

○沖野座長 ありがとうございます。

それでは、加毛委員、お願いします。次に小塚委員にお願いします。

○加毛委員 ありがとうございました。御報告を拝聴して、大変勉強になりました。

質問は、パーソナライズドプライシングの規制に関する石井委員のお考えを伺いたいというものです。

御報告の中でも説明があったとおり、公正取引委員会が2021年に公表した報告書では、新規参入者の排除につながるような場合において、競争法上の問題が生じることが指摘されるにとどまっています。また、「個人情報の保護に関する法律についてのガイドライン」では、プロファイリング一般について、本人が予測・想定できる程度に利用目的を特定しなければならないものとされています。そのことを前提として、お尋ねしたいのが、パーソナライズドプライシングについて、さらなる規制が必要であるのか、ということです。

一般論として、価格差別はプラスの経済的効果を持ち得るので、それを一律に規制する必要はないと思います。また、事業者が価格差別を行うためには、単に各利用者の支払意思に関する情報を事業者が有しているというだけでは足りず、事業者が一定の市場の支配力を有していることや、提供する商品・サービスが転売できないことなどが必要であると考えられます。これらの幾つかの条件が満たされた場合にのみ問題となる価格差別について、利用者の支払意思に関する情報収集が技術的に容易になった状況のもとで、いかなる法的な規律を課すべきなのかが問題になるのだろうと思います。個情法のガイドラインの規律は、プロファイリング一般に関するものであり、パーソナライズドプライシングに特化したような規律・規制が必要であるとお考えなのかどうか、石井委員のお考えを教えていただきたいと思いました。よろしくお願いします。

○石井委員 御質問ありがとうございました。

加毛委員がおっしゃるように、パーソナライズドプライシング自体にプラスの効果もありますので、規制すべきだという議論が出てくるのは、相当条件が設定された、転売できないというところもそうですけれども、特定の条件を満たさない限り、弊害が出てこないのではないか、弊害が顕在化しないのではないかと思います。パーソナライズドプライシング自体に何かしら社会的な問題があって規制すべきだというスタンスではありません。

中国の個人情報保護法とかは結構特殊な規定かと思っていまして、不合理な差別的待遇、これはビッグデータ殺熱から来ているのだと思うのですけれども、これはどういう背景でこういう規定ができたのかというのは見えにくいところですので、特殊例だと見ておいていいかなと思います。

個人情報保護法のところは、御指摘のとおり、プロファイリングに係る部分は本人に関する行動、関心等の情報を分析するときに、本人が予見可能性を持てないので、より具体的に利用目的を特定しなさいという説明であると私は理解しております。そこで、個人情報保護法のガイドラインでは、行動履歴を分析して信用スコアを算出してスコアを第三者に提供いたしますという利用目的が一つの例として挙げられています。

パーソナライズドプライシングについても、人によって、例えば旅行サイトとかはそうだと思いますが、提示される価格が違うということについて、お隣の人がどういう価格を提示されているかも分からないですし、自分のところで表示されている価格が個別化されているのかどうかすら多分消費者からは見えないので、見えない部分はやはり透明化しておく必要があるのではないかと思います。あまり不利益な価格で消費者が選択をしてしまわないようにするという趣旨では、透明性を担保するというルールのつくり方はあり得るのではないかと思いました。そういう意味で、消費者権利指令の価格の個別化のところの透明性は一つ示唆を得られる規定だと思います。

お答えになっていますでしょうか。

○加毛委員 ありがとうございます。

最後におっしゃった辺りの御感触を伺いたいと思っておりました。OECDのパーソナライズドプライシングに関する検討会において2018年に公表された事務局文書でも、石井委員がおっしゃるように、透明性確保の観点からは、他の消費者に提示された価格などを開示する可能性が指摘されています。ただ、そこまでの情報開示は事業者には受け入れ難いようにも思われるところです。しかし、専門家の目からすると、やはり、そのような情報開示も必要であるとのことで、大変勉強になりました。ありがとうございました。

○石井委員 ありがとうございます。

個人情報の取扱いの問題というよりは、価格が不利益、確かに個人情報は分析しているのですけれども、弊害として出てくるのは価格の差別ですよね。消費者が損な価格で契約をすることが弊害として出てくるので、どちらかというと消費者保護の領域の透明性の議論につながっていくのかなと思いました。

ありがとうございます。大変勉強になります。

○沖野座長 ありがとうございます。

それでは、続きまして小塚委員、その後、室岡委員から御発言いただきたいと思います。

では、小塚委員、お願いします。

○小塚委員 小塚です。

石井委員の今日のお話は非常に大きなテーマで、デジタル取引全体のお話から入って、具体的にかなり御議論いただいたのは、一つはプロファイリングからパーソナライズドプライシングという今ちょうど話題になっていたところですけれども、これは前半の髙先生のお話にもつながるところで、恐らくデータエコノミーとしての特徴だと思うのです。

その後でダークパターンのことをおっしゃって、ダークパターンもこの専門調査会としてもずっと関心を持っているわけですけれども、しかし、ダークパターンというのはデータエコノミーでなくてもあり得ますよね。むしろそういうデジタル技術というものが人間にとって分かりにくいというか、そういうことで出てくることなのかなと。もちろん実際のデジタル取引の中ではデータエコノミーでデータを集めたプラットフォームなどがダークパターンも設定していたりしているというつながりはあるかもしれませんけれども、分析していくと違う問題があるのかなという気もするわけです。

それから、そもそもデジタルというのはアナログの反対であるわけで、そうすると、アナログなものと比べたデジタルの特徴ということで、例えば人間の発想法、ヒューリスティックというのでしょうか。例えばキャッシュレスで払っているとお金を使ったことにあまり実感がないけれども、財布の中からお札が減っていくとお金がなくなっていったことが実感されるとか、そういうような問題もありますし、それから、相手方、とりわけ消費者から見れば売り手がリアルにそこに見えていないということで、詐欺的な取引相手がより多く出てきたり、あるいは越境取引などでプラットフォームで海外企業から個人が買うなどということが普通になっていたりする。いろいろな側面があると思うのです。

そういうわけで、石井委員のお考えで、デジタル取引の特徴というのは大体こういう問題、こういう問題、こういう問題と整理されますという視点というか、そんなところは石井委員として何か体系化みたいなものはあり得るでしょうか。

○石井委員 ありがとうございます。

とても難しい御質問ですね。現状、体系化はされていないわけですが、消費者保護の領域で私が調べながら思ったのは、一番最初、冒頭で少しお話しさせて頂いたのですが、情報の取得の場面と分析・評価の場面と、それをどう使っていくかの場面で問題となる法領域に広がりが出てくるのかなというのは、印象として抱いたところがあります。収集のところ、分析・評価のところ、また、今回は誘導を例にとりましたが、どう使っていくかというところで、関係するデータ、個人情報関係が多いですけれども、個人情報の取扱いが段階を踏んで流れていくときに、どの領域との重なりが出てくるのかを分析した上で、問題となる場面、そのレイヤーごとに、関係する法令のこれまでの蓄積を踏まえてどのようなルール形成が必要なのかなというのを大きな視点で見る方法はあるかなと思いました。

幾つかの例を調べつつ、非常に抽象的な印象として抱いたのは今のような話でして、これをもっとブレイクダウンして説明することが求められる、この場面とこの場面は違うではないかと言われると、反応が難しくなってしまうと。今の中で私のざっくりとした印象としてしかお伝えすることができなくて恐縮ですが。問題意識に即してはいないのかもしれませんが。今回調べてみて感じたところは今のような話になってきます。

○小塚委員 ありがとうございます。

よく分かってきました。つまり、情報を使う、あるいは消費者から言えば使われるという場面がまず問題点の一つの固まりとしてあって、それから、今、情報取得とおっしゃいましたが、意思決定ですよね。それは実は情報に限らない。先程ダークパターンとの関係で申しましたけれども、意思決定の仕方がデジタルになっていくという問題があって、それと、恐らく情報化などの関係のない、もともとデジタル取引というよりも電子商取引と言っていた時代からあるようなバーチャルな問題、それもそれで今後、例えばメタバースなどになってくると、メタバースの消費者取引で、ますますそういうバーチャルな取引の問題になってくると思うのですが、そういう問題ですね。情報の使われ方、データの使われ方、意思決定、それから、主体のバーチャル性といった、そういう固まりがあるのだなということが分かりました。ありがとうございます。また私も考えてみたいと思います。

○石井委員 ありがとうございました。大変有益な御示唆をいただいて、確かに実施主体の意思決定というのは非常に重要な視点だと思いましたし、電子商取引という場面がメタバースで出てきたときというのはまた新しい論点として考えておかないといけないと思います。

ありがとうございました。かえって勉強させていただいて恐縮でした。

○沖野座長 ありがとうございました。

それでは、室岡委員、お願いします。

○室岡委員 石井委員、非常に分かりやすいご報告をありがとうございました。

私からは、主に経済学者として一つコメントと一つ質問をさせていただければと思います。

コメントは先ほど加毛委員が質問したパーソナライズドプライシング及び情報の透明化、例えばほかの消費者に提供した価格を開示するという点ですが、特にパーソナライズドプライシングの経済的な損失、消費者が例えば高い価格を払っているのか否かはまさに経済学の分野で分析されていますが、私が文献を理解する限りではケース・バイ・ケースとしか言いようがないのかなと思います。あるケースでは消費者はパーソナライズドプライシングによって得をします。また、消費者が損をするケースでも、どのような消費者が損をするかもケース・バイ・ケースです。たとえば情報を提供した消費者と情報を提供しない消費者のどちらが損をするか、これはまさに現在の経済学の学術研究でも研究が進められているところですが、それらのケースがきれいに分けられるかどうかも学術的にまだ分かっていない。損をする、損をしないで線引きをするというのは非常に難しいのかなというのが感覚としてございます。

透明化についても、例えばある事業者がほかの消費者に提供した価格の開示をしてしまうと、価格を開示することが談合を助長するという経済学の理論もあり、非常に難しい点なのかなというのが、私のコメントです。

その上で一つ質問がありますが、恐らく10円損するかどうかとかそういう経済的なところで考えていくのはかなり難しく、どちらかというと、まさに石井委員も御報告のときにおっしゃっていたように、一般的な消費者保護の原理原則から、例えばある特定の情報を用いて価格差別なり何らかの異なる対応をすることはそもそもアウトだ、という形で議論を進めていく方法は一つあるかなと個人的には感じています。このパーソナライズドプライシングあるいは情報の提供、情報の使用といったところについて、どのような方向性で消費者保護を考えていけるのかという点について、もう少しコメントをいただけましたら大変助かります。

○石井委員 ありがとうございます。

パーソナライズドプライシングのケース・バイ・ケースによるというのは、御指摘のとおりだと私も思いました。競争法の公正取引委員会の報告書は、競争政策上の問題が生じる場合をかなり限定的に考えているのも、そういう面があるというのが背景にあるのかなと思います。

一般の消費者保護の原理からパーソナライズドプライシングの規制の在り方を捉えてみるというのは、それも本当におっしゃるとおりでして、一人一人の消費者が損するか、得するかという視点ではなくて、個人の情報を使って差別的に価格を変えていますよということを消費者が知らないという部分をどのように不利益として評価し、対処していくのかという観点になろうかなと思います。

いろいろな消費者関係の保護、例えば景品表示法とかでもそうでしょうが、欺瞞的な実務を規定するというのは、景表法もそうですが、ルール形成としてはこれまで蓄積があると理解、認識しておりますので、一般の消費者にとっては、価格が人によって別々に表示されていることを知らないで取引してしまうという環境が良いのかということを問題として捉えてみて、そこから透明性につなげていく。価格は人によって違うことがあるよと表示された消費者はやはり気にしていろいろなサイトを見たり、情報を調べるインセンティブは出てくると思います。そのきっかけを与えてあげるという趣旨でも透明性につなげていくというのは、考え方としては成り立つのではないかと思います。

○室岡委員 ありがとうございました。

○沖野座長 ありがとうございました。

それでは、山本龍彦委員から、山本委員の時間が限られておりますので、せめて御発言だけでもと思います。お願いします。

○山本龍彦委員 すみません。ありがとうございます。

石井委員、ありがとうございました。

1点、これは自分で調べろという話なのですけれども、気になったことを伺います。今日、同意の問題というのが一つテーマとして出てきたと思うのですけれども、GDPRは確かに適法性の根拠の一つという位置づけで、それに対して、先ほど御指摘があったように、Cookieに関してはePrivacyの指令あるいはこれからのePrivacy規則でも基本は同意だ、というスキームなのかなと思います。この違いがどこにあるのかということを少し、どこかに書いてあるのでしょうけれども、伺えればと。

もう一つは、GDPRとePrivacyで違うロジックがあると考えるのかどうか、というところです。同意は適法性根拠のワン・オブ・ゼムというのがGDPRなのですが、しかし、GDPRもePrivacyのほうも自己の個人データに対する個人の主体性とか自律性みたいな点においては、ある意味共通しているのか、共有した背景的な根拠というのがあり得ると考えるのか、この辺りの石井委員のお考えを伺いたいなと思いました。

以上です。

○石井委員 ありがとうございます。

時間がないと思いますので、ePrivacyがどうして特異な仕組みを取っているのかというのが一つ目の質問という理解でよろしいですか。

○山本龍彦委員 そうですね。両者、GDPRとの微妙な違いのところです。

○石井委員 背景は少し調べておく必要があると思いますが、端末に情報を保存したり、端末から情報を収集するという行為については、端末を持っているユーザーとの関係でのデータの取扱いが問題になるので、そうなってくると取れる選択肢は限られてくるという話なのかなと。今の段階では推測ですので、もう少し調べてからまた個別にお返事さしあげたいと思いますが、情報の取扱い方が問題となる場面がやや違うというのが一つ可能性としてはあるかなと思います。

背景となる理念に共通性があるのかというのが二つ目の御質問ですか。その理解でよろしいですか。

○山本龍彦委員 そのとおりです。

○石井委員 違いはないと私は見ていまして、GDPRに対する特別法の位置づけがePrivacy指令であったり、今後出てくる規則であったりするので、EUは基本権憲章等の一次法のベースがあって、二次法としてGDPR、そして、特に透明性を求められるのがプライバシー指令なので、EUとしては共通すると見ていいのかなと思っております。

大丈夫でしょうか。

○山本龍彦委員 ありがとうございます。助かりました。

○石井委員 背景についてはもう少し情報を調べてみたいと思います。

○山本龍彦委員 ありがとうございます。

○沖野座長 山本龍彦委員が10分までということでしたので、急いでいただいたということです。

○山本龍彦委員 すみません。これで失礼いたします。

○沖野座長 石井委員からさらに補足がありましたら、また後ほどでも、例えば背景はこうであるとかということなど、適宜補充をお願いできればと思います。

では、大屋委員、お願いします。

○大屋委員 大屋でございます。

先ほども話題になったパーソナライズドプライシングのところなのですが、室岡委員がおっしゃるとおり、理論的にはケース・バイ・ケースだということは確かだと思うし、加毛委員がおっしゃったように、一律に規制対象にできるものでもないだろうというのはそのとおりだと思いますけれども、やはり注目すべきなのは中国のDiDiのケースで、これは常連客いじめなのですよね。通常は同じサービスを使い続けるというのは我々はグッドウィルだと思うと。つまり、善意で継続的な関係を維持しようとしているというサインだと受け取るのだけれども、こいつは要するに競合業者のことを調べない怠け者だと判断して値段を上げるという差別的待遇なわけです。だから、これは前半で髙先生がおっしゃったフィデューシャリーに反するデータ取扱いだということで理解するといいのではないかと。やはりこのケースが非常に異常なので、かつこのケースでの論点としてはそこのところだろうとは思いました。

以上です。

○石井委員 ありがとうございます。

御指摘のとおりで、中国の事例は特殊性がありますので、この方法を取るところがほかの国でも出てきたら、差別的な取扱いを禁止するというのは十分規制としてはあり得る話だと思います。ただ、DiDiのケースと個人情報保護法については、この規制が入ったのは非常にタイミング的にも近かったかなと思います。もちろん一つの事例として社会的に大きな問題になったのかもしれないのですが、日本の慎重な法制定のプロセスからすると、私の感覚からすると簡単に入れたのかなというイメージもあったりするというのは感想です。いずれにしてもありがとうございました。中国の事例は異常性があるというのは御指摘のとおりだと思います。

○沖野座長 ありがとうございます。

では、加毛委員からさらに補足をお願いします。

○加毛委員 「信認義務」という法技術の意義について、髙先生のセッションの最後のところで沖野座長がまとめられたところに尽きているようにも思いますが、補足的に申し上げておきたいことがあります。先ほど来「同意疲れ」に関する言及がありましたが、私は「信認義務疲れ」を感じることがあります。アメリカ法学を参照すると、ある問題を解決するために適切な法的概念や制度がない場合に、信認義務に依拠して議論が展開されることがよくあります。しかし、そこで問題とされている事柄は、日本法のもとでは、競争法で対処すべきものであることもありますし、消費者保護の問題や専門家責任の問題という場合もあります。あるいは、髙先生が指摘されるデータや情報の「人格的価値」にかかわる問題であることもあります。このように多様な問題について、「信認義務」というラベリングをすることによって、問題の本質が見えにくくなるおそれがあることを危惧しています。むしろ「信認義務」という言葉を用いずに、それぞれの場面で問題となるところを明らかにして議論していくことが生産的であるように思う次第です。

○沖野座長 ありがとうございます。

これからの検討のためにも、信認義務と言ったら終わりということではないですし、あるいはそれを信認義務と本当に呼んでいいのかという問題もあろうかと思いますので、丁寧に検討していく必要があるということかと思います。

時間もかなり過ぎてはいるのですが、室岡委員から御発言の希望がありますので、お願いします。

○室岡委員 ありがとうございます。

先ほど大屋委員から中国のパーソナライズドプライシングの例についてありましたので、私からも少しだけ追加のコメントを。

これは顕著な例ですし、差別的なプライシングとはどういうことかと考える上では適した例だとも思います。ただし、この例がはっきり差別的だと分かるのはある意味すごく露骨な価格づけをしていたので、全く同じ価格設定をより分かりづらく、かつ日本でも見聞きされるような形で行うことは可能です。具体的には、取りあえず定価を設定し、その定価をだんだん上げていく。定価をだんだん上げていって、常連客以外に割引クーポンを出していく。これはいかにもよくありそうな話ですが、実質的に先程の中国の例と類似の価格差別を行っていることになりますので、そこまで考えるとかなり難しい点になってくるのかなと。

差別的な価格という点で私が念頭に置いていたのは、例えば日本社会でも映画館などで水曜日は女性だけ安くなりますという価格設定をしているわけです。これは社会通念上すぐ取り締まるような例にはなっていないわけです。同じ形で、障害者割引というのもいろいろな施設にありますよね。これも社会通念上認められているわけです。では、逆に障害者にだけ高い価格をつけますというサービスなり映画館なりが出てきたとしたら、私は社会通念上おそらくアウトとなるのではないかなと思います。なので、差別という点には広い範囲がありますが、取りあえずは明らかな箇所から少しずつ議論を詰めていくということを念頭に置いておりました。

○沖野座長 ありがとうございました。

この中国の事例を題材に本当にいろいろお話ができると思います。石井委員におかれましては、大変貴重な御報告をいただきましてありがとうございました。

では、二之宮委員から御発言があるということなので、これをお聞きしたいと思います。石井委員、もう少し御対応をお願いしたいと思います。

○二之宮委員 感想と質問を一つずつですけれども、相談現場にいる者としては、この27頁、28頁にあるダークパターンの分類ですが、こういう形で整理されると、なるほど、これもダークパターンかというのはよく分かりますし、逆にどういう場面でどういう形で切り込んでいくのか、アドバイスしていくかと、非常に現場の者としたら分かりやすいなと思いました。

他方で、こっそり型の隠れ定期購入とかおとり商法とかというのは本当に毎日のように聞く相談です。この専門調査会は骨太な議論をしておるところですから、ここで取り上げる必要はないとは思いますけれども、やはり別のところでこういったものに対する対応、対策が早急に必要だと痛感いたします。

質問は、ちょっと細かい話なのですけれども、8頁でターゲティングのもたらす問題として、分析・評価というものが個人情報の問題と消費者問題があるというところに関してなのですが、私が誤解していれば教えていただきたいのですけれども、分析・評価してそれを利活用されたときに消費者問題が起こるというのは分かるのですが、石井委員がここで分析・評価自体、そのこと自体が個人情報の問題だけではなくて消費者問題も含んでいるのだと言うのは、分析・評価した結果を利活用することの予備的な行為として消費者問題があるのだと捉えているのか、あるいは分析・評価そのものに消費者問題があるのだと捉えられているのか、今後規律のグラデーションを考えるときにどういうふうに捉えたらいいのか、石井委員のここでこう書かれているところの意味を教えてください。

○石井委員 ありがとうございます。大変鋭い御指摘をいただいたと思っております。

私が消費者保護の問題を分析・評価のところに入れましたのは、パーソナライズドプライシングの規律のところで自動処理決定に基づき価格が個別化されているという部分を表示義務、説明義務として消費者権利指令が出している点にあります。もちろん具体的に弊害として表れるような方向に誘導されることや、何かしら差別的に使う。その場面で一番顕在化するのですが、予備的と言えば予備的になるのかもしれないのですが、自動処理決定の関係で表示義務が入っているので、分析・評価のところも消費者のデータを使ってこういう人だというのを割り出す場面も消費者保護の領域でグリップできる部分があるのかなと思ったということで入れております。ただ、正面から出てくるという話ではないのではないかというのは確かにそうなので、予備的という捉え方もできるかとは思いました。

お答えになっておりますでしょうか。

○二之宮委員 はい。ありがとうございました。

○沖野座長 よろしいでしょうか。

今伺っておりますと、この3つの区分が少し二之宮委員と石井委員とでは違っているようなところもあるのかなと思いました。収集の話と分析評価の話と、それがどういう一種の弊害として出てくるかというところが三つ目の柱で、パーソナライズドプライシングですと、それ自体としては直ちに弊害というわけではないのだけれども、そこからさらに非常に不当な価格での取引へと誘導されるというのが三つ目ということだとすると、一方で、二之宮委員は分析・評価するというところからパーソナライズドプライシングへ持ってくるというのは既に利活用というところで捉えておられるという気もいたしましたけれども、この点はまたさらに今後検討していただければと思います。私の理解が違っているかもしれませんが、しかし、具体的にそれぞれのところで何を問題にするのかというのをもう少し明確にする必要があるという御指摘だと受け止めました。

○二之宮委員 どう捉えるのかというところも一つ私の中で分からなかったのと、もう一つ、予備的とは別にという意味で言うと、あまりにもデータを集めて分析・評価し始めると、それ自体でリスクをはらんでくるので、そこにオリジナルな問題もあるのではないか、データを収集して、分析・評価して、爆発する直前の段階でも捉える必要があるのではないかと。利活用の場面と両方があるのかと。石井委員がどちらで考えられているのかというのが質問の趣旨でした。

○沖野座長 ありがとうございます。

石井委員からさらにございますか。

○石井委員 ありがとうございます。

私の認識といいますか受け止めとしては、分析・評価自体がいろいろなリスクをもたらし得る話なので、どちらかというとどういう弊害が生じるか、例えばデータ情報を収集する、分析・評価する、差別などに使っていくというフェーズに分けたときに、どの分野の規律が出てくるのかというような見方で一旦整理してみたというのが8頁のスライドになります。ですので、予備的な側面も含めて分析・評価のところに消費者保護を入れたという理解です。

捉え方はいろいろとあると思いますし、ターゲティングのもたらす問題でこの部分は調べながらこういう感じかなというので一旦出してみたという項目になりますので、また委員の皆様方の御意見を伺いつつ深掘りできればなとは思っております。

○沖野座長 ありがとうございました。

今、大屋委員と小塚委員からお手が挙がっていますので、簡潔に、大屋委員、小塚委員の順でお願いします。

○大屋委員 ありがとうございます。

先ほど加毛委員がおっしゃったことに対して一つだけ言うと、フィデューシャリーと言ったときに、法益とか価値として使っているときと制度の話をしているときがあって、私は法律が分からないから大体前者の意味で使っているわけですよ。要するに、他者に対する信頼というのは守るべき価値でしょうと。生命というのが法益であって、それを守るために殺人罪の規定とか不法行為法がありますといったときに、他者に対する信頼というフィデューシャリーという価値を守るために、英米の文脈だとフィデューシャリー・デューティーという制度があるから、むき身でそれを出してきてしまうのだけれども、日本法の文脈でいうと、やはり何か具体的な法律に寄せて、どの法律をどの制度で守るのかという話をしなくてはいけない。どちらの話なのかというのを区別して議論しないと、やはりこの言葉の氾濫に苦しめられるのかなと思いました。

以上です。

○沖野座長 ありがとうございます。

では、小塚委員、お願いします。

○小塚委員 私は二之宮委員がおっしゃったことはこういう趣旨かなということなのですけれども、要するにプロファイリングで分析・評価されてしまうというのは、単に例えば価格差別とかという話だけではなくて、意思決定自体をマニピュレートできる立場に事業者側が立つ。そのこと自体が消費者に対する一種の規制されるべき立場だという御趣旨でおっしゃったのかなと感じたのです。

御回答は多分長いのだと思いますけれども、感想だけ申し上げておきます。

○沖野座長 二之宮委員からさらにございますか。

○二之宮委員 時間がないので、また今度。

○沖野座長 石井委員もいわば暫定的にこういう提示をしてくださったということで、非常にいろいろな議論を呼ぶありがたい軸だったと思いますし、二之宮委員は石井委員はどういうお考えですかということですが、どういう検討をしていくかというのは今後まさにやっていくことですし、今回御指摘いただいた点をさらに今後詰めていきたいと思っております。

髙准教授に残っていただいて、かなり関連することもあったと思いますが、何かございますか。よろしいでしょうか。

ありがとうございます。

それでは、予定した時間は超過して恐縮ですが、石井委員におかれましては貴重な御報告をありがとうございました。また、髙准教授も本当にありがとうございました。

委員の皆様におかれても、本当に御活発な御意見、御議論をありがとうございました。


《3.閉会》

○沖野座長 それでは、最後、事務局から事務連絡をお願いいたします。

○友行参事官 長時間にわたりまして御議論いただきまして、誠にありがとうございます。

次回の日程などにつきましては、決まり次第、お知らせいたします。

以上です。

それでは、本日はこれで閉会とさせていただきます。

お忙しいところ、冒頭にも申し上げましたが、この悪天候の中、お集まりいただきましてありがとうございました。次回もどうかよろしくお願いいたします。

(以上)