第3回 消費者法制度のパラダイムシフトに関する専門調査会 議事録

日時

2024年2月13日(火)10:00~12:00

場所

消費者委員会会議室・テレビ会議

出席者

(委員)
【会議室】
沖野座長、山本(隆)座長代理、大屋委員、小塚委員、二之宮委員
【テレビ会議】
石井委員、加毛委員、河島委員、室岡委員
(オブザーバー)
【テレビ会議】
鹿野委員長、大澤委員、山本(龍)委員
(参考人)
【会議室】
中川裕志 理化学研究所・革新知能統合研究センター・チームリーダー
(消費者庁)
【会議室】
黒木消費者法制総括官、古川消費者制度課長、原田消費者制度課企画官、消費者制度課担当者
(事務局)
小林事務局長、後藤審議官、友行参事官

議事次第

  1. 開会
  2. 議事
    ①有識者ヒアリング (中川裕志 理化学研究所・革新知能統合研究センター・チームリーダー)
    ②大屋委員プレゼンテーション
  3. 閉会

配布資料 (資料は全てPDF形式となります。)

《1.開会》

○友行参事官 それでは、定刻になりましたので、消費者委員会第3回「消費者法制度のパラダイムシフトに関する専門調査会」を開催いたします。

本日は、沖野座長、山本座長代理、大屋委員、小塚委員、二之宮委員、野村委員には会議室で御参加いただいております。また、石井委員、加毛委員、河島委員、室岡委員はテレビ会議システムにて御出席いただいております。

消費者委員会からは、オブザーバーとして、鹿野委員長と大澤委員、山本委員にはテレビ会議システムにて御出席いただいております。

なお、会場に野村委員が御出席予定でございますが、今のところ到着されておりませんので、念のため申し添えます。

また、本日は、理化学研究所・革新知能統合研究センター・チームリーダーの中川裕志様に御発表をお願いしており、会議室で御出席いただいております。

配付資料は議事次第に記載のとおりでございます。

報道関係者を除く一般傍聴者の皆様にはオンラインにて傍聴いただいております。議事録については、後日公開いたします。

それでは、沖野座長にここから議事進行をよろしくお願い申し上げます。


《2.①有識者ヒアリング(中川裕志 理化学研究所・革新知能統合研究センター・チームリーダー)》

○沖野座長 ありがとうございます。

それでは、開始させていただきます。本日もよろしくお願いいたします。

早速議事に入らせていただきます。

議事の一つ目が「有識者ヒアリング」です。専門調査会の前半の検討テーマの一つに「デジタル化による技術の進展が消費者の関わる取引環境に与える影響についての基本的な考え方」があります。AIやデジタル技術をめぐる状況はここ数年で大きく変わってきているところ、消費者法制度のパラダイムシフトを考えていく上では、今のAIやデジタル技術をめぐる状況や海外の政策等を理解することは、今後の議論を進める上で大変重要になると思います。

本日は、御紹介がありましたように、中川裕志理化学研究所・革新知能統合研究センター・チームリーダーにお越しいただきまして、「AIの開発・利活用の現状及び今後

欧米(特にEU)におけるAI政策の我が国への影響」というテーマで20分程度御発表いただきまして、その後、意見交換をさせていただきたいと思います。

それでは、中川様、よろしくお願いいたします。

○中川氏 御紹介いただきました中川です。

20分ということだったので、ぱっぱと進めたいと思いますが、いただいたお題はAI開発の利活用における現状及び今後、それから欧米におけるAI政策の我が国への影響ということでした。

1枚おめくりください。

いろいろ御示唆いただいて、デジタルとリアルという言葉が出てきたのですが、デジタルのほうは記号化と考えていただければよいと思います。

2ページ目です。

リアルが参照するものは何なのだろうと。有体物の商品とか、あるいは不動産で土地や建物、これは有体物と思ってもよいかなと。土地は権利なのでちょっと微妙ですが、建物は明らかに有体物です。

一方、デジタルが参照するものなのですが、これは無体物の商品です。情報自体が商品になっているというケースがあります。

金融商品は無体物なので、デジタルかどうか。これは私は法律の専門家ではないのでよく分かりませんが、形はないので無体物でしょう。

ウェブ上の商品情報は明らかにデジタルのほうに属する。それから、ウェブ上の一般向け広告、ウェブ上の個人向けの勧誘、広告、商品情報、個人向けの価格というものがあるわけです。それから、売買契約。ほとんどはデジタルの問題ということになります。

3ページ目です。

古典的問題なのですが、検索エンジンの商品検索に関して順位操作を行うということがよく指摘されております。これは外形的に分かるので、独禁法で当局、日本では公正取引委員会が判断すれば、プラットフォームの指導を行うことになるということです。

同一商品価格の個人適用化ですが、販売条件が結構変わるので、時期なんかも変わりますから、これ自身は違法ではないと聞いております。

商品価格を決定するようなシステムなのですが、同一のシステムが複数社で使われると競合してしまって、結果として価格の均一化が行われるという問題点が指摘されています。同一システムの多くはAIを使っています。

私の知っている範囲だと、ソフトウエア間で情報共有とか意図的な信号授受が行われると独禁法違反。意図的な信号授受がない場合は、違法性はなかなか問いにくいのです。ですから、開発業者に納入するソフトを全部個別化してくれ、各社個別化という強制はちょっとあり得ないと思うので、意図的共有が見つかるか見つからないかの勝負になります。ただ、そういうことを意図的共有しなくても、ソフト自体が異なっていればアルゴリズムの共有的な協調というのは価格の均一化ではあり得るのです。

逆問題になるのですけれども、類似の問題ということでフラッシュクラッシュが正にそういうタイプの問題です。要するに金融市場の価格が分かっているから、多くのAIトレーダーがそれに同調してクラッシュするというタイプで、逆問題になります。

1枚おめくりください。

4ページ目ですが、AIの開発・利活用の現状及び今後についてお話です。個人適用はよく行われていることで、広告の利用履歴の利用ですが、利用履歴の使われ方というのはなかなか不透明なところがあって、裏で流通しているようなのですが、ちょっとよく分からない。

それから、推薦システムなのですが、個人適応は全然うまくいっていなくて、例えば私が沖縄に行くと、翌日沖縄に対する旅行の広告が出てくるというあまり意味のないことがしょっちゅう起こる。全然うまく推薦システムが動いていないなということは皆さんもお感じかもしれません。

対応するためにどうしたらよいかということなのですが、個人の行動を機械学習で予測して対応という話があるのですが、ただ、統計的処理で予測するには、個人一人の行動履歴は非常に量が少ないし、多様性も少ない。結構難しいと思うのです。そうすると、似たような人を集めて量を増やす推薦システムは考えられるのですが、これはまた結局のところ粗い結果しか出てこないということになって、技術側も相当大変なのだろうなと思います。あまりうまく動いていないというのが実情だと思います。

5ページ目に参ります。

次に、もっと正確な個人情報を集めて、名寄せして精度を上げたい。要するに個人情報をプラットフォーム1個だけではなくて、たくさんのプラットフォームが持っている情報で名寄せしてあげると、個人とはいえたくさんの情報になるので精度が上がるかなということはあります。もちろんプラットフォームの企業グループの中では情報共有してもよいのかもしれませんし、名寄せできますが、企業グループ間のデータ移転をすることは目的外利用になりますから、これはいけないだろうということです。

ただし、例えば参加するときにフェイスブックの規約を読んだのですが、他社に対する利用を許すと明らかに書いてあったので、これはそう書いてあるから、コミットした以上しようがないかというところはありますが、なかなかそんなことを書いてあるところは多くはないようです。

個人側が対抗策としては開示要求をするという手はあるのですが、実効性が果たしてあるかという問題です。ちなみに開示要件は、GDPRではデータポータビリティーの権利を第20条にうたっています。それから、データ主体によるアクセスの権利が第15条というところにかかっている。

日本の個人情報保護法では、開示請求が第28条に書いてある。一応開示請求は個人からできるわけなのですが、なかなか個人単位でやるというのも、ハードルは一般人にとっては高いかなと思います。

それから、他のプラットフォームへのポータビリティーの可能性です。要するにグーグルからアマゾンにとか、逆とか、そういうプラットフォーム間を渡ってしまうというのは非常に重要なことで、ポータビリティーの権利としてあることはあるのですが、プラットフォームが反対しそうなので、実効性のある法制度をつくれない。したがって、個人の情報を名寄せして集めるとかということで精度を上げるということは、しばらくの間は期待できないだろうなと思っております。

6ページ目に参ります。

個人のデータ開示要求ということは、一応キーポイントになるのですが、開示されて果たして内容を理解できますかという問題があるのですね。つまり、自分の購買履歴をずらっと出されても、これは何だっけみたいなことで思い出せない。ないしは、果たして読める格好での開示データになっているのか。あるいは、紙の格好で送られるなんて最悪ですが、そういうことも起きないではない。結局、どうも開示されても内容を理解しにくいとなると、プラットフォームがトラストできますかという問題に帰着してしまうのではないかというのが現状の状況を見た私の見方ということになります。

将来技術としては、個人でやり取りをするAIを利用した知的なユーザーインターフェースを各プラットフォームが持ってしまうということがあります。これはパーソナルAIとか、そういったような技術が出てくるのではないかと思っていたのですが、実はグーグルがクッキーの代わりにサンドボックスというシステムを導入するということをニュースで読みまして、よく見るとデータをスマホとかPCという個人の手元に置いて、プラットフォーム外部から利用するという方法なので、クッキーより推薦性能の向上は起きるかもしれないけれども、これがよいか悪いかは今後法律的な問題があります。明らかに個人はオーケーした上でプラットフォームに情報を出すのでしょうから、そういう意味では、対策としてはグーグルはそういうものを考えてきたなと思うところです。

個人の代理をするパーソナルなAIを個人単位で持ってしまう、要するにプラットフォームのインターフェースではなくて持ってしまうというような方法を考えてもよいのですが、ただ、このパーソナルAIはいろいろなことを個人の代わりにやってくれてしまう。例えば旅行の予約とか、場合によっては今の時期ですと税金を納める計算をするとか、そんなことをやってしまう。それを自律的にやられると代理人になってしまう。明らかにプログラムですから代理人というのは無理だということで、個人情報がこんな情報を入力しようと思っているのだけれどもよいのみたいなチェックをするくらいのことはやってくれるかもしれない。それでもうっかり個人情報を出さないという意味では役立つかもしれない。この辺が技術的には可能なのですが、その先に法律的にどのような制約がかかっているかは私には分かりませんが、技術的にはそんなところになると思います。

7ページ目ですが、こういったシステムは東京大学の橋田教授が提案して、PLR(Personal Life Repository)というものをつくって、それをあちこちで使おうということで、理化学研究所でもクロスアポイントメントで来ていただいているので、一生懸命研究しているところです。世界的にはフィンランド発のMyDataという流れがありまして、これは個人の情報を個人が持つということをポリシーとして掲げて動いていますが、メジャーかと言われると微妙なところもあります。

日本にはその支部としてMyData Japanというのがあるのですが、これも当初立ち上げたときに比べてあまり会員数も増えないし、いまいちかなということです。MyData Japanは理事長が御存じのように崎村さんなので、個人IDのプロトコルみたいなことに興味がおありな方ですから、ちょっと違うかもしれない。方向性としては、自分データ、自分管理には直接的に進まないように見えます。

8ページ目に参ります。

AIの開発・利活用の現状及び今後なのですが、生成AIは避けて通れない。購入などについて疑問や質問ができますよということは、生成AIを使うとあり得るわけです。最近はいろいろ出ているのですけれども、ChatGPTだけではなくなってきて、グーグルバード、グーグルはバードからジェミニという名前に変わったので、早速昨日使ってみたのですが、今のところ差はないのですが、だんだんよくなりますよとは書いてありました。

これは消費者の立場からすると、検索能力が高いエンジンが背後に控えているほうが絶対強力なわけで、そういう意味ではChatGPTよりもむしろグーグルバードとかジェミニといったほうが能力的には高くなってくるのではないかと予想します。既に能力が高いとおっしゃっている先生もいらっしゃいます。

ChatGPTはどちらかというとプログラム作成の代わりをしてくれるとか、帳票を作ってくれるとか、要約してくれるとか、検索回りとはちょっと違う方向ですみ分けするようになるのだろうなということです。

実はグーグルには画像検索で商品検索するという能力がありまして、工業製品は非常に正確です。私の見たところ100パーセントです。ただ、絵画の検索は不得意ですということで、次のページを見ていただきますと、サンプルを自分の持っているものでやってみました。あまり美しくないものでどのぐらいできるかということで、わざとあまり美しくないものをやったのですが、一番左側にあるのがマグカップなのですが、10年以上前に買ったものです。ただ、見せたら、メドレービセンザマグで、4,000円くらいですよと瞬時に出てきました。それから、三菱の加湿器は理研で使っていたりするのですが、これも瞬時に出てきました。それから、これはできないだろうと思ったのが、GT.HAWKINGSの今も履いている靴なのですが、もう10年くらい使っているのですが、ぼろぼろなのですが、それも一瞬で1万円くらいということで答えが出てくる。非常に優秀です。ですから、工業製品については非常に優秀です。

一方で、めくっていただくと次は絵です。こんな絵を検索して、これに近い絵はありますかみたいなことを言うと、全然出てきませんでした。これはどういう絵かというと、ギリシャに出張したときに、島で描いている絵描きさんが絵を売っていたのです。それを買ってきたのだけれども、そういう一品物というのは不得意だなということで、こういうところはさすがに難しい。類似の絵は全然出せなかったということで、工業製品と個人製品とは全然違う状況を呈しているということは、我々は頭の中に入れておいたほうがよいなと、このスライドを書いていて非常に強く思ったところです。

技術とデータに強いプラットフォームの役割ということで、11ページ目に参ります。

リアルとデジタルの両方を扱えるプラットフォーム、例えばアマゾンは貴重な存在なのです。デジタルから得たイメージとリアルな物の乖離の問題というのは、今言ったようにあったりなかったりするのですが、これがどこまで対処できるかはプラットフォームの技術的力量によるわけです。意図的にだましていることが明白だったならば、景品表示法で引っかかると思うのですけれども、さっきの絵のようにプラットフォームで技術力不足なのかなということも考えられなくはない。そこら辺の見極めは難しいでしょう。景品表示法に引っかかるかどうか。法律家の方はよく御存じかもしれませんが、ここは技術不足なのか、意図的なだましなのか、外形的に判断するというのは結構公正取引委員会も御苦労されるのではないかなというところもあります。

これまでは大手のプラットフォームの話をしていましたけれども、実は技術とデータについては大手のプラットフォームの傘の下に入らないと商売にならない中小事業者もいっぱいいるわけで、ここは結構難しくて、例えばグーグルプレーとかアマゾンのプラットフォームにアプリを入れようと思うと、いろいろうるさいことを言われるみたいな問題があるのです。

ただ、それも一筋縄ではいかない問題で、ちゃんとそのセキュリティーをチェックをしているとか、いろいろな技術的なことをプラットフォーム側としても人的資源、コストを非常にたくさん入れているということもあるので、どこまで追求すればよいかというのはあまり簡単に判断できない。つまり、技術的な問題なのか、そうでない問題なのか、意図的に悪さをしているのかということは、なかなか判断がしにくいなというのが、今日の結論と言えば結論です。

ここまでが一まとまりです。

次にデジタルのみの世界、デジタルはたくさんあるので、デジタルのみの世界についてお話をしようかなと思ったところです。証券、債権、保険、為替、売買、内容もともに全部デジタルです。貨幣は結局デジタル情報になってしまっているのではないかというのが現状だろうと思います。証券、債権、保険、為替、歴史がある分野だけに消費者保護といったものについても仕組みもかなり整備されておりまして、金融商品取引法(金商法)も改正をされたりしていろいろと頑張っているということは大変よく分かります。

ただ、投資を政府自身が、政府というか首相自身が推奨しているので、さてその推奨に堪えるほどの制度になっているのですかというのは、私は判断が難しいところだなと思っています。

むしろ我々のような技術的なことをある程度知っている人間からすると、証券のAIアドバイザーとかロボ・バードバイザーがはたして消費者保護とどういう関係にあるのだろうということが調べているうちにだんだん気になってきてしまいました。特にAIアドバイザー自身が個人資産を個人の代理として投資するようなケースはあると思うのですが、そうするとリスクを説明するAIインターフェースが必要なのですが、これが果たして証券会社の得になるような格好になってしまっていないか、公正なものになっているかどうか、ここは十分に注意する必要があるポイントかなと思ったところです。実際これがうまくレギュレーションをかけることができて、外形的に判断できるかというのは非常に難しい問題であろうかと見えます。法律的な問題としては、法律を正しく実現している技術であるという判断をどうやってやったらよいのだろう、こういう問題が出てくると思います。

13ページ目です。

そういったことについていろいろ調べていると、日本銀行の研究所がアルゴリズム・AI利用を巡る法律問題研究会という研究会を立ち上げていまして、そこで投資判断におけるアルゴリズム・AIの利用と法的責任という非常によいドキュメントを論文という感じで出していました。実は委員の加毛委員もお書きなので、素人の私が話すのは非常に恥ずかしいというか、怒られそうな気もしますが、関係はありそうなのでちょっとだけ簡単にお話しします。

アルゴリズム・AIを利用して自動で取引を行い、個々の投資判断の時点で人間の判断が介在しない場合を問題にしていろいろ進めているということです。現行法では、アルゴリズム・AIそのものには、独立の権利主体としての資格がありません。法的には、当該アルゴリズム・AIを利用する特定の主体が投資判断・運用を行っているということになるのですが、アルゴリズムを直接利用しているのが投資家なのか、事業者なのかという点が微妙に利いてくるかなということです。

この場は投資家が消費者になると思うのですが、アルゴリズムを知るべきだとは私は思いますけれども、そして法的にも知る権利があると思いますけれども、仮に知ったとしてもそういうアルゴリズムを果たして理解できるのでしょうかという問題です。非常に難しいアルゴリズムを使っているということは何となく理解できるというか、過去のデータを非常にたくさん使って、学習型のアルゴリズムにしていたとき、それは理解できるのですかという問題がありまして、結局はそうすると投資会社なりAIアドバイザーの過去の履歴を見てトラストする手しかないのではなかろうかと思えてくるというのが実態ではないかということです。

ちなみにこの論文では相場操縦とかインサイダー取引についてもいろいろ書いてありますが、これは今回とは違う話かもしれないので、特段の意見はありません。

ちなみに投資という意味で10年前くらいに猛威を振るったフラッシュクラッシュ現象なのですが、これは複数のアルゴリズムの競合現象として理解されています。最近あまりニュースにならないのは、起こっているけれどもしょっちゅう起こり過ぎてニュースにならないのか、うまく規制が働いているか、日本銀行はいろいろ規制をしているということは文書を読むと分かるのですが、それがうまく動いて、それから業者も自滅するのは嫌だからということで、AIトレーダーのコントロールをしている可能性もあります。

本当にコントロールし過ぎると実は、信号授受とか意図的な共有とかいうことになってしまって、なかなか微妙な問題になっているのだろうと思いますが、大きな被害はあまり報告されていないなというところです。知らないだけかもしれません。

次に14ページです。

結局トラストと申し上げてきたのですが、トラストはどういう構造をしているのだろうということです。これは大屋委員がお詳しいので私が言うのも何なのですが、一つにはAIの説明可能性ということが問題であります。ただ、説明したものが理解できなければ意味がないということで、理解可能な説明をつくりますよということです。理解可能な説明がユーザーに見えるというのは透明性ということで、透明性を非常に重視するのですが、実はそれだけではなくて、補償する責任がどこにあるのだということも含めてユーザーに見えなければいけないという意味で、透明性は二つにかかってくるということです。この両方を合わせてアカウンタビリティーという概念になるのですが、アカウンタビリティーはこの絵から見ても分かるように非常に複雑な構造をしているので、一般消費者に分かるかと言われると、これもまた疑問なところもあるということで、最後はトラストしてしまうのかなと思います。トラストの問題をどう考えるかは非常に難しい問題としてどうしても残ってくるところです。

ちなみに理解不可能なようなことを書いてしまいました。理解可能にする努力はいっぱいしておりまして、例えばディープラーニングの結果を見せられても誰にも分からないのですが、分かりやすい分類木、年齢は20歳以上か、お酒を買ってよいかどうかという話。あるいは、非常に複雑な青色の部分を選びたいということがあっても、部分的には直線で近似できますよみたいなことをやって、ある程度意味を理解するというような努力はしております。ただ、現実問題あまり成功していないことと、これ自身が現実の現象というかプログラムの近似に過ぎませんから、間違いも発生するということは理解しなければいけないということです。

16ページです。

投資運用事業者が利用した場合の問題点なのですが、AIが関与するアルゴリズムを投資運用事業者が十分に知っていて作ったアルゴリズムか、作らせたアルゴリズムか、ここはよく分からないです。現在のAIは既存データ、過去のデータに依拠するのですが、必ずしも予見可能性が高いとは言えない部分があります。したがいまして、頑張ってみても、確率は低くてもミスは絶対あるよということは、認識としてはみんな共有しているのだけれども、そこをどの程度に評価していくかというのは、消費者法の観点から見てどういう辺りに落ち着かせるのがよいのかなというのは、皆さんにお考えいただくべき問題かもしれない。私には何とも言えないところもあります。

それから、投資運用事業者がAIの損失の理由、例えば過去データの依存性を十分に理解し投資家に伝えたとして、今度は投資家のほうが理解できるかというところもあります。相当難しいので、結局過去の成功経験があればトラストするということがあって、同じようなことを繰り返してしまうことになるかもしれない。これは消費者法のシステム的問題なのか、それとも昔から知られている外部要因の問題なのかということが、切り分けをしなければいけない。これは古くて新しい問題かもしれません。

ちなみに生成AIについては、投資家が生成AIの助言も使って判断することは、投資家の責任でしょうということになるということです。

17ページです。

これごちゃごちゃ書きましたが、青いところだけ読むと、当該投資運用事業者がアルゴリズム・AIを利用する場合、その結果として生じた損失について、投資運用事業者がいかなる責任を負うか、技術的には必ずしも明らかでないというのは、AIの判断はそれが投資家の意図的な何かとどういうふうに切り分けられるかはそう簡単に分からないのです。

技術的問題は外部環境による損失か、アルゴリズムによる損失かを切り分ける方法すら、実はあまりよく分からないというのが現実問題としてあります。

アルゴリズム・AIによる投資判断だと取引に関して消費者に理解可能な説明ができますか?技術的には難しいし、さらに消費者にさらっと分かってもらえることができますかという問題が結構シビアではないかなと思っているのですが、技術的にも非常に難しくて、よいアイデアは私自身も持ち合わせません。研究されているのでそのうち出てくるかもしれませんが、現状ではちょっと分からなかった。

それから、現在の生成AIの能力を見れば、投資運用事業者が生成AIに投資判断の説明を要約させるなんていうことも考えられなくはないです。ないしは言い換えさせる。ただし、現在の生成AIは信頼性に疑問があるので、ないよりはまし程度にしか今のところは動かないかなと思いまして、これは将来、生成AIがどのぐらい能力を高めるかということと関係が出てくる部分にはなると思います。

次に参ります。

デジタルというと暗号資産とかNFTという売買可能な内容もデジタルなものがあります。怪しさが横行して、素人の消費者にとって危ないこと極まりないなという感じがありますが、消費者保護について有効な規制の仕組みはまだないのかなと思って見ていると、金融商品への投資事業者への一任契約の制約が、暗号資産、NFTに対応するような仕組みになっているかどうかということになるのですが、2019年に法改正があって、一応それなりに勧誘規制等を整備したということがありますが、消費者側の理解が果たしてできるかというさっきの問題にまた戻るのです。

ちなみに、私もあまりよく知らなかったのでChatGPTに暗号資産について聞いてみたのですが、ぐちゃぐちゃと書いてあるのでお読みいただくこともないのですが、当たり前のことが難しく書いてあるという感じがしないでもない。例えばブロックチェーンがどういうものかと言われたら、仕組みをきちんと理解している人は本当に少ないですねということで、なかなか大変。

それから、暗号資産に投資の危険性についての回答はありますか?ということを聞いてみた。そうしたら非常に常識的な答えしかなかったので、これもがっかりという感じです。

最後、欧米、特にEUにおけるAI政策が我が国に対してどういう影響を与えるかということもお題としていただいたので、実は私はあまりよく分からなかったのですが、調べた範囲ですと、外形的に明確なプラットフォームの行為の禁止は法律によって行っているのだけれども、技術的実装はよく分からない。AI Actというのが去年欧州議会を通過したのでした。禁止AI、ハイリスクAI、低リスクAI、最小リスクAIというふうに4分類しているのですが、これが消費者にどういう影響を及ぼすかはよく分からないのです。禁止AIは禁止してしまうからよいというか、禁止だからはっきりしているのですけれども、ハイリスクAIなんかは非常に微妙で、自動運転はハイリスクAIになってしまうのです。それから、自動運転に対して、交通環境のインフラ、道路の整備もAIを使えばハイリスクAIに入ってしまうのです。この辺は我々の生活に直結しているので、なかなか難しい問題があるなと。

低リスクAI、企業がそれなりのことをしなさいと。最小リスクAIは、企業のコード・オブ・コンダクトと言いますが、コード・オブ・コンダクトがうまく働けば非常に強力ですが、どのくらいできるかよく分からないので、消費者への影響は、法的影響は特にまだよく分かりませんし、AI法が実際成立しても、これを実際に動かすガイドラインがまた2から3年かかってしまうという話なので、ここを見ないと何とも言えないなと思っています。

それから、プラットフォーム規制なのですが、GDPRにはダークパターンによる同意は無効だというような文言がありました。ダークパターンについては、大屋委員も後のほうでお話になるようなので簡単にという感じですが、Digital Market Actは、ベリーラージなプラットフォームにプロファイリングによる広告禁止をしているということは既に法律として分かっているので、ブリュッセル効果があれば、日本にも影響があるでしょう。

Digital Service Actのほうはもうちょっと具体的で、プラットフォーム、ダークパターンに対する種々の規制をかけています。それから、プロファイリングについての広告、特に子供向け広告を禁止するとかいうようなことがありますので、これもそれ自体を見習うべきかどうかという問題は、消費者法との関係に入ってくるところかもしれない。日本ではDMAとかDSAとかはないので、どの法律に取り込むかという問題はあるかもしれません。

ちなみに、こういったことは私は全然専門家ではないので、小向太郎教授のジュリストの2月号、最新号に出ていた「GDPRとEUのデジタル政策」というところが非常によくまとまっていて勉強になったので、私はこれを見てオウム返しをしているだけのような感じもあります。

欧米の法律、特にEUの法律は域内の法律なのですが、域外適用もありますが、これはブリュッセル効果なのです。間接的かつ強力な域外への影響力を持つということはよく知られているのですが、これは日本のメーカーに直接影響することは明らかです。ただし、日本の消費者にどう影響するか、消費者法との関係というのはちょっとよく分からないなと思いました。私も全然イメージがつかめなかったのですが、特に技術的観点からの影響はまだ明確には分からないなというところが、オーダーをいただいてから調べた範囲で努力はしましたが、この程度のところで御勘弁いただければということでございます。

以上です。

○沖野座長 中川様、ありがとうございました。

それでは、早速ですけれども、ただいまの中川様からの御発表内容を踏まえて、質疑応答、意見交換をしていきたいと思います。

○中川氏 すみません、一つ。その後ろにも付録をいろいろつけましたが、画像の生成AIやテキストの生成AIについていろいろと情報があるものをまとめた資料も後ろのほうにくっつけていたので、参考書とかも書いてあるので、よければ御参照くださいという程度のものなので、本体はここまでです。

○沖野座長 ありがとうございます。プレゼンテーションを途中で遮ったような形になりまして、失礼しました。

では、付録についても御説明をいただき、御参照ということですが、この中でも具体的な御質問などありましたら対象範囲ということでお願いをしたいと思います。

会場では挙手を、それからオンラインの方はチャットでお知らせをいただきたいと思います。

現在、既に河島委員から発言希望が出ておりますので、まず河島委員から御発言いただきたいと思います。

○河島委員 中川様、御報告ありがとうございました。いつもお世話になっております。

一点質問と一点確認であります。

まず質問ですけれども、個人情報の話はしていただきました。御存じのように画像データや低品質のデータに関してはまだ枯渇しないでしょうが、高品質の言語データは2026年にも枯渇して、AIの発展のボトルネックになると指摘されています。このボトルネックをどのように考えればよいのか、ファインチューニングでどこまで行けるのかということも含めて教えていただければ嬉しく思います。技術の動向は消費者法全体を考える上で非常に重要ですし、中川様は自然言語処理の専門家でもありますので、御見解をお聞かせいただければと思います。

もう一点、確認なのですけれども、データをユーザーの手元に置くか、それとも開発企業が現状よりもデータを網羅的に収集するのかということはさておきまして、パーソナルAIエージェントが今後さらにエージェント性を増して普及することが見込まれます。

そうした時代を考えたときに、消費者の脆弱性を支援するAIエージェントの側面が強化される一方で、中川様の御発表にあったように、あるいは2023年12月にOpenAIの研究者たちがホワイトペーパーで書いたように、AIエージェントの機能を逆に制限するという議論がこれから活発化してくると見ています。根拠なしにAIエージェントに何でも任せるということを食い止めないといけませんし、AIエージェント自体をモニタリングする別のAIが必要とされたり、あるいは消費者に用心深さを促すようなインターフェースが求められてくるのではないかと思っています。

今回の御発表のメッセージは、消費者法の枠組みの中で、AIエージェントがもつ消費者の脆弱性を支援する側面と、AIエージェントの機能制限の側面の両面に目配りしなさいということなのかと受け取ったのですけれども、そういう理解でよろしいでしょうか。

○中川氏 御質問ありがとうございます。

まず、AIのデータの枯渇の問題、LLMがどうなるかという話なのですが、LLMに使えるデータがどのぐらいかというのは、地球上のデータでインターネットのものを集めるという作業はいずれ終わってしまうということがある。ただ、一つ言えることは、言語ごとに得手不得手があって、日本語はまだあまり進んでいない。これについては、日本語固有の表現に対応できるようなLarge Language Modelsをつくろうという動きが国立情報学研究所で黒橋所長主導の下に進んでいる、あるいは会社でも幾つか計画がある。そうすると、日本語固有の性能のよいものは出てくるのにも1から2年はかかると。

ちなみに韓国では既にそういうものが存在して、アプリケーションもあるということで、2年くらい遅れになっている。私はこの間、韓国の話を聞いてびっくりだったのですが、日本も頑張らなければいけないということはあるのですが、そのようなLarge Language Models自身が、皆さんがお使いいただけるようになるかというと、その段階でLarge Language Modelsを公共のものとして使っていたChatGPTとかいうタイプのものではなくなって、企業内で使うことになるでしょう。企業内でLarge Language Modelsをもらってきて、それに対して自社の機密情報をプラスしてファインチューニングするとか、In Context Learningするとか、いろいろな方法があるのです。

そういったことで、分野適用、企業内適用ということをするというのは、ここ2から3年の中でどうも進みそうだなということはニュースを見ていても分かるし、技術的にもそろってきているなという気がするので、それがどの辺まで落ち着くかというのはよく分からない。それから、言語だけではなくて、画像なども企業の情報として設計図とかデータベースとかいろいろあるので、これはなかなかそう簡単に収まる気配はないなというのが一番目の質問に対するお答えです。

二番目、パーソナルAIの話です。利用者の脆弱性をカバーする、ただ、あまりやり過ぎると制限という話もおっしゃるとおりでありまして、あまり便利だとそれに頼りきりになってしまうということは危険なのではないかと思う。これは去年の今頃、僕は学会で発表したのですが、要するに調べてみたのです。そうすると5割方の人がそういう危険性に気がついている。自分としては頑張るけれども、自分はリテラシーがあるから何とかなるけれども、社会一般にはみんな流されてしまって、PAIに頼りきりになってしまうのではないかという恐れを抱くという意見の人が4割くらい、そのような社会調査もやったのですが、そういう意味で、パーソナルAIが人間のディシジョンに介入し過ぎるとうざったいではないですか。けれども、介入しないで何かおかしなことが起こっても嫌ですね。ここら辺のインターフェースの設計が一番難しいところで、今日の消費者法でも同じような問題がトラストのところで出てくると思うのですけれども、介入の仕方をどういうインターフェースにするかということがパーソナルAIが出てきたときにも一番重要なポイントになるのか?なかなかそれが研究成果として難しいし、アカデミックの研究になりにくい部分でもあるので、ここら辺を注目していかなければいけないのですが、河島委員のおっしゃるような問題に関しては、今のような状況が現状と僕は見ております。

○河島委員 ありがとうございます。勉強になりました。

○沖野座長 ありがとうございます。

それでは、そのほかの委員から。では、二之宮委員、それから小塚委員の順でお願いします。まず二之宮委員、お願いします。

○二之宮委員 二之宮です。御説明ありがとうございました。

消費者がAIを今後どんどん使っていくといったときに、御説明を聞いていて、ある一つのAIの中身はブラックボックスであって説明することは難しい、説明を聞いても理解するのは難しいだろうというのはよく分かりました。

消費者が複数のAIのうちどれかを使う、選択するという場面を考えたときに、複数のAIを利用した場合の結果の違い、なぜそういう結果が生じるのか。これはシステム的にどうなっているのか、原因あるいは理由を説明することはできるのか。

例えば投資判断に対するAというAIとBというAIがあって、それを利用した投資家が利益と損失をどれだけ生じたのか、これは測定ができると思うのですけれども、AとBのAIが生じさせた違いの原因、理由はここにあるのだということを説明することは、一つのAIの中身よりはよりしやすいのか、この辺について教えてください。

○中川氏 恐らくしやすいだろうと思います。違いというのは必ず出てくるわけなので、その違いがどういうことで起きたかということを、中身を見て説明することはできないのだけれども、過去にどういうことがあったかというところから引っ張り出してきて、こんな事例もあったのできっとこうなっていますよ的な説明は、今の生成AIの技術を使えばできるだろうと思います。

○二之宮委員 ありがとうございました。

○沖野座長 小塚委員、お願いします。

○小塚委員 ありがとうございます。

既に質問されていることと同じことかもしれませんが、二つに分けてお聞きしますが、まず一つは言わば悪質な事業者的なところがAIをファインチューニングして、常に最終的には自分の提供する商品とかサービスに誘導するというようなことは技術的に可能なのか。そのAIもファインチューニングしたつもりが、学習していくうちに実はそういう誘導が利かなくなっていくということもあるのでしょうかというのが一方の御質問です。

裏側は、同じことをお聞きしているのですが、今度、消費者側に、消費者の能力をサポートするためのAIを考えて、消費者の利益になるようなファインチューニングをするというときに、どれぐらいそれが労力とかコストがかかるのか。つまり、例えば消費者団体だったらできるというようなものなのか、消費者庁なのか、消費者向けのAIをリソースを投入してつくらないといけないレベルなのか、あるいは商業的に可能なのかとか、投入したところで、今日最初のほうで中川様がおっしゃっていましたけれども、非常にざっくりした平均的消費者の利益を守るというものになるのか、一人一人にかなりパーソナライズして、この人の行動、陥りやすいミスをカバーするというファインチューニングも可能なのか、その辺りの見通しをいただけますか。

○中川氏 ありがとうございます。

まず最初のLarge Language Models、ファインチューニングして可能かどうかという話ですが、これは技術的には可能だと思います。ファインチューニングの場合は、非常にきれいなデータを万のオーダーで集めるということをやって、これはなかなか大変なので、技術的にそれを避ける方法として、In Context Learningで質問をして、出てきた答えを順位付けするという方向で、よい答え、悪い答えを選別していくというタイプの技術がもう進んでいるので、ChatGPTもそういった技術でおかしな答えが出ないようにという努力をものすごくしているはずです。

ただ、これは人海戦術による。要するに良い悪いは人間が決めますから人海戦術なので、そこでお金がかかっていて、ChatGPTは英語が話せて、かつ賃金も安いケニアで人をこき使ったという話になっていますが、人海戦術だよという問題があるのです。そこをAIでできてしまうとよいのですけれども、調べている範囲ではそこまではまだ技術が進んでいないようです。

それから、結局消費者に対して役に立つ情報は、データを誰が持っているかということに尽きると思うのです。もちろん消費者委員会がデータをたくさん持っているのであれば、それを使うべきだと思うし、あるいは消費者のグループがデータをたくさん集めているのであればそれを使えばよいということで、結局、持っているデータ、かつ個別消費者の意見に近いデータをいかにうまく集めるかということ、集め方に成功したところが行うべきです。

ただし、そういう言葉で書かれたデータはあまりきれいではないのです。美しくないデータをそれなりに機械学習にかかるように直すという作業が実は非常に大変なところで、ちなみにファインチューニングでは何が大変だったかというと、機械学習にかかるだけのきれいさを持ったデータにするために、物すごくコストをかけた。ここでもうやっていられないという話になったぐらいですから、実はAIではなくて本当に自然言語処理のところでデータをきれいなデータに直す、専門的にはクレンジングすると言うのですかね。そういうことをする技術を持っているメーカーが介入してこざるを得ないし、普通のメーカーではなかなか難しくて、本当に自然言語処理をよく知っているメーカーないしは研究所、そういったところが介入せざるを得ないので、そういう問題を見た上で、さて誰が一番よいデータを持っていますかというところを見ていく。それを主導するのは消費者委員会でできるかもしれません。

最後、パーソナルAIがそういう問題に対して自分で対応できるか。これは私も考えたのですが、なかなか難しい。つまり、パーソナルAIと言っても、単にスマホなりPCなりにいるソフトウエアかと言われると、どうもそういうつくりでは駄目なのです。どちらかというとパーソナルAIを提供してくれるプラットフォーム技術者たちが次々に最新バージョンのインターフェースをプラットフォームとして開発し,ユーザーはそのインターフェースだけ使いに行くという手もあるわけです。もちろん個人データですから、外へは出さないよという格好で進むのだけれども、そうなると、さっきお話ししたグーグルのサンドボックスに非常に近い構造になってしまうということで、プラットフォームがどれだけ技術を頑張るかということにむしろかかってくるし、プラットフォームに対して消費者からどれだけ物を言えるかということになってくるという辺りが現状、私の観察した結果についてのお答えになります。

○小塚委員 ありがとうございます。非常によく分かりました。

○沖野座長 ありがとうございます。

そのほかにいかがでしょうか。よろしいでしょうか。

私からお伺いさせていただいてよいでしょうか。一つは、いろいろなデータ等の開示、あるいはシステムの開示ということを言われて、しばしば消費者が理解できるのかという問題があることが指摘されました。それは全くそうだと思うのですけれども、既にいろいろなものが、たとえばこの時計がどう動いているのかと言われても理解できない。けれども、別にそれ自体は私にとって生活に問題はないということがあって、一体消費者は何を理解しなければならないか、あるいは何を消費者に示さなければいけないかというところをガイドラインなどで打ち立てるということが1つは考えられるのではないかと思っております。

もう一つ、ファインチューニングあるいは自己学習型のものというときに、何が出てくるかは正直分からないのだけれども、しかし学習やチューニングに当たってこういう点を重視すべきだとか、先ほど悪用しようと思ったら悪用方向に向かって押すことができるとすると、悪用しない方向に押すこともできるのか、そのレベルのガイドラインをつくれるのかという問題と、つくったときにそれを遵守しているということを検証できるのかというところがご質問したい二つ目になります。

三つ目は、一つ目とも関連しまして、結構個別の検証は難しいということになりますと、信頼できるかどうかだと。例えばプラットフォームに多くがかかってくると、そのプラットフォームであればこういうことを遵守してもらいたい、あるいは一定の適格プラットフォームであるというようなことができれば信頼できるという、信頼を付与する機関とかシステムとか、そういうことを考えていくことになるのかなと思っているのですが、その将来というか、それ自体が果たして可能なのか。あるいは、遠い将来可能だとして、そのときに何か、今、一歩を踏み出すとするとどういうところに注意をしたらよいか、こういうことが可能性としてあるかといった辺りはどうだろうかというのが三つ目です。

以上、三点です。

○中川氏 非常に難しい問題です。

最初の消費者がおかしなことが起きているかを知ることができますか、どうですかという問題です。もちろん腕時計の例でお話があったように、中身を理解することはまずできない、これはもう前提とせざるを得ない。

そうすると、自分に起こっていることは、過去に行われていた取引なりなんなりに比べて明らかにおかしいかどうかという比較をするような形でしか理解できない。例えば公正取引委員会も恐らく外形的基準で判断するので、例えば検索エンジンの検索順位が明らかにおかしい、自分の会社のものだけ上がっているのではないのと言う。そのような外形的な判断を行うようなシステムを作る必要がありますねと。

データがたくさんあれば、それこそ機械学習で、この場合はノーマルな状況ではおかしいよということを教えてくれるというようなシステムは、今のAI技術だと作れそうに思います。ただ、データがたくさんないと駄目なのです。消費は個別状況に非常にたくさんの多様性があるということも含めると、データの問題になってきて、比較できるデータが集められますかという問題です。これが一番目の問題に対するお答えです。

二番目、ファインチューニングを悪用しないためにはどうしたらよいか。悪用しようと思えば逆に幾らでもできるわけで、例えばChatGPTでも初期は相当ひどいことが平気で出てきて、自殺の仕方を簡単に答えを教えてくれたりとか、最近はそういうのは全然答えてくれなくなった。つまり、一般的なユーザーに対して受け入れられるためには、社会的に見て反社会的な答えがぼんぼん出てくるようなものになってしまうと企業のレピュテーション自身を落とします。ChatGPTはOpenAIですが、ああいったところはレピュテーションが起きれば途端にユーザーが離れますから、そういうことは一生懸命頑張るだろうなという気もします。あるいは、プラットフォームが行っているものについても、レピュテーションリスクに彼らは敏感なので、ある程度それを信用するしかないかなと思います。

ちなみに、マイクロソフトでは10年以上前にTayというシステムでChatGPTのようなものを作ったのですが、学習機能きちんとしなかったために、使い始めてすぐにヒットラーを礼賛するような言葉をしゃべるようになってしまい、直し方が分からないということで、もうすぐにシャットダウンして、それ以後復活していない。それのリバイバルのような感じが、私から見ればChatGPTな気がするので、OpenAIはそこはうまくやっているなと思うのです。それが二番目です。

三番目、トラストをどうやって実現するか、これは非常に難しい問題で、法制度の中にどうしていくかということは、最後にお話ししたEUを例に取れば、DSMとかDAMとか呼ばれているタイプの法律があります。こういったものをどのように取り込むべきなのかどうか。それを調べて、この部分は取り込んだほうがよいよと。例えばプロファイリングをむやみにやってはいけませんみたいなことを書きましたが、そういった問題であったり、ダークパターンについての問題、僕はダークパターンのことを大ざっぱにしか知りませんけれども、そういった問題は割合外に見えやすいので、プラットフォーム規制の中にEUと同じように取り込んでいくということを日本で行うことも一つの方向性としてはあると思うのです。ですから、法律で対処しやすいタイプの問題ではないかと思いました。

○沖野座長 ありがとうございます。

山本龍彦委員から御発言の希望がありますので、お願いします。

○山本龍彦委員 ありがとうございます。お時間がない中で大変恐縮です。

一点はコメントで二点目は御質問なのですけれども、一点は、ブラックボックス問題はさっき沖野座長も御指摘のようにAIに限った話ではないということで、例えば自動車もそうであろうと。我々もなかなか中のメカニズムも分からないで乗っているというところがあるわけで、何をどこまで伝えていくのかということは確かにあるのだなと思いました。

ただ、これはコメントなのですけれども、自動車の例を挙げると、メカニズムはブラックボックスになっているわけなのですけれども、人の意思決定には直接は介入していないものなのではないかなと。時計もきっとそうだろうという気はしていまして、要するに自動車であれば目的地は我々自身で決めているので、ここに行きたいというのは我々自身の意思であろうと。これも潜在的な認知にはいろいろな働きかけがあるのかもしれませんけれども、一応目的地は決めている。ただ、AIの問題の本質は、意思決定、ディシジョンメイキングのところにかなり関与していくというところかなと思っているので、ここについての透明性をどう考えるのかというのは、自動車とか時計とかとまた違う視点が必要になってくるかなと思いますというのが一点目、コメントです。

二点目は、今のやり取りでもあったトラストのところで、確かにユーザー、消費者に対して細かい情報とかを開示しても理解できない、あまり意味がないというのはそのとおりかなと。そういう意味で、どのようにトラストを確保していくのかというのはとても重要な論点で、一つはガバナンスと言うか、組織的なトラスト構築の在り方があるのだろうと思うのです。中川様に伺いたいのは、企業の内部でチェックをしていくということで十分なのか、それとも外部からのチェックを入れることが必要なのかというところについてお伺いしたい。

外部からちゃんとやっているのかどうか、ユーザーフレンドリーにしっかりできているかどうかをチェックするためには、データとか情報を吐き出させて、外部的なチェック機関にちゃんと提供できるような仕組み、これは強制的にデータを出させるということも必要なのかもしれませんけれども、そういったことが必要になってくるのかなと。そこで制度的な介入が必要になるかもしれないなということ。

もう一つは、誰がそういったものを外部からチェックするのかといったときに、これは消費者委員会の検討会ですので、消費者団体のような団体にどこまで中川様が期待されているのかどうかということです。この辺りを伺えればと思いました。

以上です。ありがとうございます。

○中川氏 山本委員、ありがとうございます。

最初の時計の例と自動車の例で、自動車は確かに人間がそんなに意思決定に関与しない、特に自動運転だと関与しないということはあることはあるのですけれども、実はさほど簡単ではなくて、それが典型的に現れるのが、哲学的問題だと言われるかもしれないけれども、トロッコ問題というのがあって、避けようのない二つのルートにはまってしまったときに、たくさんの人と少ない人のどっちを選んで突っ込んでしまうかという問題です。人間の運転の場合は、とっさの判断でしかしようがないから、人間にお任せということで、どっちとも言えないというか、どっちを取ったからバツだということは、瞬時にやったことについては問わないということになっているのではないかと。

ところが、自動運転で問題になってしまうというのは、自動運転のプログラムを書く人は非常に時間があって、いろいろなケースを全部想定できるから、それで最適化しなかったというのはサボったのではないのとかいうようなふうに言われるということです。けれども、トロッコ問題は避けようがない問題なので、技術者のほうにそういうことを押しつけられても困ってしまうよという問題があって、僕が聞いた話ですと、ドイツではトロッコ問題に最終的にぶち当たったときは乱数を発生させて決めたほうがむしろよいのではないかというような、要するに開発者の責任にあまり押しつけてはいけないというようなディシジョンになっているということを聞きました。ドイツでいろいろ研究されてきた法律家の樋笠先生がそういうこと言っていました。ですから、結局決め事の問題なのかもしれないなという気もしないではないです。

二番目、トラストの問題です。トラストはなかなかうまくいかないと。ガバナンスの問題があるのではないかということを聞いて、ジャストフィットするのは恐らくアジャイルガバナンスだと思うのです。アジャイルガバナンスは今、京大に移られた羽深特任教授あるいは稲谷教授なんかが経産省で一生懸命頑張って、アジャイルガバナンスというアイデアを出しました。

御存じの方も多いと思いますが、要するに外部からの影響を受けてシステムを微少に注意していくというのに加えて、もう一つ外側のループがあって、外部の環境が非常に大きく変わったらシステムの設計自身を変えなさいよという二重グループのカタツムリの絵のようなものがある。

この絵が有名なのですが、実はこのカタツムリというのは、消費者委員会であったり、政府であったり、企業であったり、非常にたくさんのカタツムリがうようよいて、お互いに関係し合うのです。その関係し合うところに外部環境として他のところのデータとかアウトプットが伝わってくる、それを受けるというようなところが実は本質的には重要なところで、消費者委員会なり、消費者庁なり、いろいろなところはどのような情報を外部から得て、それをフィードバックをかけて、法律を改正するとか、あるいは企業であれば製品を改正するとかいう形につなげていくことが一番重要だということを言っているのがアジャイルガバナンスのポリシーだと思うのです。

ただ、人間がデータを集めてくるというのは非常に苦しい部分もあるので、そこでデータ収集の部分についてAIの技術が使えないものだろうかということが今後の技術的論点としては重要になると思います。それから、集めたデータを処理して、優位性があるかどうかという統計処理のようなことは政府も含めてできなければいけない。そういう見方でガバナンスをしていくということで、プラットフォームに対してもきちんとした説明をして、強制力を発揮できるようにするということを考えていくというのがよろしいのではないかというのは、素人なりの考えです。

ちなみに、アジャイルガバナンスは委員会にも出ていたので、いろいろ御意見をお伺いして、それなりに理解はしたつもりですが、私の理解でお答えするとそういう形になるかなと思います。

○沖野座長 ありがとうございます。

行政を含め様々な機関に期待される部分の言及があり、最後に、消費者団体の話も出されましたが、それはよろしいですか。

○中川氏 それについて言えば、消費者団体もデータを集めるという作業をサボっていてはいけないのだろうと思うのです。外部データが入ってくることによって自分たちのアクションを変えていくということは、アジャイルにやっていくことが必要になりますが、そのときにそんなにAIのプロではない消費者団体であっても、それなりのデータが集められるためにAIがサポートしてあげる、そういうAIを作るというのがこの観点から重要なアプリケーションになってくるだろうと思うところです。

○山本龍彦委員 ありがとうございます。

○沖野座長 ありがとうございます。

それでは、そのほかによろしいでしょうか。少し予定した時間を超過しておりますので、一旦、有識者ヒアリングのパートはここで終わらせていただきたいと思います。中川様におかれましては、大変貴重な御報告ありがとうございました。

○中川氏 御意見いただいてありがとうございました。

○沖野座長 この後、後半の大屋委員からのプレゼンテーションに進みますけれども、関連する議論も出てこようかと思いますので、差し支えなければ引き続き御参加いただければと思います。


《2.②大屋委員プレゼンテーション》

○沖野座長 それでは、次に大屋委員から御発表をお願いしたいと思います。

専門調査会の前半テーマの中の「消費者が関わる取引を幅広く規律する消費者取引全体の法制度の在り方」については、具体的に既に最初のパートでも出ましたけれども、「消費者法制度における“脆弱性”概念の捉え方」や「客観的価値実現の位置付け」「金銭の支払いに限られない消費者取引の拡大への対応の在り方」などを検討していく必要があります。

本日は、その検討に当たりまして、法哲学が御専門の大屋委員から御発表いただきまして、さらに理解と議論を深めていただければと思います。

大屋委員にも20分程度の御発表をお願いしまして、その後、質疑応答、意見交換をさせていただきたいと思います。

それでは、よろしくお願いいたします。

○大屋委員 御紹介いただきました大屋でございます。

「消費者法の位置付けと変容」というタイトルに一応していますが、先ほど御紹介いただいたような内容でお話しする予定でございます。

次をお願いします。

一言いただきましたが、最近自分でも忘れかかっているのですけれども、私の専門は本来法哲学でして、中でも情報化社会論ということで、情報技術の発展が法や政治のシステムにどういう影響を及ぼすかということをかなり中心的なテーマとしておりました。というわけで、総務省のAIネットワーク社会推進会議とか、内閣府の人間中心の社会原則検討会議というところでずっと中川様と一緒に仕事をしてきたというような人間でございます。最近は消費者法関係でも呼んでいただいているのですが、どちらかと本業はそっちであったわけです。

次をお願いします。

もうちょっと本業の法哲学のお話をいたしますが、何ごとか個人が到達する善い状態であって、その実現を社会も善いと思うようなもののことを取りあえずがちゃっと幸福と呼んでおきます。同じことですが、幸福を実現するとみんな幸せになるよねといったときに、幸福の中身は何ですかということについては、法哲学的には基本的に3通りの答えがあって、かつ3通りしかないというのが一般的な説明です。詳細は例えば森村進名誉教授の『幸福とは何か』という本で書いてございます。これ、実はちくまプリマー新書なのですけれども、ちくまプリマー新書は高校生向けではなかったっけ、これを読んで分かる高校生はいるのかしらとみんなに言われている、そういう本です。

ただ、非常にシンプルで三つ、一つ目は快楽説、幸福というのは快楽のことですという分かりやすいものです。二つ目は欲求充足説、欲求が満たされるのが幸福です、こういう立場です。三つ目が客観的リスト説というものです。一つ目と二つ目、快楽説と要求充足説は、この後ちょっと説明しますが、基本的には主観的な要素が個人の幸福だと定義するものです。要するに自分が幸福かどうかは本人にしか分かりませんというのが出発点であるのに対し、客観的リスト説はそうではなくて、これが幸せですという状態のリストが客観的につくれます。例えばジョン・フィニスの新自然法論などですと、東洋とか西洋とか、あるいはイスラム教とかキリスト教とかそういうものはばらばらに様々文化があるけれども、それは文化的差異を超えて収れんする価値があるのだという主張になるわけです。

次をお願いします。

ところで、快楽説からこういう幸福論は大体スタートするのですけれども、最も典型的には功利主義者として知られるジェレミ・ベンサムが『道徳及び立法の諸原理序説』という本の中で快楽説の基本的なセオリーを打ち立てたのですが、彼自身は快楽と苦痛というのは測定できると考えていたのです。快楽と苦痛は客観的に測定できて、快楽から苦痛を引いたものが幸福ですと。だから、一人一人の幸福を測定して、それを社会的に集計した量を最大化するのがよい統治であると、統治のよさが客観的に測定できる。だから、最大多数の最大幸福を実現することが道徳の原理なのですよということを言ったわけです。

しかし、ジェレミ・ベンサムの弟子筋、孫弟子ぐらいに当たるのですけれども、ジョン・スチュアート・ミル、この人は功利主義者なのだけれども、ベンサムの言ったことが本当にできるかと思うと結構疑わしいなということを言い出してしまったわけです。一つ目の問題は、同じように快楽と言っても質的な差異がありますねと。つまり、例えば満腹になったときに感じる快楽とすばらしい詩を読んだときに感じる快楽を、同じように快楽だからということで通算してよろしいのかという問題です。これを表す最も典型的な言葉が、「満足した豚よりも不満足なソクラテス」のほうがよいのではないかと、こういう表現であります。

もう一つは、ベンサムはそれができると思っていたわけですが、本当に快楽とか苦痛を客観的に測定できるのですかというところの疑問です。これは両方ありまして、普通に考えると、一人の個人の中でも自分が今感じている頭痛と3時間前に感じている頭痛が数量的にどう変化したかと聞かれて答えられるわけがないのです。さらにこれを個人間比較すると、私が感じている痛みとあなたが感じている痛みを計算することはできないだろうと大方なる。その結果としてミルは、快楽を客観的なものではなく、主観的なものとして捉えるべきだという考え方にたどり着くわけです。そこから生じたのがハーム・プリンシプルです。危害原理と呼ばれるもので、ミルは要するに一人一人の快楽とか苦痛とかはその本人にしか分からないのだということを前提として、しかしながら功利主義者なので、社会全体が幸福になるようなシステムは何だろうかということを考えてみたわけです。

次をお願いします。

幸福の在り方が人によって違い、価値観も多様化しております。その中で、自分にとって何が幸福で、どうやったらそれが実現できるかということは分かっているのは自分です。つまり、例えば自分の食事の好みが分かっていて、俺は今日、麻婆豆腐が食べたいなと思っているから、中華料理屋に行って麻婆豆腐を注文するでしょうと。そういう形で、自分にとっての幸福を最もよく実現できるのは本人であるので、他人が介入して、おまえいいからカレーを食えよみたいなことを減らしてやることが、幸福を最大化することにつながるはずである、こういうふうに考えるわけです。

私の表現だと自由と幸福のマリアージュと言うのですけれども、要するに一人一人を最大限自由にすると、その自由を活用して、全ての人間がそれぞれ勝手に幸福になろうとするはずであるので、一人一人の状態が最大幸福になり、それを集計した社会状態も最大幸福になるはずなのですと。自由を拡大すれば自動的に幸福は拡大するのですとミルは考え、このような立場から、功利主義者なのだけれども、個人の自由を最大限確保するために、他者に危害を与えるような行為でない限り、政府が取り締まることはまかりならぬという危害原理が社会の原則とされるべきだという考え方にたどり着いたわけであります。

ところで、ここで前提されている個人はどういう存在なのかなというと、恐らく近代法におけるモデルとしての強い個人であるとしばしば指摘されるわけである。つまり、十分な知力と体力があって、自分が今、何を欲しているかということをきちんと理解できていて、しかもそれをちゅうちょなく実現することができるような結構力強いタイプの人間ですねと説明することができるわけであります。

次をお願いします。

私自身はこれが分かって言っているわけではないのですが、しかし、そう考えてみると、民法の特別法としての消費者法の位置付けというものがよく理解できるとは思うわけです。つまり、このような自由と幸福のマリアージュモデルに立つと、社会というのは本来放っておくと勝手に幸福になっていくシステムだと理解されます。つまり、AさんとBさんが物の売買において合意したというときは、それが自由かつ自発的に行われた取引であるとすると、AさんにとってもBさんにとっても取引後の状態のほうが取引前よりよいと予想されるから両者が合意したはずであります。私はよく海彦さん山彦さんと言うのですが、お互いが持っている魚と肉、1キログラムの交換に同意したとするならば、要するにふだん食い飽きている魚より肉のほうがよさそうだから海彦さんは合意したはずだし、その逆だから山彦さんは合意したのでしょうと。

そうすると、財の総量は増えていないのだけれども、置き場所を変えただけで2人とも幸せになっているわけです。このような形で、自由かつ自律的な個体が合意によって契約を結んでいくとすると、社会はどんどん幸せになっていくはずなのです。だから、レッセフェール経済、なすに任せよといって、政府はそれに介入しないほうがよろしい。経済社会が健全な状態にある限り、放置したほうがよろしい。

国家が介入しなければいけないのは、先ほどの自由かつ自発的な合意という要素が損なわれた場合である。つまり、暴力とか脅迫、あるいは強盗みたいなもの、そういうものが出没したときには、これを法によって規制しなければいけない、このような考え方が出てくるであろうと。

この自由かつ自発的な交換の状況というのが、民法によって支えられているとき、しかし、この自由かつ自発的な合意がきちんとできない主体が残念ながらこの世の中に一定程度存在してしまうわけです。それは具体的には未成年者であるとか、あるいは成年被後見人、被保佐人といった、意思能力、行為能力に問題のある主体である。こういった人々を、脆弱な集団、特定の脆弱性を抱えた個体群だと考え、彼らに対して特別の保護と監督を用意してやるという制度が民法の中にあるわけです。これは一定のカテゴリーを想定し、それを保護対象として法的な取扱いを変えるということで、カテゴリー脆弱性と私は表現しているところであります。

加えて、近年においては問題の強い契約類型みたいなものもあるでしょうということで、例えば長期間にわたる拘束を伴うような契約といったものについて個別具体的に行為規制をしてやれば、経済社会の健全性が確保できるはずだと位置付けられる。この中で消費者法というのは、脆弱な集団であるとか問題性の強い契約類型を例外的に取り締まる民法の特則と位置付けられることになったのだと思います。

ところがという話に移るわけです。次のスライドをお願いします。

先ほどもちょっと言及のあったダークパターンですが、これはdarkpatterns.jpというサイトから持ってきたのですけれども、例えばこういう形で二つの選択肢が提示されます。リンゴを買いたいのですね。大玉サイズ10個入りと10キログラム入りでこういう値段です。どちらがお得でしょうと言われて、合理的に計算できるやつはこの世の中にいないのです。脆弱な個体だから引っかかるわけではなくて、普通の計算能力のあるどんな人でも即座に判断できないと思います。リンゴの大玉1個は大体何百グラムなのか、したがってどちらがお得かという知識が普通の人の頭の中には恐らくないわけです。このないことを利用して引っかける。この場合だと10個入り3,980円のほうが額面が小さいからお得かなと思うのだけれども、10キロのリンゴは何十玉かあるのです。そういう形で誘導するようなタイプのものであります。ユーザーが無意識に不利な行動を取るように設計されたデザインのことをダークパターンと言うわけですが、これはその状況に置かれた人ならば誰でも、あるいはかなりの人数がそれにだまされてしまうような、誘導されてしまうようなものだと考えることができる。したがって、特定のカテゴリーの個体だけが対象となるものではなく、シチュエーションから全ての人に生じるような脆弱性、シミュレーション脆弱性だと言うことができるだろうと思います。

しかも、このダークパターンというのは正にパターンであって、契約条件のように法的な考慮の対象であったり、その取締り対象として我々が通常想定されているようなものではなく、正にサイトのデザインの仕方とか、条件の表示の仕方というような技術的要素によって発生してしまうわけです。もっと言うと、しかもこのようなダークパターンは実は誰かの悪意に基づく行為ではなくて、自然発生してしまう可能性があるということも指摘されています。というのは、今、ウェブデザインの業界が特にそうなのですけれども、A/Bテストという考え方が結構あるのです。つまり、どういうサイトの作り方をすると、顧客にうまく物を買わせることができるか。引っかけるではなくて、売上げを増やすという中立的な表現で考えてください。できる限りお客さんを増やしたいな、売上げを増やしたいなという、事業者としては健全な欲求があったとして、それを実現するためにどうしたらよいかということを考えたときに、かつては例えば広告の仕方であるとか表示の仕方のノウハウで意図的にコントロールしていたわけです。というのは、印刷物だからそんなに何パターンもつくれないからですけれども、ウェブデザインなので例えばやり方を変えた二つのサイトでデザインを作って、それをランダムに顧客に表示させて、どちらのほうが売上げが上がるかみたいなことを比較するという手法があります。だから、RCT(Randomized Controlled Trials)によって無作為割りつけによる比較試験をやり、Bのほうがどうも売上げがよさそうだなと思ったら、そのBのパターンを基にさらに分岐させたデザインを作り、RCTをかけて、B1とB2の中からB2のほうがよかったねと言ったら、B2からさらにB2’とB2’’を作りみたいなことをやって、ウェブデザインを進化的に変化させていくわけです。

問題なのは、こういう形でウェブデザインの進化的な発展ができるわけですが、それが健全なパターンによって進化しているのか、このようなダークパターン的なもので進化しているのかが、売上げからは分からない。売上げという中立的な指標からは、ダークネスに気がつかずに、そちらの方向にウェブを発展させてしまう危険があるという問題になっているわけです。もはや業者の悪意どころか主観的な意思すらなくても、このように我々が引っかかるようなシチュエーション脆弱性が発生する可能性があるということが指摘されているわけであります。

次をお願いします。

さらに言うと、消費者は本当に今、消費しているのだろうかということも問題点としては指摘されなければならない。景品表示法のときに結構問題になった案件でもあるのですけれども、アテンション・エコノミーというのが発達してきているわけですね。典型的にはウェブメールサービス、Gmailとかヤフーメールとかを考えていただくとよいと思いますが、ほとんどは無料で利用できるものです。しかし、それは例えば大手IT企業のチャリティーとして提供されているのかというと、そんなことは全然なくて、例えばGmailの場合はグーグル社ですが、彼らはこのシステムを提供する代わりに、送られてきたメールの中身は全部見ておりますと。それは我々の製品開発のために利用いたしますということをちゃんとノーティスしているのです。それは何のために使っているかというと、例えばそれに基づいて人々の欲望を解析して、より効率よく広告を出すために使っているわけです。

グーグルでいろいろなものを検索すると、その検索内容に応じた広告が右側に表示されるようなことになっている。それはそういう形で関心を持つ人に表示されるようなターゲット広告を出しますと。通常の報告よりはるかに顧客を集めやすいですよということで、グーグルが企業側に広告枠を高値で売るためのシステムなわけです。利用者の注目が集まると広告の価値が上がっていきますので、いかにして人々のアテンションを集め、それを効率的に活用するかということに今、大手IT企業の各社は地道を上げているわけであります。

右上にどこかの動画配信サービスっぽい画面が出ておりますけれども、何でこんなものまでいらすとやが作っているのかよく分かりませんが、これを見ていただくと、要するにアクセスするとお勧めリストが表示され、あなたの視聴履歴からこういう動画に関心がありそうだと思うのですよねというのを表示して、私の関心のある情報にたどり着きやすいようなパス、経路を用意しているわけですが、それは逆に言うと、そういうふうにたどりやすいので、たどり着いたものをずっと私が見続ける。さらに、1本動画が終わったら次の動画、次の動画と自動再生していくので、視線をロックインするわけです。私の気がどこかにそれないように、ずっと私が何かを見続けるようにする。そのプロセスの中に広告が埋め込まれていて、何分かに1回、私は必ずその広告を見るというような状態に拘束されているわけです。

これも実はダークパターンの一種と考えることもできると思いますけれども、それをさらに効率化するために、動画を配信している側に対しては再生回数を基にして収益を提供している。そうすると、動画を作る側にも人々の目を引きつけて、それを離さないような動画作りをするインセンティブが生まれ、かくのごとくして動画配信サービスのお勧め画面などを見ると、どの動画を見てもまずそこで表示される画面に、この動画は何を対象として、何をする動画ですみたいなものがばんと強いメッセージとして文字で書いてあるような画面が無数に並ぶという状態になるわけです。

お金が動いていないので、ここで消費者はお金を取られてはいないわけですが、ある意味においては時間を取られている、あるいは注目を奪われているわけであるし、それはその時間をほかに回せば稼げたかもしれないお金を、つまり機会費用を収奪されていると考えることができるかもしれません。こういう形で、これまでの悪徳商法とか典型的に考えられてきた消費者問題とは違うパターンの問題が、特にデジタル技術を重要な契機として発展してきているというのが問題になるかと思います。

結局のところ根本的な問題は何かというと、次のスライドをお願いします。要するに強い個人なんか実在したのですかという話で、近代法はそれをモデルとしたわけですけれども、現実の人間はむしろしばしば意思の弱さに苦しめられるようなものでしかないわけです。そもそも本当に我々が強い個人だとしたら、肥満とか二日酔いとか私が苦しんでいるような問題はなくなるはずなわけであります。人間は、自己の幸福に対する自己決定を十分に行えない。短期的な快楽と長期的な幸福を比べると、しばしば前者が優越してしまうわけですし、その決定を十分に行えたとしても、それを十分に守れない、貫き通せない、そのような問題を抱えているわけであります。

結局のところ、人々の主観的な判断が実はあまり信頼できないのではないか。自由と幸福のマリアージュモデルが考えたように、放っておけば一人一人が自動的に幸福になるというふうに、選択を信頼することはもはやできないのではないかと考えられるようになってきたわけであります。

次のスライドをお願いします。

例えばそのような状況から提案されたものとして、近年、日本政府内でも経産省とか環境省がやっていましたが、ナッジというような手法が取られるわけであります。ナッジを提唱した人物の中の一人であるキャス・サンスティーンというアメリカの憲法学者は、結局のところ根本的な問題は、現代の環境において我々の周りを取り巻く選択の機会が多過ぎるということなのだと指摘しております。何を着るか、何を食べるか、何を見るか、何でもよいですが、かつてのように月に岩波文庫が3冊しか刊行されませんみたいな社会ではないわけで、毎月出る文庫本の中身を全部チェックするだけで1か月終わってしまうわけです。そのような状況で全てを十全に選択する。つまり、ちゃんと味見して、どの料理を食べたいかなと選ぶみたいなことはもはや不可能になっているのであって、サンスティーンはその中で自分にとって本当に大事な、命をかけてこれだけ選びたいというものをちゃんと選べるようにするためには、他のものを断念する必要があると主張したわけであります。『選択しないという選択』、これはサンスティーンの本ですけれども、タイトルはそれを意味していて、断念したところはどうするかというと、外部からの支援を受け入れたほうがよろしいのであるということです。要するに自分で選択するのをやめるという選択、メタ選択をすることによって、むしろ自己の限られた注意力を十分に使えるようになるではないかということを主張したわけであります。

では、そのほったらかしたところをどうするかというと、ナッジでやっていけばよいではないですかと。ナッジの典型はデフォルトを設定することで、例えばハンバーガーショップでサイドメニューを選ぶときに、フライドポテトでよろしいですかとデフォルトで聞くと、大体の人が面倒くさいからはいと言ってしまう。かくのごとくして最も利幅が多くて、消費者の側からすると油と塩が多くてあまり健全でないものを選ばされることになるわけです。

これを例えばフライドポテトとサラダのどちらがよろしいですかとオープンクエスチョンにするとか、あるいはサラダでよろしいですかとデフォルトを変えてやるだけで、それでも私は今日はフライドポテトがどうしても食べたいのですという人は自由を保障されつつ、大概の人が誘導されてサラダを食うようになるという効果が期待できるでしょう。そういうことをサンスティーンは提唱し、典型的にはアメリカにおける肥満という問題を解消するために、このデフォルト設定ということを通じて政府が人々の生活に介入すべきだということを主張したわけであります。

ところで問題は、アメリカの状態を考えればサラダを食ったほうがよいのではないかと何となく思うわけですけれども、サラダが望ましい選択だという判断をどうやって正当だと基礎付けるかという点にあるわけです。

次のページをお願いします。

サンスティーン自身は、それはメタ選択でよいのだと主張しています。つまり、本人がそういう支援を受け入れるか受け入れないかと決定する機会があるではないかと主張しているわけです。しかるに、十分に選択できない、我々の選択力とか注意力が限られているからナッジが必要だということを考えるならば、メタ選択においても我々が十分に選択できるかどうか分からないではないかと。さらに言えば、選択に対するナッジはメタ選択でも利いてしまうはずなので、要するにナッジを受け入れるという方向にナッジしてしまえば、人々を誘導できてしまう。そこでメタ選択によって正当化されるという議論は通らないのではないですかという指摘を、先ほどの『選択しないという選択』という本の解説で大屋雄裕という法哲学者がしています。理論的には、これは突破できていないような気がする。

主観が頼れないのであれば、残り頼れるのは客観的リスト説だけなので、肥満で期待される生命余命が短縮されているということが客観的な幸福の概念に反するから、そこは介入したほうがよいのだと基礎付けるというルートが考えられる。これは理論的なレベルでは極めて怪しいです。そのような万人に共通の幸福のリストは作れるという議論に私は少なくも説得されたことはありませんが、現実的なレベルではこれで正当化可能かもしれないと思います。

例えば政府の活動を基礎付けるためであれば、何らかの法に基づいて、これが価値であると決めてしまえばよいのです。それが民主的に選択されたからよいでしょうと言い放つことは恐らく可能であり、例えばそのような例として、小塚委員と御一緒している研究会でも出た例でありますが、広島サミットのときのAIに関する宣言の中で、我々は民主的価値を共有しているのだと。その民主的価値とは何かというと、例えばネット上におけるハラスメントとかヘイトからの自由を含む何とかなのですよというリストが出ているのです。そういうものですよと言って、少なくとも大方の人がそうだなと思うようなリストはある程度できるだろうと思います。

もう一つは、結局現実的に必要ですねという話はもちろん出てくるわけで、今、横行している特殊詐欺なんかの事例を考えると、ある程度介入して防いでやらないといけないのですねという議論は恐らく説得的であろうと。ただ、これが人々の自由な行動への制約になるということも否定できない事実なのであって、両者の整合性をどう取るかというのは難しいところです。

最近、ふだんと違うクレジットカードの使い方をすると、警告が飛んできたり、クレジットカードが止まったりします。私はあれでiPhoneを買い換えるのに大騒ぎだったのですけれども、カードが3枚とも止められて、こういうことが発生し得るわけです。この辺りの介入の仕方が難しいですねということになります。

時間が延びているので、あと簡単に締めますけれども、次のスライドをお願いします。

結局、支援を通じた客観的価値の実現は恐らく必要であるというのは間違いないとして、ただ、保護しようとするものが結果としての幸福なのか、それとも選択の実質性なのかというようなことはきちんと区別して論じる必要があると思いますし、支援の程度においても、禁止、強制のような強いものから、デフォルト設定という形で介入する方法から、注意喚起と再確認、カードで言うと止めるのではなくて、これは本当にあなたの意図的な選択ですかとSMSで聞くみたいな、そのようなシステムもありますね。あるいは、支援手法としても法規制から、プラットフォームとの共同規制から、技術的介入もあると思います。これらのレパートリーを細かく見る必要が本来あると思いますと思っています。

次のスライドをお願いします。

技術的介入とは何かという例を一つだけ挙げますと、右上に何か出ていると思いますが、これは例えばアマゾンで定期的に全サイトを挙げてのタイムセールがありますね。そこで例えば20パーセント引きとか、30パーセント引きとか、いろいろ表示が出るけれども、そんなに損をしたくない業者が時々やる手法として、通常時価格が例えば1万円だとすると、タイムセールの直前に2万円に値上げして、50パーセント引きの1万円でタイムセールに突入する、こういうことをやらかす業者がいるわけです。マイクロソフト社のブラウザを使っていると、マイクロソフトがそういった品物の値動きを監視していて、自分がeコマース、例えばアマゾンタイムセールで買おうとした瞬間に、この商品の過去の値動きはこうでしたよというグラフを表示してくれるのです。例えば今20パーセント引きだと言っているけれども、2週間前にこれより20パーセント高かったよみたいなグラフが出る。そうすると、これはやられているかもと我々が気づける。このような機会を提供することも支援の手法としては考えられますねというサンプルであります。

いずれにしても、このような状況に対応した施策の全体としての広い消費者法制度をまず考えた上で、そのうちどこまでを消費者法や消費者庁で対応するかという問題意識から分析する必要があると思いますということを申し上げて、私からのプレゼンテーションを終わらせていただきたいと思います。

長くなって申し訳ありません。以上です。

○沖野座長 大屋委員、ありがとうございました。

最後、せかせてしまって申し訳ないことですけれども、その部分も含めて質疑や意見交換のところで取り上げていただければと思います。

それでは、早速ただいまの大屋委員の御発表内容を踏まえて、質疑応答、意見交換をお願いしたいと思いますが、やり方は先ほどと同じです。既に室岡委員からチャットに御発言の希望が入っておりますので、まず室岡委員から御発言をお願いいたします。

○室岡委員 大屋委員、御報告ありがとうございます。非常に明解かつすばらしいプレゼンテーションで、大変勉強になりました。

ナッジのところで質問とコメントがございますが、『選択しないという選択』に関するメタ選択については、正にメタ選択にもナッジをかけることは可能なので、根本的に極めて怪しいというのは理論的にはおっしゃるとおりだと思います。ただ、少なくとも例えば先ほどのサラダかポテトかという例であれば、ポテトとサラダのどちらにしますかという中立的な形で選択肢を出すことは可能だと思います。経済学ではアクティブチョイスと呼ばれますが、AかBかを可能な限り中立的な形で明示的に選択させる。例えば臓器提供であれば、臓器提供するかしないかをどちらかサインさせることを、ニュートラルな形で選択肢を出すというのは可能なので、この例であればメタ選択はできるのかなと感じました。ただし、正に大屋委員のおっしゃるとおり、例えば金融商品等では、アクティブチョイスをさせている様に見せかけて、裏でプレッシャーをかけたり、強く購入を指示したりとか、やれることは幾らでもあるため、状況に依存するとは思います。

二つ目として、これはどちらかというとコメントなのですが、客観的リスト説は、理論的なレベルで極めて怪しいというのは私も完全に同意なのですが、消費者保護に関して言えば、これは各人の主観的な幸福ではなく、社会で合意可能な価値判断で進めるというのはあり得るかと思います。先ほどのサラダとポテトの例に戻ると、ナッジなどを使ってポテトを勧められて肥満が増えると、本人ももちろん問題かもしれませんが、健康保険料の増加などを通じて社会全体にも損害が発生するわけです。本人の選択のみならず、社会への負の外部性が生じてしまうため、正にこれが大屋委員の現実的なレベルでは正当化可能かもしれないというところに関わってくるのかもしれませんが、個人の判断だけではなく社会で合意可能な判断で、これは制限していくべきだ、あるいはポテトとサラダであったらサラダを勧めていくべきだというようなあり方については、あり得るのかなと思いました。

○大屋委員 ありがとうございます。

二点とも、要するに理論家としての私が納得するかということと、ある種、有識者稼業の私が何を思うかというところに乖離があるというのが正確なお答えでして、メタ選択で理論的には解決できない、無限回帰が起きてしまう、無限背進が起きるということは理論的には言わなければいけないのだけれども、現実的には、要するに選択しなければいけない機会が減っていけば、あるところで妥当な選択ができるようになるはずだとサンスティーンが言ったのは、それはそうなのです。

あと、客観的リスト説についてもそうで、理論家としては非常に怪しいことを今私は言っているのですが、ただ、直観的には、人生の善さは多様だけれども、悪さは結構単一なのです。例えば国連の人間開発指数みたいなもので様々な発展途上国の暮らしの状況を比較しています。人間開発指数はそれなりに妥当性があって、中進国と後進発展途上国の違いぐらいは明らかにできるわけです。同じもので先進国の状態を測ろうとすると、あまり我々の納得いかない結果が出てくるわけです。

そういう意味で、善さを促進することをメタ選択とかナッジとかでやろうとするとあまりうまくいかないかもしれないけれども、悪さを防ぐことというのは、割と人々の納得できるシステムができそうな気がする。先ほどのパーソナルAIエージェントなどもそうですけれども、さっきのタイムセール対策支援でもそうですが、要するに典型的な人々が起こしがちな短慮を特定した上で、その短慮を起こさないような支援システムというのは、そんなに世間的に有害でないものが簡単にできそうな気がする。その意味で、繰り返し言うと善さの実現と悪の防止をあまり対称的に考えないほうが恐らくよいだろうと思っているということです。

○沖野座長 ありがとうございます。

室岡委員、よろしいでしょうか。

○室岡委員 ありがとうございました。

○沖野座長 ありがとうございます。

それでは、他の方々からいかがでしょうか。

二之宮委員、お願いします。

○二之宮委員 二之宮です。御説明ありがとうございました。

強い個人、強い人間はもう存在しないというのは、我々はそうなのだといろいろ聞いていて本当に思うところで、脆弱性というものを正面から見据えていくのだと。それに対して外部からの支援というのを考えたときに、脆弱性を正面から捉えると、ルールに強弱をつけて、ハードローからソフトローまでいろいろ流していって、法が介入していくだとか、システムが介入する、あるいは交渉によってと、いろいろバリエーションを設けられると思うのですが、私どもが相談を受けていて感じるのが、脆弱性から脱し切れないというか、脱せない人たち、要は何かあったら188へ相談してくださいねというけれども、脆弱な状態の最中にいる人たちは、相談しようというところからまず気づいていない。脆弱性のまだ最中にいる人たちに対しては、外部からどういう支援の方法が考えられるのか、何かお考えがあれば教えてください。

○大屋委員 ありがとうございます。

問題意識としては非常に共通していると思います。私、行政のほうもよくやっているのですが、例えば子供の貧困対策を文部科学省がやり、厚生労働省がやり、内閣府がやり、しかし施策を幾ら打っても状況が改善しないです。なぜかというと背景にあるのは申請主義で、貧困状態にある人が制度のことをよく知って、役所に行って書類を出すというプロセスを踏むことが非常に難しいからです。

これの対策として考えられているのがプッシュ型行政というやつで、要するに対象者が役所に来ないと駄目というのではなくて、こっちから押しかけて、あなたは多分この制度の受給権があるからと言う。あるいは、気がついたら支援金が口座に振り込まれているというようなことをやらないと駄目だろうという話をしている。

恐らく消費者対策についても問題は同じで、個人の自覚を待って対策を打つというのでは恐らくもう遅いわけです。考えられる策の一つとしては、最後に例を挙げましたが、アクティブな警告方式が考えられると思います。つまり、例えばeコマースで購入ボタンを押す直前に、さっきのこれはもしかしたら詐欺かもしれませんよというサインとか、ある種の悪徳商法かもしれませんよというのがブラウザ上にぽんと警告が出る。少なくとも1回そこで立ち止まって、熟慮する機会が与えられる。あるいは、eコマースのサイトだと思ってアクセスしたところ、これは明らかに偽物のサイトですというアクティブな警告が出るとか、そういったようなシステムで対応していくことが考えられるだろうとは思います。

問題は、警告が出たにもかかわらず、でも安いんだもんと押してしまう人なわけですが、これを止めるのは非常に難しいと言わざるを得ないと思います。これを止めるとしたら、かなり強い行動制限をかけることになりますので、それが成年被後見人とか被保佐人の場合はともかく、通常人に対するものとして許されるかどうかというのは慎重な議論が必要かなと思っています。

○二之宮委員 ありがとうございます。

○沖野座長 よろしいでしょうか。ありがとうございます。

中川様、お願いします。

○中川氏 警告を出すのは正に非常に強力な手だと思うのですが、警告を出すためには、警告を出すのはどういう状況かというデータをたくさん集めなければならないのです。ところが、データを集めるためには詐欺にかかるとか、個人のアクティビティーを見ている人がいなければいけない。プラットフォームは見ていると思うのですが、そういう個人情報を集めることに対してどのように我々が対峙していくかというところなのです。個人情報はよくも悪くも使えるので、悪い使い方ばかりよく法律家が言うようなところがあるのですが、実は今のようなタイプの非常によい使い方もできるので、この辺りをどのように切り分けていくのだろうということは、個人情報保護の観点から見ても重要なポイントかなと思ってお聞きしていた次第です。

○沖野座長 ありがとうございます。

大屋委員から。

○大屋委員 あくまで例えばということですが、例えば今のブラウザを用いた警告システムだと、ブラウザは消費者の手元で動いているのです。だから、消費者が今こういう行動を取りつつあるというところの情報は、その場から出さないでも検知できる。

一方で、これが問題のある条件ですねという情報は、外部から提供していかないといけないが、そこは個人ではなくて社会的に共通性のある行動のパターンだと思います。それこそ例えば消費者団体が大量にお持ちの過去の事件から、こういうものが典型的なパターンだと抽出できるはずです。このような形で社会的に共有されている問題情報のパターンと、手元から外に出さない個人情報の組合せで警告システムを動かすということは、対策として恐らくあり得るだろうと思っています。

○沖野座長 ありがとうございます。

今の点について、中川様からさらに御指摘はございますか。

○中川氏 そのとおりなのですが、社会情報として集める部分でプラットフォームなりなんなりが触っている個人のアクティビティーをある程度収集するという部分が必要だなということを指摘したかっただけなので、基本的には大屋委員の路線で進むことになると思います。

○沖野座長 ありがとうございます。

そのほかに御発言はございますでしょうか。よろしいでしょうか。

オンラインの方もよろしいですか。

では、小塚委員、お願いします。

○小塚委員 時間があるようですので、小塚ですが、度々失礼します。

前半、中川様のときに出てきましたパーソナルAIのある意味で裏返しのような支援の話ですけれども、大屋委員の言われる、今日、抽象的なレベルでお話しになった消費者の支援について、AIを使うことで処理できる情報の量が大きくなって、選択しないという選択を悩む必要性が減るのではないかということは、理論的には言えると思いますが、実際的にはどれぐらい可能と見られるかということについてお聞きしたい。

なぜそれを私が関心を持ったかというと、リーガルテックのことを勉強していて、二つの契約書を見て違いを判定するというような技術が現在もう既にあるわけです。あれを企業ではなくて消費者側が使えば、消費者はこんなものは読まないと言われていた約款をチェックすることができる。膨大な約款と、例えばどこかに標準的な約款を持っていて、違うところだけをマークアップしてくれれば消費者でも分かる程度になるのではないかということを現に議論しているわけです。

それと同じようなことはあちこちにありそうなのですが、それが実際にどれぐらい有効であるか。そして、そういうものが仮に有効だとしたときに、そういう支援を受けている消費者についてはむしろ介入とか制約の程度を減らすという制度になりそうなのですが、それが可能かという辺りについて大屋委員のお考えをお聞かせください。

○大屋委員 ありがとうございます。

まず一つ話をすると、それをやろうというプロジェクトが中川様の言及されたパーソナルAIエージェントというものだと思います。特に支援の面では、その方向でものすごく進化したものが出てはいないので、うまくいくかというのはなかなか難しいところではありますが、しかし、先ほど言ったように、悪の回避についてはそれなりにうまくいきそうなので、それを使っていることを条件に、例えば行動の自由を拡大するとか、取引条件制限を緩和するとかといったようなことは考え得ると思います。

例えば保険業界が統一でつくった約款チェックエクステンションをブラウザに組み込んでいる状態であれば、保険条件のうち一見消費者に不利そうなものであっても認めてもいいよみたいな業法の緩和みたいなことが考えられるかもしれませんとは思っています。

○小塚委員 ありがとうございます。その方向も考えられるということで、そのときに私がいつも考えるのは、脆弱な消費者を保護しましょうという法律は、消費者行政の中でつくりやすいのです。ところが、脆弱な消費者が支援されているので、そこの部分の保護を外しましょうというのは、なかなか消費者立法、消費者行政の側としては言いにくいところもあるのではないか。その辺りをどうしていくかというのは課題なのかなと。これは私の感想ですけれども、そんなことをいつも感じております。

○沖野座長 ありがとうございます。

大屋委員からコメントがあるかもしれませんけれども、石井委員から発言の御希望が出ていますので、まず石井委員から御発言いただきたいと思います。

○石井委員 ありがとうございます。

大屋委員、大変勉強になりました。ありがとうございました。

私からは二点ほどお聞きしたい点がございまして、発言の機会をいただいております。

まず一点目に関しては、プライバシーに関する選択をどう考えるかについてです。個人情報保護法上の個人情報の取扱いをどうすべきかという観点とは別に、プライバシーについては情報だけでなく領域の話などもあったりして、かなり広がりがあります。また、プライバシー自体が非常に主観的で変動しやすいという性質を持っていると捉えたときに、11ページのスライドの外部からの支援を正当化する部分、プライバシーに関する選択を保障するためにはどういうアプローチが妥当であるのかについて、私の理解が足りていない部分があるかと思いますので、御教授いただければと思いました。

それからもう一つ、次のページになりますけれども、保護しようとしている結果としての幸福、選択の実質性の点についてです。プライバシーに関して何かしらの選択をする場合には、どうしても譲歩しなければならないという性質を伴うのではないかと思います。例えば自分の個人情報を取られてしまうというのは、一種の領域への侵入ともいえるわけですが、個人情報を集められてしまう、それから提供されてしまう行為は、プライバシーについても一定程度譲歩をするという選択をすることになろうかと思います。

そう考えたときに、何かしらプライバシーないしは個人情報の取扱いで譲歩をするものがある前提で、結果としての幸福を考えるとすれば、それは譲歩したことに伴って得られた財産的な価値、快楽や、その他バーターで得られたものとのバランスで考えていくことができるのか。

あるいは、プライバシーに関する選択を行うときに、選択の実質性が保障されていれば、その後、個人情報などがどう流れていき、結果的にあまり幸福ではない情報の取扱い方をされてしまったとしても、そこは考慮をしないのか。その辺りについて、保護しようとしているものが何かについて、これも私の理解が及んでいないところですので、御教示いただければと思いました。

よろしくお願いします。

○大屋委員 ありがとうございます。

多分プライバシー全体について考えるのがあまり適切ではないと思っていて、プライバシーで保護すべきものの中に、ある種一定の価値とのバーターで断念して差し支えないようなものと、あまりそうでないもの、それが暴露されることは、いかなる社会的価値とのバーターでも許容されないものはあるだろうと思います。

例えば位置情報などは、それをオープンにすることによってグーグルマップで誘導がちゃんと受けられるみたいなメリットがあるわけですから、バーターが可能なものであるのに対し、一部例外的な条件があるかもしれませんが、児童ポルノ禁止法の関係で問題になっている自撮りの秘部の写真なんかについては、お金を出したからよいでしょうという話ではない。幾らお金をもらえるといっても見せてはいけないようなものということになる。

そうすると、前者のバーター的なものについては、選択の実質性が確保されるべき目的であり、後者のお金を積んでもバーターにしてはいけないようなものは、結果的な保護を提供しなければいけないということになるだろうと。

バーターが可能なもの、選択の実質性を確保すればよいものについては、基本的にはメタ選択でやればよいわけですが、結果として本人にそれを選ばせてはいけないものについては、客観的リスト的な考え方で介入することを正当化するという考え方になるのではないか。だから、価値の中でもある種のバラエティーがあるので、それを細かく見ていく必要があるだろうというのが私の見解になります。

○石井委員 ご議論いただきありがとうございました。

○沖野座長 ありがとうございます。

そのほかはいかがでしょうか。よろしいでしょうか。

先ほど小塚委員から御指摘のあった、一方の手法による支援に伴い、別の制約のほうを減ずるとか、保護措置を減ずるというのは、恐らく一般的な考え方としてはあるのだろうと思います。金融商品の説明なども、第三者立会いとか専門家の助言を得るならば、意思表示の瑕疵的なものは適用しないとか、それの応用かなと思ったのですが、しかし、支援システムとして本当に実効性があるのかとか、それが支援システムであるという認識ができるのか、これはまたトラストの問題になるかもしれないのですけれども。たとえば、これはチェックしましょう、危ないですよという表示が出て、詳細はここという形で、クリックして他のところに飛んでいくとかいう仕組みだと、いろいろな悪用もできそうなので、より具体化レベルではいろいろさらに考えることがあるのかなと個別には思ったところです。

それでは、そのほか特段よろしいでしょうか。

中川様、お願いします。

○中川氏 大屋委員のサンプルで、位置情報というのは非常にプライバシー的には重要な情報だということがよく言われていて、何でかというと、例えばよく言われている例は、イスラム教だとモスクでしたか。それが日本だとあまり影響というか、あまり問題になりませんが、イスラム教が排斥されているような国だと、それによってかなり被害を受けてしまう人が出るという問題がある。位置情報を開示してよいかどうかは本当に人によること、プラス、自分はイスラム教徒ですよということをむしろ堅持したい人にとっては、そのほうが都合がよいとか、本当に個人依存性が高い。

もう一つは病院なのですが、病院に行くというのはそれなりに重要なポイントがあって、人に知られたくないことが多いという一方で、位置情報を知らないと、病院の近くに行って迷ったときに、行き方が分からなくなってしまったというと、位置情報に頼らざるを得ない。非常に個別性が強くなってくる。それを消費者にどのように伝えて、どういう判断をしてもらうかというインターフェースのつくり方に物すごく重要なポイントとして出てくるので、プライバシーを端的に守る、守らないということではなくて、本当にその場その場で個人によって変えていくという作業をできるようなシステムを是非考えなければならない問題だなということをプライバシーについては前々から考えていたので、ちょうどよいイグザンプルだったので、一言。

○沖野座長 ありがとうございます。

大屋委員からさらにございますか。

○大屋委員 特にはないです。

○沖野座長 石井委員から何かさらにございますか。

これも個別の問題に入って恐縮ですが、今の点ですと、例えば病院とかいろいろなところを知るために位置情報を知らせざるを得ないのだけれども、それは病院まで到達してしまえばあとは要らないというか、その時点でいつ病院に行ったとか、その検索をしたという情報はもう保存してもらいたくないというような話があって、包括的に承諾というよりは、ここまでは保存しないように消したいとか、そのような選択を入れるということは可能なのでしょうか。

○中川氏 それも一つの選択肢としてあります。そういう細かいことがうまくできていないのです。面倒くさいのです。位置情報を消す、消さないというのは一応できるようにはなっているのですけれども、それを一々やるかというと、病気のときにそんなことはやっていられないよということもあるかもしれない。そういう本当に個人依存性が高い問題があってというところをどうやって技術的にサポートしてあげられるか、あるいは法律的にサポートしてあげられるかという問題は、非常に重要なポイントとして出てくるのではないかなと前々から思っていたので、一言この場で述べさせていただきました。

○沖野座長 ありがとうございます。

二之宮委員、お願いします。

○二之宮委員 関連してといいますか、直接関連するわけではないのですけれども、情報を消費者のほうから事業者の方へというところで、今日の資料にもありますけれども、時間だとかアテンションだとかを、金銭とは違うものでも取引の対象にするということを考えたときに、それらを消費者が提供するときも、あるいは金銭と同時にそれらを提供している場合も取引の対象になると考えた場合に、事業者から消費者に対する情報提供義務は大分拡充されてきて、ルールが整備されてきてはいるのですけれども、消費者から事業者への情報の提供、事業者の方からしたら収集の在り方ということに関して、個人情報保護法はあるのですけれども、それ以外のところでルールが未整備なのかなと思います。感想です。

○沖野座長 お願いします。

○大屋委員 おっしゃるとおりだと思います。一応個人情報保護法みたいなものがあるのですが、日本の場合だけではないと思うのですけれども、結局同意があればやれることにしているのですが、ちゃんと同意していますかというのは非常に大きなテーマで、みんなスマートフォンのアプリを入れて、ここで個人情報を収集しますよと言われて、気安くオーケーを押してしまうのですが、条件は大体誰も読んでいないのです。

そうするとこれも先ほどの問題なわけで、同意疲れと我々は呼んでいますけれども、何度も何度も何度も何度も質問すると、人間は全部イエスを押してしまうのです。なので、そこは本人の同意という自覚的なコントロールに委ねるのではなくて、何らかの別のシステムでコントロールしないとまずいはずだという問題意識は持たれています。

○沖野座長 ありがとうございます。

二之宮委員、よろしいですか。問題意識はそうなのですが、どういうふうにするのか、あるいは海外の法制などもさらにあるのかもしれません。

それでは、よろしいでしょうか。

オンラインの方もよろしいですか。

それでは、おおむね予定した時間でもございますので、本日につきましてはこれで切り上げるということにさせていただきたいと思います。

中川様、大屋委員におかれましては、大変貴重な御意見、御報告をいただきまして、誠にありがとうございました。また、委員の皆様におかれましても、活発な御議論をありがとうございました。


《3.閉会》

○沖野座長 では、最後に事務局から事務連絡をお願いいたします。

○友行参事官 次回の日程につきましては、決まり次第、お知らせいたします。

以上です。

○沖野座長 ありがとうございます。

本日、川和委員から出していただいた資料は見ていただければということでよろしいのですね。分かりました。

それでは、本日はこれで閉会とさせていただきます。

お忙しいところ、正に時間と労力といろいろなものを提供していただきまして、本当にありがとうございました。引き続き、よろしくお願いいたします。

(以上)