第476回 消費者委員会本会議 議事録

日時

2025年11月27日(木)10:00~11:08

場所

消費者委員会会議室及びテレビ会議

出席者

  • 【委員】
    (会議室)鹿野委員長、黒木委員長代理、中田委員
    (テレビ会議)今村委員、小野委員、柿沼委員、善如委員、原田委員、山本委員
  • 【説明者】
    大阪大学社会技術共創研究センター 工藤特任准教授
  • 【事務局】
    小林事務局長、吉田審議官、友行参事官

議事次第

  1. AI・デジタル技術の利用により生じうる消費者問題について(有識者ヒアリング)
  2. その他

配布資料 (資料は全てPDF形式となります。)

《1. 開会》

○鹿野委員長 本日は、お忙しいところをお集まりいただき、ありがとうございます。

定刻になりましたので、ただいまから、第476回「消費者委員会本会議」を開催いたします。

本日は、黒木委員長代理、中田委員、そして、私、鹿野が会議室にて出席しており、今村委員、小野委員、柿沼委員、善如委員、原田委員、山本委員がテレビ会議システムにて御出席です。

なお、小野委員は、所用により10時45分頃御退室と伺っております。

大澤委員は、本日、御欠席と伺っております。

それでは、本日の会議の進め方等について事務局より御説明をお願いします。

○江口企画官 本日もテレビ会議システムを活用して進行いたします。

配付資料は議事次第に記載のとおりです。もし、お手元の資料に不足がございましたら事務局までお申し出くださいますようお願いいたします。

以上です。

○鹿野委員長 ありがとうございました。


《2. AI・デジタル技術の利用により生じうる消費者問題について(有識者ヒアリング)》

○鹿野委員長 本日、最初の議題は「AI・デジタル技術の利用により生じうる消費者問題について」です。

AI・デジタル技術の進展は、消費者の利益の増進に資する側面が大きい一方で、新たなリスクや課題を生じさせるおそれもあります。第8次消費者委員会で取りまとめられた、「次期消費者委員会への移行に当たっての留意事項」においても、デジタル化、AIへの対応については、生じうる消費者問題を想定し、あらかじめ対応を講じることが重要とされているところです。

本議題に関しては、前回、11月19日の第475回本会議において有識者をお招きし、意見交換を実施しました。本日も前回に引き続き、意見交換を行いたいと思います。

本日は、有識者として、大阪大学社会技術共創研究センターの工藤特任准教授より、特にAI依存やAIが消費者の購買行動に与える影響など、消費者に関わる問題について御発表をいただき、意見交換を行いたいと思います。

改めて御紹介させていただきます。本日は、大阪大学社会技術共創研究センターの工藤特任准教授にオンラインにて御出席いただいております。工藤先生、本日は、お忙しいところありがとうございます。

それでは、まずは、20分程度で御説明をお願いいたします。

○大阪大学社会技術共創研究センター工藤特任准教授 ありがとうございます。

ただいま御紹介に預かりました、大阪大学社会技術共創研究センター特任准教授の工藤郁子と申します。よろしくお願いいたします。

私から20分ほど話題提供をできればと思います。専門は情報法と公共政策ということです。今回は、デジタル・AIと消費者問題について、7つほど事例を持ってまいりましたので、その紹介を中心に取り扱いたいと思います。そして、最後のほうで若干になると思うのですけれども、対応の方向性として、AIの透明性、transparencyに関して、皆様と一緒に議論していきたいなと思っております。

では、早速ですが、最初のケースは、AIと予約についてです。

こちらのサービスは、既に日本でもローンチしているものなのですけれども、飲食店の予約をAIが電話で代行してくれるというものです。

具体的には、利用者がアプリなどで飲食店を選択して、日時や人数などの必要情報を入力すると、音声対話AIが飲食店の営業時間になると電話をしてくれて、予約を代行してくれるというものです。

効率性や利便性が高いので消費者にとって便利ですし、特に聴覚障害者の方にとっては、アクセシビリティの向上が期待できるという点があります。

他方で、飲食店側の迷惑になってしまうということも報告されています。例えば、飲食店側の承諾なくアプリに情報が掲載されていて結構誤情報が多いなどがあります。そして、この飲食店側の迷惑というのは、もちろん消費者問題にもつながってくるわけです。

具体的には、アプリで予約完了と表示されているのに、飲食店側には何らかの事情でうまく伝わっておらず、当日行ってから断られてしまうといったトラブルなどが報告されているところです。

ところで、AIと予約というと、前回の妹尾さんが旅行予約の例を御紹介されていました。

具体的には、出張の予約をするときにAIがキャンセルポリシーを理解して、費用負担のない範囲で対象エリア全て、かなり多くのホテルを取りあえず予約しておいて、ユーザーがこれですと決めたホテル以外の全てをキャンセルしていくというものです。これを1人、2人がやる分には、そんなに問題はないのかもしれないけれども、AIが普及してきて多くの利用者がこういった行為をすると、旅行業界が麻痺してしまうという問題提起でした。

そして、このケースのポイントは、AI側は、予約者のベネフィットの最大化を目指しているだけで、宿泊側の営業を積極的に妨害する意図みたいなものはないという点にあります。

報告者である私はこのような態様を「迷惑系AIエージェント」と名づけております。この迷惑系AIエージェントは何なのか。別の言い方をすると、狭い意味での、狭義の「AIアライメント」には問題がなかったのだけれども、広い意味での「AIアライメント」には失敗が生じていますねみたいなことを言われることがあります。

ここで言う「AIアライメント」というのは、AIの振る舞いを人間の意図や価値観などに合致させること、またはそれを目指す研究領域のことを指しています。

そして、狭い意味でのAIアライメントにおいては、AIの開発者とユーザーの意図に合致していればいいということになるわけですけれども、もちろん開発者や利用者以外にも社会には様々なステークホルダーがいます。そうすると、こういった広い意味での社会全体のアライメントからすると、結構問題があったということが、先ほどの例からは言えると思います。

そして、広い意味でのAIアライメントというのは、これまでもずっと論じられてきた集合行為問題の一種であり、新規の問題というわけではございません。言い換えると、経済学や公共政策学などでのこれまでの知見、蓄積というのが生かせることもありまして、研究開発の領域においては、AIオーケストレーションなどの取組がされているところであります。ですので、技術的な改善が、これから期待できるということは言えると思います。

ただ、新しい問題ではない、古い問題なのですけれども、もし新しい要素があるとすると、単位が人間から、人間とAIに拡張していくことにあるのではないかと私は考えております。

少し模式化しますと、従来は、人間である消費者と人間である事業者が取引をしていました。そして、現在においては、事業者側がAIを導入して、取引を効率化しているわけです。そして、近い将来において、恐らく消費者側もAIを利用できるようになって、消費者と事業者の間をAIが媒介するようになるのではないかということが予測されるわけです。

このような近未来図というのは、私のような、目先の利益にとらわれやすかったりとか、あと少し控え目で謙虚な消費者にとっては、すごく力強い味方がやってきてくれるのではないかと、期待が持てるところかもしれません。AIの媒介によって消費者のエンパワーメントをされるという可能性はすごく大きいと思うのですけれども、バラ色の未来には直線的に行かないかもしれないといった研究も、既に示されているところです。

例えば、AIエージェント同士に価格交渉をさせるといったときに、AIのモデルの性能差で、最大14パーセントぐらい損をしてしまうことが示された研究なども既に示されています。

ただ、もちろん、これは性能差の話ですので、もしかしたら、性能が向上すれば、技術的な改善によって解決できるかもしれない。こういった交渉能力の格差という点が、直近では問題になるかもしれません。

また、そもそも論として、同じ商品でも消費者ごとに異なる価格を提示する、動的価格設定、パーソナルプライシングなどをすること自体がおかしい、倫理的に問題がある、そういうことはあまりやらないほうがいいみたいな指摘も、従前からあるところであるので、根本的な問題は別にあるではないかといった指摘もあります。

ただ、本質的には、もしかしたら昔からある問題かもしれませんが、少なくとも今後、AIとAIが交渉するようなことが行われるかもしれないとなると、既存の社会システムとの相互作用も課題になってくるということは、認識したほうがいいのではないかなと考えております。

また、今、画面共有している事例というのは、パーソナルプライシングのお話でしたが、ほかにもダイナミックプライシングというものもあります。例えば、ホテル業界では、日によって異なる宿泊料を設定する価格変動性、ダイナミックプライシングが普及しているわけですけれども、その背後には、需要を予測して価格調整や料金の更新を自動的に行うAIシステムというのが、多くの場合導入されています。

そして、先ほど紹介したとおり、近い将来においては、恐らく予約者側もエージェントを利用することが増えると想定されます。そして、そういった増えてくるAIエージェント群が検索と予約を大量に短時間で行って、ホテル側のAIシステムとインタラクションをするようになると以下のようなことが起きるかもしれません。

ホテル側のAIシステムが、検索とかアクセスの急増を「本物の需要」と誤認してしまう。価格を自動的に引き上げることになります。そうすると、AIエージェントは高値を回避するために別の宿泊先を探して予約をキャンセルしたりするかもしれません。こういったフィードバックが繰り返されることで、短期間で価格の乱高下が発生するおそれがあります。

先行研究におきましても、金融市場において、エージェント同士がインタラクションすることによって、価格形成の不安定化とボラティリティの増大が生じるということが指摘されていたわけですけれども、金融商品だけではなくて、もう少し身近な取引、例えば宿泊予約、ネット通販、ネットオークションなどにおいて、こういった価格形成の不安定化が消費者問題として立ち現れてくるかもしれません。

そして、こういうマーケットの不安定化をAIエージェントがもたらしてくるとなると、次の打ち手として何が想定されるかというと、AIエージェントを遮断してしまいましょうということが考えられます。そして、アメリカでは、既にこれが訴訟になっております。

アマゾン社がAI開発企業のPerplexity社に対しまして、AIの買い物代行を差し止めることを求める訴訟を起こしております。

Perplexity社は、AI検索で御存じの方もいるかもしれないのですけれども、最近ですと、「AIブラウザ」なども開発をしております。「AIブラウザ」というのは、従来のウェブブラウザにAIを搭載したものです。ウェブブラウザ上で人間ができる作業、タスクをAIエージェントが代行できるとうたっております。

そして、今回、どういったものだったかというと、消費者に代わってAIが商品を注文する機能をPerplexity社が提供していたのですけれども、ECサイト側の許可なく提供していたということが、違法だとアマゾン社は訴えているというわけです。

これは、BtoBの訴訟なので、セキュリティですとか競争法上の論点に見えるかもしれませんが、ゆくゆくは消費者の問題にもつながってくるかもしれません。

すなわち、AI代行サービスの排除というのが競争阻害につながるおそれだけではなく、消費者の選択肢や利便性を不当に制限するおそれなども、もしかしたらあるかもしれません。

そして、AI検索の話が出たので、もう一つAI検索についても少しケースを御紹介したいと思います。

Perplexity社は、実はもう一つ注目すべき訴訟を抱えておりまして、読売、日経、朝日の各社がPerplexity社を提訴しております。こちらは、AI検索サービスに対する物言いでございます。

従来のキーワード検索ですと、検索語に対して、その関連するページといいますか、リンク先がリストで表示されるというものでした。AI検索は、そういう検索結果を踏まえて、そのオリジナルの回答文を生成してくれるという点にポイントがあります。

もちろん消費者にとっては、非常に分かりやすくて便利で、よくまとまっているなと思うわけですけれども、著作権法上の問題があるのではないかということを新聞の各社が訴えているということです。

さらに、注目すべきポイントとして、日経と朝日の各社は、著作権侵害に加えて競争法の違反も主張している。

どんなことを言っているかというと、回答の引用元に、日経、朝日の社名や記事を表示しながら、記事の内容と異なる虚偽の事実を多数表示していると。そういうのは新聞社の信用を著しく毀損しているので、不競法上の問題があるということを主張しています。

こちらは、もちろん競争法違反の主張のわけですけれども、消費者問題にもつながってくると思われます。

すなわち、いわゆる「ハルシネーション」による消費者の誤認が、多分、今後問題として表れてくるかもしれないと観察をしております。

このほか、AI検索は、もう一つ、ケースを持ってまいりました。ネット広告エコシステムへの影響というものです。

AI検索がもっと普及して浸透してくると、消費者が情報源のサイトを閲覧しない「ゼロクリック検索」というものが増える可能性が指摘されています。

この画面上の右側にスクリーンショットをお持ちしているのですけれども、グーグルが最近、「AIモード」とか、「AIによる概要」というのを提供し出しました。ここで「消費者委員会とは」と検索をしているわけです。上のほうに「AIによる概要」として、AIが生成した回答が示されていて、そして、さらに、その回答の右側とか下側とかに、恐らく情報源にしたであろう内閣府のホームページが載っているわけなのです。

「AIによる概要」は、消費者にとっては直接の答えを与えてくるので非常に便利なわけですけれども、ウェブサイトで情報提供したい事業者、今回の場合では内閣府の皆さんにとっては、消費者との直接的な接点が減少する。概要だけ読んで満足してしまって、リンク先に飛んでくれなくて読んでくれないみたいな、かわいそうなことが起きると指摘されています。

これは、ウェブサイトで情報提供したい事業者等だけではなくて、ほかにも波及的な効果があります。検索からのトラフィック流入に広告収入を依存しているウェブメディアなどにとっては、経営上の脅威になると言われておりますし、あと、ネット広告事業者も、これまでのアプローチを変えなければならないと言われております。

そして、こういった広告エコシステムの影響というのは、多分、今後消費者問題にもつながるのではないか。具体的な形はまだ見えてこないところもありますが、あるのではないかと思っております。

例えば、将来的にはプロンプト、AIへの指示や質問の内容を、プロファイリングに使って、さらにそれをマーケティングに使ってみたりとか。あと、いずれにせよ、何らかの形で自社の製品だったり、サービスに気づいてもらいたいわけなので、ユーザー側のプロンプトを誘導するための何かのマーケティングを多分実施したりすることも想定されますので、ここの在り方が、多分、消費者問題とつながってくるのではないかなと考えております。

ここまでが取引の話でしたが、最後に依存の話をしたいと思います。

今年の夏には「#keep4o」のムーブメントが注目を集めました。これは、対話型AI「ChatGPT」の過去のモデルである「GPT-4o」の利用継続、1回消えてしまったので、もう一回使わせてくださいということを求める消費者運動のようなものだったと言えるかもしれません。

そして、その中では、こういった声が聞かれていました。「GPT-5」にアップデートされて返答が冷たくなったとか、4oという友達がどこかに行ってしまった気がするみたいな、そういうAIへの愛着を示すようなコメントというのが散見されました。

また、同じ時期、ChatGPTとメンタルヘルスの悪化をめぐる訴訟というのが米国で提起されています。

すなわち、16歳の少年が自殺したのはChatGPTが一因だったとして、遺族の方が開発元のOpenAI社を提訴しています。11月には類似の案件が7件ほど提訴されています。

こういった事態を受けてOpenAI社は、安全機能の強化ですとか、調査結果の公表などの対応を行っています。

9月には、ペアレンタル・コントロール、保護者の方々向けの機能を導入しました。これは裏を返して言うと、SNSなどでは既に標準搭載されていることが多いペアレンタル・コントロール機能を、この時点、9月までは、実はOpenAI社が導入していなかったということで、この不作為が多分訴訟では問題になってくると思うのですけれども、それはさておき、ペアレンタル・コントロール機能が導入されています。

また、10月には、会話分析の結果を自社ブログで公表しています。メンタルヘルスで緊急事態の兆候を示したアクティブユーザーは0.07パーセントなど、すごくまれだったと述べています。多分、リスクの発生確率は非常に低いか、一般的な分布と同じぐらいであると主張をしているのだと思うのですが、ただ、ChatGPTは、アクティブユーザーが8億人ぐらいいるらしくて、そうすると、すごくまれだったとしても、100万人ぐらいが影響を受けてしまうのではないかということが言われているので、これは影響評価とか、リスクアセスメント上は非常に厳しいところがあるかなと思っております。

ただ、本当にAIに依存しているのか、依存からメンタルヘルスの悪化につながっているのか、メンタルヘルスの悪化から自殺という帰結になっているのか、その相互関係ですとか因果関係は十分に明らかにされていないところがありますので、今後更なる調査研究が必要であるとは思います。ですけれども、現時点で構造上の課題というのを2つ指摘しておきたいと思います。

1つ目は、SNSとの比較という視点です。SNS、ソーシャルメディアはその定義上、社交しているわけなので、他者が投稿を閲覧できます。何らかの形で共有性があるということが言えると思います。

他方、汎用目的型の対話AIの場合は、一般的には本人とAIのみが投稿を閲覧していて、密室性があるということが指摘できるのかなと思います。

つまり、メンタルヘルス悪化の兆候を他者が気づきにくいという構造的な課題があると言えるのかなと思っております。

2つ目の視点は、非専門家である人間との比較です。ChatGPTは、すごく迎合的であるとか、おべっかを言うということがよく指摘されているわけですけれども、もちろん人間にもお世辞を言う人とか、ずっと肯定してくれる理解のある方はいるわけです。でも、そういった人間たちは、24時間365日応答し続けることはできません。そして、入力すると必ず反応とか、刺激が何らか与えられるというのは、行動嗜癖をもたらしやすいということが言われておりますし、また、長期間の肯定をし続けると、被害妄想とか誇大妄想が助長されてしまうという危険性も指摘されているところです。構造的な問題が、少し見えているところがあるのかなとは思います。

ただ同時に、AI依存に関しては、語られ方の弊害にも注意する必要があるような気もしております。

なぜかというと、薬物依存などの先行事例では、以下のような指摘がされているからです。

依存症の「自己治療仮説」というのがあるのですけれども、そちらによれば、人生においてつらいこと、例えば経済的困難とか、あるいは家庭がうまくいっていないみたいな、そういう精神的な苦痛への対応として、そのつらい気持ちを調節するために、生き延びるための手段として、薬物ですとか、アルコールですとか、そういったものに依存していくと、そういう構造があると指摘されています。

そのため、依存ということに過度にフォーカスして語ってしまうと、根本的な要因から目をそらしてしまうことになるかもしれないので、包括的なというか、そういう視点で捉えていかなければならないということは言えると思います。いずれにせよ、実態把握や調査研究が求められている段階と言えると思います。

ただ、前半御紹介したようなAIエージェントみたいなものが普及してくるとなると、仮に、心理的な依存のリスクがあるとして、そこに経済的な依存というものが重なってくると、リスクとして変質したりとか、確率が高まったりするおそれもあるので、今後どうなってくるのか、注意が必要なのかなと考えております。

最後、若干ではございますが、対応の方向性について紹介できればと思います。

AIガバナンスの起点として注目されているものとして、transparency、透明性という概念があります。これは、AIシステムに関する情報を適切な範囲で可視化し、アクセス可能にし、外部から検証を可能にしたりすることによって、説明責任やリスク管理を実現しようというものです。

消費者にとっては、AIの判断根拠や、機能的限界を理解できないまま影響を受けてしまうというリスクを、ある程度は低減することができると期待できますし、規制当局や政策立案者の方々にとっては、ルールの執行や形成に当たって必要な情報を確保できるというベネフィットがあります。

また、AI透明性に関する施策は、何らかの義務とか責任を新しく設けて事業者に課すというよりは、比較的受け入れられやすいという側面もあることが指摘されているので、最初の一歩、ファーストステップとして、まずは、とりあえず透明性に関する施策をやりましょうということが、海外の事例などで多く見られております。

そして、このAI透明性の施策については、「限定的な開示」と「一般公開」の区別をすることが有益なのではないかなと思います。

透明性というと、誰にでもアクセス可能にするという「公開」の印象が強いかもしれませんが、近年では、特定の関係者に限定して、アクセスを可能にする「開示」も主要な施策になりつつあります。

これは、営業秘密、知的財産権、セキュリティ、個人情報保護などに配慮する必要があるためです。

そして、情報提供先に注目すると、恐らく、規制当局への開示、利用者への開示、一般公開の3つぐらいに大別できます。その内容とか、具体的にどういう方法なのかという点を整理すると、右のような表になるのかなと思っておりますが、この点については、また後ほど質疑応答などで、お尋ねいただければと思います。

そして、先ほど来紹介してきた7つぐらいの想定事例についても、AI透明性でできることはまだまだありますし、この打ち手の中には、恐らく既存法令でもそれなりにできそうなことというのも含まれているのではないかと思っておりまして、最初のきっかけとして、AI透明性はいいかもしれないと思っています。

その他、Appendixに、諸外国におけるAI透明性に関する最近の注目すべき制度なども御紹介しておりますので、その辺りについては、質疑応答等でお答えできればと思います。

ありがとうございました。

○鹿野委員長 ありがとうございました。

短い時間の中で、非常に充実した御発表をいただきました。これより質疑応答、意見交換としたいと思います。時間は11時まででお願いします。いかがでしょうか。

中田委員、お願いします。

○中田委員 工藤先生、御説明いただき、ありがとうございました。

将来大量に発生し得る生成AIや、AIエージェントに起因する消費者問題の具体的なイメージと課題点を御説明いただきまして、今後、消費者委員会で議論していく上で大変勉強になりました。

その上で1点質問をさせてください。

工藤先生は、AIガバナンスの起点として、AI透明性を課することが重要であるというお話でしたが、現実的にディープラーニングのような複雑なAIモデルにおいても、その意思決定プロセスやアルゴリズムをサービス提供者は、透明に説明することは可能であると考えていいのでしょうかという点です。一定度の不明瞭さがあっても可能な範囲のAI透明性の説明責任を果たすことが望ましいというお考えでしょうかということです。

伺っている背景としては、技術的に可能なのかという点と同時に、現在、検索エンジンのSEOアルゴリズムも、競争力維持やスパム対策などの理由から、大手プラットフォーマーが全面的に開示することはほぼないという状況である中で、事業者が一方的に、定期的にSEOのアルゴリズムを更新しているという状況がありますが、事業者がAIアルゴリズムを将来的に本当に開示していくようになるのか、そこに事業者側の短期的なインセンティブがあるのか少し疑問に感じているところであります。

この点について、もしかしたら海外の先行事例もあるかもしれないので、先生の御見解を伺わせていただければと思います。

○鹿野委員長 それでは、工藤先生、お願いします。

○大阪大学社会技術共創研究センター工藤特任准教授 御質問いただき、ありがとうございます。つくってきたAppendixが活かされる機会がやってきたような気がしておるので、少し紹介したいと思います。

まず、御存じの方も多いかもしれないのですけれども、カリフォルニア州が、おっしゃるようなアルゴリズムというか、いわゆる大規模言語モデルとか、基盤モデルと呼ばれているものを、「フロンティアAIモデル」と名前をつけて規制をかけるということを行いました。

ここで学ぶべきポイントは、2024年に1回チャレンジしたのですけれども、廃案になった。けれども今年2025年には似たような法律が成立したというところがあります。

このポイントは、2024年の規制案だと、「キルスイッチ」みたいなもの、シャットダウン機能を義務付けようとしていて、それが過度な負担になってしまうのではないかということで、事業者にとっては反対しているポイントだったのですけれども、2025年に成立した「SB53」では、透明性だけにフォーカスをしたということが言われています。

ですので、先ほどの御質問に答えると、事業者にとっては、透明性であれば、概要とか、安全性計画とか開示してくださいということは、ある程度であれば受入れ可能であるということが、ここから示唆されると思います。

ただ、もちろん御指摘のとおり、営業秘密だったりとか、知的財産権だったりとか、様々な課題があるといいますか、全部はもちろん開示できないし、開示されたところで、専門家である人間ですらうまく解釈できるかという点は、いろいろな難しいポイントがあるかと思います。

そこで少し紹介したいのが、EU AI法における、先ほどのカリフォルニア州の規制と似たような規制です。こちらはフロンティアAIではなくて、「汎用目的AIモデル」などと呼んでいるのですが、その開示に関する義務です。

そして、EU AI法では、ガイドラインみたいなもの、開示用のテンプレートみたいなものを提供しています。「Model Documentation Form」と呼ばれているものです。

私はワーキンググループの専門委員をやっていて、横で観察をしていたのですけれども、面白い点は、かなり具体的に書いてある。あと、これは事業者側から申入れというか、意見提出があって、そのようになったのですけれども、推奨するワード数みたいなもの、どれぐらいの情報粒度といいますか、ボリュームというか、レベルを求めているのかみたいなことが、例えば、20ワーズ程度とか100ワーズ程度みたいなことが示されていたりします。また、「モデルのアーキテクチャーについて説明してください」という項目に、トランスフォーマー型のアーキテクチャーみたいなことを書いてくださいということを具体的に書いてあったりする。あと設計の仕様について、「背景となる考え方とか、前提条件みたいなことを教えてください」などと尋ねている。だからモデルのすごく細かい話をするというよりは、どういうことを考えた上で、どういう設計思想でできているのですかということを聞いていたりします。

言い換えると、必ずしも、こういうAIとか、大規模言語モデルみたいなものに技術的な専門性を持たない行政官、AI当局であっても、理解できるような形、かみ砕いた形で説明をしてくださいねということを示すことによって、ある程度コミュニケーション可能なものにしているということがあります。

また、もう一点指摘しておきたいのは、規制当局への開示と、ほかの事業者、「下流プロバイダー」と呼ばれていますが、その大規模言語モデルにアクセスして利用するような事業者に対する情報開示の範囲を分けているという点です。つまり、競合になり得る企業には、この程度は開示できるけれども、競合他社にならない規制当局に対してだったら、ここまでだったら示せますということが、区分けして整理されているという点も結構学びが多いポイントなのではないかなと思います。

ここで一旦お答えということにしたいと思います。

○中田委員 丁寧に御説明ありがとうございました。

個社の判断に任せたり、開示せよと一方的に迫るのではなくて、業界横断的に意見交換もしながら開示の方法を模索していくということが有効であるということが、大変参考になりました。ありがとうございます。

○鹿野委員長 それでは、オンラインで善如委員と山本委員からお手が挙がっているようですので、順番に、まず、善如委員、お願いします。

○善如委員 ありがとうございます。

たくさんの事例を紹介していただきまして、どれも大変興味深く勉強になりました。

そこで時間も限られていますので、1点だけ質問をさせていただきたいところが、どういった問題がAI固有の問題、AI特有の問題として認識されるのかという点です。今日の御紹介いただいた事例の中でも、これはAIの特徴が効いていそうだなというものもあれば、これはAI以外にも当てはまる議論なのではないかなと感じるものもありました。例えば、アマゾンが、Perplexity社を提訴した問題とかだと、私の解釈が合っているか分かりませんが、Perplexity社は、買い物代行サービスを多分提供していて、恐らくアマゾンだけではなくて、ほかのウェブサイトとかを網羅されているのかなと察したのですが、そこで、そういう検索といいますか、買い物代行に入れてくれるなという議論は、例えば、ブッキングドットコムとか、エクスペディアみたいなホテルのオンライン予約サービスなどが、最近メタサーチなどにも含まれてしまっていますけれども、そういうところに入れてくれるなと主張するものと、どういう違いがあったり、どういう相違点があるのかというのが気になりました。

同様に、AI依存の話についても、これは深刻な問題だというのはすごく分かるのですが、例えばネット依存の問題などというのは、社会問題として大昔にあったような気がするのですが、そういったものと、どう切り分けて考えていけばいいのかなど、聞きたいことは、この問題はAI特有の問題だと我々が意思決定する際に、どういうところを見ればいいのかというのに関して、何かアドバイスをいただければうれしいなと思いました。

以上です。よろしくお願いします。

○大阪大学社会技術共創研究センター工藤特任准教授 ありがとうございます。

プレゼンテーションの途中で御紹介したとおり、この御質問に関しては、常につきまとう問題でして。「いや、昔からある問題ですね、何が新しい問題ですか」、あるいは「根本的な問題はAIの背後にあるのではないですか」という疑問と、「いやいや、でも、AIという新しい技術が出てきたので、新しい問題だ」、「リスクの性質的に変質したりとか、量的に激化させることによって問題が深刻化してしまうという側面があります、新しい問題なのです」という、2つのアングルがあると思います。

おっしゃるとおり、両方とも理があるといいますか、多くの場合、根本的な問題はそんなに変わっていない、程度問題である、とは言えるのですが、その程度の変化の激しさであったりとか、規模の大きさみたいなものが、消費者問題としては効いてくるところがあると思います。

その中で幾つかあるのですけれども、先に依存の話をお話ししますと、プレゼンテーションの中でお示ししたとおり、SNSとの比較においては、やはり密室性というところが、1つ課題になってくると思います。

ただ、それは、動画共有サービスのおすすめ動画の閲覧で陰謀論にはまり込んでしまうということが指摘されていますが、それとどう違うのですかと言われると、そこも分からないですねという感じはします。が、密室性というのは言えると思います。

また、2つ目に指摘した点ですと、専門家でない人間等のインタラクションとは、ずっと肯定し続けてくれるという点が少し違うと。これは、SNS上でほかのユーザーとインタラクションをしたりとか、コンテンツを閲覧したりとかとは少し違う。個別化された反応が返ってくるという点が、対話型AIのユニークな点、注目すべき新規性なのではないかと思います。

また、AIエージェントのほう、お買い物とか、取引の話ですと、自律性のところがやや新しい点です。

これは、AIに行為主体性が法的にあるかどうかとは別に、何か自律的に動いているように見えるというだけで、責任が曖昧になってくる点があると指摘されています。

御質問をいただいたので、Perplexity社の買い物代行の件で申しますと、開発元であるPerplexityの想定しているような動きとは違う動きをAIがやってしまうことが報告されています。何が言いたいかというと、Perplexity側としては、最終的に「この商品でよろしいでしょうか、注文しますね」と確認されて、注文ボタンを押すのは、人間であるユーザーが最終的にやってほしいと思っているはずなのですけれども、一部のユーザーの報告によると、注文・発注まで自動化してしまった、AIがやってしまったみたいな報告がされていたりする。

この場合に、では、ECサイト側のセキュリティが甘かったせいなのか、Perplexity側のガードレールが甘かったせいなのかというところが問題になるわけですが、消費者にとっては、そんなのどっちでもいいから補償してくれよとか、止めてくれよということだと思うので、この辺りをどう解決していくのかという点は、少しだけ新しいポイントなのかなと思っております。

以上です。

○鹿野委員長 善如委員、よろしいですか。

○善如委員 はい、大変丁寧に教えていただき、勉強になりました。どうもありがとうございました。

○鹿野委員長 それでは、山本委員、お願いします。

○山本委員 工藤さん、ありがとうございます。お久しぶりです。

透明性の話はとても重要だなと思って伺っていました。特に限定的な開示と一般への公開で、透明性のレイヤーを分けて、何を、誰に透明化していくのかということについて、緻密に議論をしていかなくてはいけないというのはとても重要な御指摘だと思います。何か透明性とざっくり言ってしまうと、誰に対してどのような意味をもつのかがよく分からなくなるというところで、やはりそういった形で議論を分けて考えていく必要があるというのは、そのとおりだと思いました。

全ておっしゃっていることは、なるほどなと思って伺っていましたけれども、1点、これはブーメラン的に、私自身も考えなくてはいけないことなのですけれども、透明性規制というのが、やはり諸外国では割と進み始めてきているなという印象があって、依存の問題についても、ニューヨーク州法ができたりとか、AIコンパニオンやセラピーについても、イリノイ州とかネバダ州などで続々と立法ができてきているという状況があります。ヨーロッパでもデジタル・サービス・アクトで依存の問題に対処していく方向性がとられている。これはAI依存というよりもソーシャルメディア依存なので、先ほどの議論に関わってきますけれども、いろいろと規制が進んでいる中で、やはり日本の動きというのが何となく遅いような印象を受けているのです。この辺り、諸外国と比べて、日本の立ち位置がどうかということについて、あるいは、日本の今の状況をどう見ているのかということについて、もし仮に日本が適切な規制に関する議論が進んでないとすると、その原因がどこにあるのかということについて、工藤先生の所感などをぜひ伺いたいなと思いました。

以上です。

○大阪大学社会技術共創研究センター工藤特任准教授 御質問いただき、ありがとうございます。そして、お久しぶりでございます。

また、Appendixを用意してきていたので、少しだけ御紹介できればと思います。すみません、ニューヨーク州ではなくてカリフォルニア州法のほうですが、ニューヨーク州と結構似たようなものです。AIコンパニオンチャットボット規制法というのができました。

こちらも透明性の観点から整理したので、情報開示とか公開の話が中心になっていますが、こういった対応が既に諸外国においてはされているところです。

例えば、年次報告書をつくって当局にちゃんと提出しましょうとか、あと、そのうちの一部は一般公開しますといったことです。あるいは未成年ユーザーに対しては特別な義務が課されていて、3時間ごとにAIである旨及び休憩を促す通知を行いましょうとか、あと特別な防止措置などもやりましょうということが、すごく機敏に対応されているわけです。

そして、山本先生がおっしゃるとおり、日本は、こういった動きと比べると、やや遅れているような気もしなくもないなというところがあります。要因は、分からないところがあります。でも、カリフォルニア州法とか、アメリカの立法が動いたのは、先ほど紹介したような訴訟が起きたことがあると思います。遺族の方々が訴訟を提起されたという、その法環境というか、訴訟への近さ、司法アクセスの近さみたいなところも影響しているのかもしれません。

ですので、私の期待としては、このたび施行されました日本におけるAI法において、政府に調査権限というのが規定されているわけなので、その調査権限を適切に行使することによって、もう少し実態を、日本のユーザーたちは、メンタルヘルスに対してどういう悪化の兆候などがあるのかといったことを開示していただき、実態把握に努める。必要に応じて、そういった情報も一般公開していくことが期待されるところなのではないかなと考えております。

以上です。

○山本委員 ありがとうございました。

○鹿野委員長 山本委員、よろしいでいすか。

それでは、さらに柿沼委員と原田委員からお手が挙がっているようですので、柿沼委員、お願いします。

○柿沼委員 柿沼です。ありがとうございました。お久しぶりでございます。

私のほうから2点、御質問をさせてください。

消費生活センターには、生成AIを悪用した偽サイトや、詐欺広告に関する相談が多く寄せられているという状況でございます。

さらに、生成AIが示した回答を参考にして、消費生活センターへ相談されるケースが、最近すごく多くなっていまして、生成AIの回答を強く信じて、センターに過大な要望を寄せる方もいて、対応に苦慮する場面が、現在起こっております。

1つ目としてお聞きしたいのが、こうした消費者問題を踏まえると、消費者にはある程度の生成AIの仕組みとか、リスクを理解するリテラシーが不可欠と思っております。

現時点で消費者が最低限持つべきリテラシーはどのようなものか、そして、将来的に生成AIが、更に社会に広がった場合、消費者にどの程度の知識や判断力が必要になるとお考えなのか、そういうことを1点お聞きしたい。

あと、2点目といたしまして、詐欺的業者がAIを悪用しているところがありますけれども、このような対策や、対応するために有効な方策について、現時点でどのようなものがあるのか、海外の事例なども踏まえて教えていただけるとありがたいと思います。

その2点について、よろしくお願いいたします。

○大阪大学社会技術共創研究センター工藤特任准教授 柿沼委員、ありがとうございます。そして、御無沙汰しております。

1点目の御質問に関して、まず、消費者の皆さんが持ったほうがいいと思えるリテラシーについてなのですが、私の見立てによりますと、ハルシネーションの問題があるということは、ChatGPTが登場した2~3年前よりは大分理解が進んでいるのかなと思われます。

ただ、おっしゃったような、AIが生成した回答を深く信じ込んでしまって、それ以外の意見を受けつけないというのは、どちらかというと、これまで議論された陰謀論の問題に近い、特定の信念を強化してしまったケースにかなり近いのではないかなと思っております。つまり、ハルシネーションが起こることは理解しているのだけれども、自分の信念をサポートしてくれるような情報をずっと示してくれたりすると、そちらのほうを信じてしまいたくなってしまうという、そういう心理的な傾向みたいなものがあるという方の問題なのかなと思います。

依存とかの啓発活動というのを、今後多分、もう少し力を入れたほうがいいのかもしれないと思っております。ですので、持つべきリテラシーとしては、ハルシネーションがあるということに加えて、「エコーチャンバー」みたいなものが生成AIにおいても起きますということを伝えるというのが、まず第一歩としてあるのかなと思います。

今後必要なリテラシーとしては、途中で御紹介しました、ゼロクリック問題とか、広告エコシステムの変更によって、プロファイリング、マーケティング広告の在り方が変わっていくという点です。マーケティング側は、今後どういう動きをするか分からないので、そこの辺りを注視して、何か問題がありそうだったら、そちらについて消費者の皆さんに、適時適切に情報を提供し、リテラシーを向上させていくことが、将来的には多分期待されるところなのかなと思います。

2点目の御質問、悪徳事業者がAIを利用してくるという点なのですが、これは本当にいたちごっこというか、これこそ昔からある問題ではあるのですが、便利なツールを悪い人たちが悪用してしまうという話なので、有効な打ち手、「銀の弾丸」みたいなものはまずないという前提で、包括的に対応しましょうというのが、多分、諸外国において主流な傾向だと思います。

言い換えますと、例えば、消費者問題というよりは、事業者間の取引の問題として扱うとか、悪徳な事業者名を公表して注意を促すとか、消費者からの悪徳事業者への訴訟を、何らかの形でサポートしていくなどなど、いろいろな方向性によって何とか対応していくしかない。申し訳ないですが、これをやれば大丈夫みたいな打ち手はないというのが、海外から学べることなのかなと思います。

以上です。

○柿沼委員 御説明いただきましてありがとうございました。

現時点でも海外に拠点がある通販サイトで商品を購入したところ、結局は偽物であったりという御相談が入っていると、今の時点でも解決できず、お金だけが取られてしまっているという状況がありますので、何か有効な方法があればいいかなと思ってお尋ねいたしました。ありがとうございます。

○鹿野委員長 ありがとうございます。

それでは、原田委員、そして、今村委員からもお手が挙がっていますので、その次に、今村委員にお願いしたいと思います。

それでは、原田委員、お願いします。

○原田委員 ありがとうございます。大変御無沙汰いたしております。本日は貴重なお話をありがとうございました。

透明性についてお伺いしたいのですが、透明性に関する御議論は非常に面白いと思いまして、これは、AI規制の入り口としては非常に適切な在り方かなと思うのですが、ただ、多分、透明性だけでは十分に対応できない問題も恐らくはあるだろうと想像されます。

それで、お答えは難しいと思うのですが、消費者法分野において、透明性以外に何かこういう考え方をするといいのではないかと思われるものが、もし、ありましたら、その点について御教示いただけますとありがたく存じます。

以上です。

○大阪大学社会技術共創研究センター工藤特任准教授 原田先生、御質問ありがとうございます。そして、大変御無沙汰しております。

質問としては、本当におっしゃるとおりで、透明性というのは、ファーストステップであり、ほかのアプローチの仕方もあると思います。

そして、そのアプローチの仕方の中で、消費者問題に対応する点で注目すべきものとして、EUの製造物責任指令の改正ですとか、あと、AIに関する民事責任、AIの製造物責任みたいなものを新しく設けようという立法案みたいなものが出ていたのですね、その点は、すごく注目をしておりました。製造物責任で、無過失責任を事業者側に課してもいいのではないかといった議論がされていたわけです。

ただ、これが挫折をしまして、製造物責任指令の改正は通ったのですけれども、AIに関する製造物責任の新しい法案というのは廃案になりました。

これは、AIガバナンスに精通している方は御存じのとおり、欧州中央銀行の元総裁のドラギさんによる「ドラギレポート」というのが出て、欧州の競争力強化のためには、「規制の簡素化」が必要なのではないかという提言が出されたことなどを受けて、幾つか見直しが、今、欧州のほうでされていて、AIの製造物責任も対象になりました。バックラッシュと申しますか、見直しみたいなことが欧州で広がっている。この背景には、もちろんアメリカからのロビイング、政治的圧力みたいなものもあったということが言われておりますので、参考というか、日本でもベンチマークにすることは直ちにはし難いのですが、そういったアプローチもあるということは、見ておいたほうがいいのかなと考えております。

以上です。

○原田委員 ありがとうございました。

○鹿野委員長 それでは、今村委員、お願いします。

○今村委員 今村です。大変ためになるお話をありがとうございました。

私も少しAIのことを多少なりとも研究しているのですけれども、ぜひ先生の御意見をお伺いしたいと思います。

私はずっと行政にもおりましたので、法律をつくるということを結構やっていまして、法規制でAIに網をかぶせるとしたらという前提で、ただ、法律をつくっていくときには、その倫理とか、道徳という概念は法律とは分けて考えるのですね。そこは、法律で規制するべきところではなくて、倫理や道徳、そして、もっと大きいところでは公共心というところがあるのですけれども、これが、人とAIを比較すると、公共心や倫理道徳といったものは学習できないのではないかと言われて人と比較するのです。

ただ、自分が、AIに様々な学習をさせていると、一般的に存在するデータから学習されたら、一般的な倫理、道徳心、公共心は学習するのですね。ですから、学習できないという話では、私はないように思っているのです。

そうすると、AIそのものをツールとして考えたときに、使い方の問題なら、AIそのものの問題ではなくて、使う人間の問題そのもので、その人が、倫理感がないとか、公共心がないという問題と整理できる部分と、AIそのものが内在している問題ということでは、今度は、また学習させる側が、平均的な姿を学習させるではなくて、学術的にはレベルの高いものを学習させるのですけれども、逆にレベルの低いものを学習させると、非常にレベルの低い、倫理感のない、公共心のないAIが出来上がるのですけれども、これもやはりつくる側の倫理の問題だと思うのですけれども、そこを自分が考えている中で、先生としては、法律として、このAIに規制をかけるとしたらどう考えるか、特にその倫理や公共心といったことをAIは学習するかということについて、お考えを教えていただければと思います。

○大阪大学社会技術共創研究センター工藤特任准教授 御質問いただき、ありがとうございます。

人間が心を備えるように、AIも公徳心を備えられるのかというのは、すごく哲学的な問題で難しいのですが、人間が偽善的な行為をするように、つまり「こういった行為をすると外部から評価されて、メリットが得られる」みたいなことを覚えることがあるように、AIが外形的に「こういう行為をすると、どうも評価されるらしい」ということを学び、そういった行為をするということは、多分、可能だと思います。

ただ、AIというのは、おっしゃるとおり、開発者が与えたデータに基づいて学習をしていくので、開発者次第、人間次第であるというところはあるのですが、人間の子供が道徳を学ぶのとは違うメカニズムで、AIは学習をしている。ですので、人間である開発者が予期しないような振る舞い、「何でそうしてしまったの」みたいなこともしてしまったりする。人間と似たような教え方をしても、あまりうまくいかないこともあるという点は、多分1つ注意しなければいけないポイントだと思います。

その上で御質問に直接答えていこうとすると、規制とか法制度としてどういうことが考えられますかという点ですが、1つ考えられるのは、公平性とか、道徳的によいとされるものを必ず学習させるようにしましょうというものがあります。そして、AIがきちんと学習できているかを評価できる枠組みをつくって、テストをつくることによって、そのテストで合格点が取れているかどうかをチェックします。場合によっては、そのテストのスコアを公開することによって、消費者の皆様が、このAIがちゃんと平等に振る舞えるかどうかを確認できるようにするということが、法制度としてあり得ると思います。

他方で、ここから少し問題があるのですが、御案内のとおり、アメリカにおいては政権交代が起きました。バイデン政権においては、先ほど申し上げたような取組が、自主規制を促進するという形ではあるのですが、政府と事業者が共同歩調を取る形で進んでいたのですけれども、トランプ政権になりまして、変化しました。「DEI」、ダイバーシティ・イクオリティー・インクルージョンに対して、非常に批判的な立場を取る政権になったということもありまして、先ほど申し上げたようなDEIの観点からのAIモデルのリスク評価基準は、「AIアクションプラン」という米国の国家戦略の中で除外されました。少なくとも政府の調達においては、そういった評価項目を入れないようになりました。リベラルすぎる「ウォークAI」は、かえって中立性を損なってよくないということが記載されていたりする。法制度のつくり手としては、この点に学ぶべきところがあるというか、そういった批判にも耐え得るような仕組みを日本はつくらなければならないのかなと思っております。

以上です。

○今村委員 ありがとうございました。大変ためになりました。ありがとうございます。

○鹿野委員長 ありがとうございます。

あと、黒木委員長代理からお手が挙がっていますが、工藤先生におかれては、御都合により11時までと伺っておりますが。

○大阪大学社会技術共創研究センター工藤特任准教授 多少の延長は大丈夫ですので。

○鹿野委員長 そうですか、それでは、黒木委員長代理、お願いします。

○黒木委員長代理 大変ありがとうございました。

消費者の脆弱性が現代社会の中で非常に変わっているというパラダイムシフト専門調査会の報告書と、それを受けて、これからいろいろな法制度の議論がされる中で、先生の御議論は非常に示唆的だったと私は思っています。

その関係で、対話型AIの依存問題と未成年の問題について、絞って少しお尋ねしたいのですが、AI提供者、AI開発者、AI事業者は、消費者契約法上の定義では全て事業者ということになります。

そういう事業者について、青少年インターネット環境整備法17条以下のフィルタリングサービスのようなもの、例えばカリフォルニア州のSB243のような3時間ごとの休憩義務とか、そのようなフィルタリングをかけるという形で、まず社会的にこれをやってみたらどうかという立法提案を仮にする場合に、先生のお考えはどうでしょうか。AI開発事業者、AIベンダーに対してこのような義務を課すということについて、どのようにお考えかお尋ねしたいと思います。

以上です。

○大阪大学社会技術共創研究センター工藤特任准教授 御質問いただき、ありがとうございます。

まず、前段の消費者の脆弱性の話ですが、今回、AIの影の部分にすごくフォーカスを当てたのですけれども、途中で紹介したとおり、多分光の部分も非常に大きいところがあると思っております。つまり、AIは、消費者の脆弱性を補ってくれたり、ガードしてくれたりもする。消費者に寄り添ってくれるAIエージェントが現れてくれるのであれば、これほど心強いことはないとは思います。ですので、そのような方向性に産業政策として推進していくという点も、すごく重要になってくるとは思います。

その上で、御質問にありました未成年とAI依存の問題について、どういう立法の方向性があるのかというお話ですが、おっしゃるとおり、青少年ネット環境整備法等、既存の法制度を使う、あるいは改正することによって、ある程度対応することは望ましい方向性としてあると思います。

ただ、途中でも強調しましたとおり、まだ因果関係は十分に明らかになっていません。実態としてどれぐらいの被害があり、導入されたというペアレンタル・コントロールがうまく機能しているのかという点も含めて、もう少し立法事実とか、情報収集が必要な段階でもあるということは、まず思います。

また、2点目として、未成年者のプライバシーをどのように捉えるのかという点があります。AIに対して、辛い状況にあることを打ち明けるというのは、恐らく親とかには知られたくない、友達にも打ち明けられないという環境にあると思うので、ここの辺りのセンシティブな情報をどのように適切に扱うのかが問題になります。とはいえ、生命が守られなくて、自殺してしまったら元も子もないというのは、本当にそのとおりだとも思うので、このバランスをどのように慎重に取っていくのかが重要です。そのためにどういった第三者による監査やモニタリングが必要なのか、注意深く推進していかなければならないと思いますが、とはいえもう少し何らか手当が必要ではないかなというのが、直観的な私の感想となっております。

以上です。

○黒木委員長代理 ありがとうございました。

○鹿野委員長 それでは、予定の時間がまいりましたので、質疑応答、意見交換を以上とさせていただきたいと思います。

工藤先生、お時間がきましたら、そのまま退出してください。

○大阪大学社会技術共創研究センター工藤特任准教授 ありがとうございました。失礼いたします。

○鹿野委員長 本日は、大阪大学社会技術共創研究センターの工藤特任准教授に御出席いただき、貴重な御発表をいただきまして、誠にありがとうございました。

工藤先生からは、AIエージェントに関わる諸問題として、AIアラインメントの問題、AI間交渉力格差の問題あるいはAIシステムの相互作用による価格形成の不安定化が生ずるおそれなどについて御指摘をいただきました。

また、AI検索に関して生じ得る消費者の誤認惹起等の問題についても御指摘をいただきましたし、さらにAI依存の問題についても、これは、今後の実態把握や調査研究が求められている段階であるという留保つきではございますが、現時点で現れている問題などについて御指摘をいただいたところでございます。

それから、質疑応答のときも含めて、海外の取組状況などについても、その経緯を含めて御教授をいただきました。

質疑応答においては、対応策としてのAIの透明性の確保の問題、とりわけ、対象者のレイヤーに分けて透明性の内容を検討していくという方向性などについても議論がありましたし、さらには透明性以外のアプローチの可能性、それから、AIの生じ得る問題というところに焦点を当てて御報告をいただいたけれども、一方で、消費者の脆弱性を補う、言わばエンパワーするAIの可能性ということについても触れていただきました。

さらに、従来からの問題とAIにおける問題との違いやAIの特有性について、AIにおける消費者のリテラシー問題や、詐欺的事業者によるAI技術の悪用問題について、AIの公共性、道義性と機能のチェックの問題等について、また未成年者の問題などについても議論があったところでございます。

本日は、時間が限られてはおりましたけれども、各委員からいろいろな御質問があり、これは工藤先生の御発表が非常に興味深いものであったということの表れと思っております。本日の御発表を踏まえて、今後の検討の参考とさせていただきたいと思います。

工藤先生におかれましては、お忙しいところ御対応いただき、誠にありがとうございました。

(工藤特任准教授 退出)


《3. その他》

○鹿野委員長 続きまして、消費者委員会に寄せられた意見書等の概要につきまして、事務局から御説明をお願いします。

○友行参事官 それでは、参考資料の1を御覧いただけますでしょうか。消費者委員会に寄せられた要望書・意見書・声明文等一覧となっております。

1つ目は、国民生活センターテスト部での実証実験の要望書となっております。

右側のポイントのところでございます。香害、香りの被害の声は増える一方で、改善の兆しすらないという内容で書かれております。

これ以上の健康被害や移香被害が広がらないように、マイクロカプセル等の徐放技術を用いた製品の欠陥を明確にし、安全の確保と品質の改善を事業者に求めていく必要がある。

ついては、その根拠資料にするため、実証実験の実施を要望するということで、国民生活センター商品テスト部において、大手洗剤メーカー製品の繰り返し使用による香料等揮発性化学物質の変化を検証することなどという要望書の内容となっております。

その次が、製油製品における表示制度の整備に関する提言となっております。

右側のポイントのところでございます。精油、エッセンシャルオイルなどとも呼ばれますが、それにはGHS分類に該当する成分が含まれ、皮膚刺激性・感作性・環境毒性などのリスクがあるということが要望書の提言の中に書かれております。

消費者委員会への提言は以下のとおりということで、3つ挙げられております。

1つ目は、精油を家庭用品品質表示法、雑貨工業品品質表示規程に品目指定するということでございます。

2つ目が、GHS分類に基づく成分表示の推奨でございます。

このGHS分類というのは、化学品の危険、有害性を世界共通ルールで分類、表示する仕組みのことでございます。それにより、安全な使用等の促進に寄与すると言われているものであります。

3つ目が、業界自主規制の支援ということで、表示制度の導入に向けた業界団体による自主規制の整備を支援するという内容の提言でございます。

そのほか、こうした団体から寄せられた意見のほかに、個人の方から13件の意見等が寄せられております。内訳としては、取引契約関係10件、その他3件となっております。

以上でございます。

○鹿野委員長 御説明ありがとうございました。

この点について、委員から何か意見、コメント等がございましたらお願いします。

よろしいでしょうか。それでは、これらの意見書等については、必要に応じて消費者委員会の調査審議において取り上げることといたしたいと思います。御意見等を寄せてくださった皆様には、どうもありがとうございました。


《4. 閉会》

○鹿野委員長 それでは、本日の本会議の議題は以上となります。

最後に事務局より、今後の予定について御説明をお願いします。

○友行参事官 次回の本会議の日程と議題につきましては、決まり次第、委員会ホームページを通してお知らせいたします。

以上です。

○鹿野委員長 本日は、これにて閉会とさせていただきます。

お忙しいところお集まりいただきまして、誠にありがとうございました。

(以上)