【内閣委員会】AIが人を評価・選別するプロファイリング/差別・不利益の危険/法規制を

 私は、AI推進法の質疑に立ち、AIが人を評価、選別するプロファイリングとスコアリングの問題を追及しました。

 私は、米アマゾンが開発したAIを活用した人材採用システムに女性を差別する欠陥が見つかった事例を示し、AIには差別や不利益につながるバイアスがあると指摘。また、AIには判断の過程や根拠がブラックボックス化する問題があるとして、政府が把握している具体例を質問。内閣府は「あるクレジットカードにおいて、同じ年収であっても女性の方が利用限度額が低い傾向があるとの疑いに対し、企業はそのアルゴリズムについて説明することができなかった」と答えました。

 私は、時事通信が主要企業100社に行った調査によると、採用活動でAIを導入する企業は約3割に上っていることを紹介し、「雇用は人生を左右する重大な判断であり、労働者に不利益がもたらされることがないよう極めて慎重な対応が必要だ」と強調。日本IBMでは会社側が人事評価と賃金決定にAIを導入したことに対し、労働組合がAIによる評価内容の開示を求めたところ、会社側が拒否をしたことを示し、「法的規制がないのでは労働者の権利を守ることはできない」と批判。EUではAI法を作り、雇用や人事採用選考などでAIを利用することをハイリスクと位置づけ、第三者機関による適合性審査などを義務付けているとして、「国内でも同等の措置を義務付けるべきだ」と主張しました。

 城内実内閣府特命担当大臣が「既存法とソフトローを組み合わせて対応していく」と答えたのに対し、私は、日本IBMの問題の背景には米本社の人員削減計画があるとして「AIがリストラツールに使われる懸念もある。人権が国で違いがあってはならない」と強調しました。

衆議院TV・ビデオライブラリから見る


「議事録」

第217回通常国会 令和7年4月16日(水曜日)内閣委員会 第14号

○塩川委員 日本共産党の塩川鉄也です。

 AI推進法案について質問します。

 今日は、まず、AIによるプロファイリング、またスコアリングの問題について質問をいたします。

 二〇一九年に、リクナビを運営するリクルートキャリアが、就活生のサイト閲覧履歴などの情報をAIで分析し、約九万人の内定辞退率をスコア化し、本人同意なく採用企業に販売していたことが大問題となりました。企業によるAIを用いたプロファイリング、スコアリングの利用実態が明らかになった事件の一つであります。このことが、学生たちの就職活動、人生に不利益となる影響を与えてしまった可能性は否定しようがないと思います。

 時事通信が主要企業百社に行った調査結果によると、採用活動でAIを導入する企業は約三割に上っておりますが、雇用や採用選考は人生を左右するような重大な判断であり、労働者や採用希望者に不利益がもたらされることがないよう、極めて慎重な対応が必要であります。

 質問します。

 AIによる評価、分析のバイアスについてお聞きします。

 政府が取りまとめた人間中心のAI原則では、AIに関するバイアスにはどのようなものがあると記載をしておりますか。

○渡邊政府参考人 お答え申し上げます。

 ただいまの人間中心のAI社会原則は二〇一九年三月に策定されたものでございますけれども、この中では、書いてあることをそのまま申し上げますけれども、AIの長所、短所をよく理解しており、とりわけAIの情報リソースとなるデータ、アルゴリズム、又はその双方にはバイアスが含まれること、これらを認識する能力を人々が持つことが重要とされております。

 また、データのバイアスには主として三つございまして、一つは統計的なバイアス、二つ目は社会の態様によって生じるバイアス、三つ目はAI利用者の悪意によるバイアス、この三種類があることを認識していることが望ましいというふうにされております。

○塩川委員 そのようにAIによるバイアスの指摘があるところです。

 実際、アメリカのアマゾンは、開発したAIを活用した人材採用システムに女性を差別する機械学習の結果が判明をし、運用を取りやめたという例もあります。AIが学習したデータが男性が大半である過去十年間の応募者データであり、男性の応募者の方が有望、女性は低く評価すると学習してしまったために起こったと報じられています。

 また、AIには、判断の過程や根拠が不透明であるブラックボックス化という問題もあります。

 お尋ねしますが、AI事業者ガイドラインでは、ブラックボックス化の事例としてどのような事例を紹介していますか。

○渡邊政府参考人 お答え申し上げます。

 AI事業者ガイドライン、これは総務省と経済産業省が策定しているものでございますけれども、これの本体というよりは別添になりますけれども、別添に記述がございますので、読み上げをさせていただきます。

 「AIの判断のブラックボックス化に起因する問題も生じている。とあるクレジットカードにおいて、同じ年収を有する男性及び女性に対して、女性の方が利用限度額が低いとの報告がSNS上で広がった。この問題に対し、金融当局が調査を実施し、クレジットカードを提供した企業に対してアルゴリズムの正当性の証明を求めた。しかし、企業はアルゴリズムの具体的な機能及び動作について説明することができなかった」という記述がございます。

○塩川委員 説明することができなかった。AIの利用には、バイアスやブラックボックス化という差別や不利益につながる深刻な問題があるということであります。

 国内でも、既にAIによる人事評価が問題となっています。

 その一つが日本IBMでありまして、日本IBMが人事評価と賃金決定にAIを導入したことに対して、同社の労働組合でありますJMITU、労働組合IBM支部が、AIの学習データやAIが表示するアウトプットの内容などの開示と説明を求めたところ、同社はこれを拒否しました。

 労働組合は、不当労働行為である不誠実交渉だ、支配介入に当たるとして、二〇二〇年に東京都労働委員会に救済を申し立てました。四年の交渉を経て、二四年八月、ようやく事業者側がAIによる評価項目を全開示することなどで和解をしたということであります。

 労働組合は声明で、社会の様々な領域でAIの利用が進む一方、社会に残る差別をAIが学習して再現したり、判断過程がブラックボックス化して理解不能に陥るなどの弊害が指摘されている、企業が人事管理にAIを利用する場合、公正性と透明性の確保が課題となるが、法規制は進んでおらず、個々の労働者の努力には限界があると指摘をしています。

 また、組合の中央執行委員長は東京新聞のインタビューに、当時はAIが何を考慮するのか全く明らかにされず、どのような根拠で判断するかも見えない、そしてその結果も知らされないという状態だった、もしかしたら組合員であることが影響するかもしれないと問題点を指摘しておりました。

 ここでお尋ねしますが、AIによる評価、分析は、バイアスがかかるという問題や、その過程や根拠がブラックボックスである問題があります。採用選考や人事評価などにAIを用いる事業者に対し、AIのデータセットやアルゴリズム、AIによる評価結果やその根拠を開示する義務を課すべきではありませんか。

○渡邊政府参考人 お答え申し上げます。

 本法案では、AIのデータセットですとかアルゴリズム等の開示を求める規制は想定をしておりません。

 他方で、本法案に基づいて国が指針を整備していく予定でございますけれども、そのときに、広島AIプロセスの国際指針等の国際規範に準拠するということを考えております。

 それによりますと、AIのライフサイクル全般、このライフサイクルというのは開発から活用までの全ての段階ということでございますけれども、そこにおけるリスクを特定して軽減するため適切な措置を講じるということが指針の中には書いてございまして、その適切な措置には多様なテストというのが含まれまして、そのテストのために、AI開発者はデータセット等に関するトレーサビリティーを可能にするよう努めるべきという記述がこの国際指針の中にございます。この趣旨を、是非、私どもとしては、指針の中に反映していきたいと思います。

 指針には罰則はございませんけれども、先日来の御審議のとおり、違法行為に対して適用される既存の法律と今回のAI法案とを組み合わせて対応してまいりたいというふうに考えております。

○塩川委員 指針でという話ですけれども、それでいいのかという問題であります。

 この日本IBMのケースでは、労働組合の皆さんが頑張って、四年間の運動を通じて和解に至ったけれども、ほかの事例もそうなるとは限りません。この日本IBMの問題でも、背景にはアメリカの本社が進める三千九百人の人員削減の計画があるんです。AIがリストラツールに使われる懸念もあります。そこに法的規制がないのでは労働者の権利を守ることはできないのではないのか、このことが問われていると思います。

 大臣にお尋ねします。

 EUではAI法を作り、雇用や人事、採用選考などでAIを利用することをハイリスクと位置づけ、第三者機関による適合性審査などを義務づけております。日本企業がEUで活動する場合には、当然、AI法に基づきこの適合性審査などを受ける義務を負うわけで、日本ではそれがないという点でのダブルスタンダードになるわけです。EUでできることは是非この日本でもやってもらったらいいじゃないか、国内でもEUと同等の義務づけを求める、そういう措置が必要ではないでしょうか。

○城内国務大臣 お答えします。

 私も、塩川委員御指摘のとおり、こういったAIが巨大企業の経営者の安直なリストラツールになるようなことがあってはならないというふうに思います。

 それを踏まえてお答えしますが、EUのAI法では、確かに、御指摘のとおり、AIをリスクに基づき四つのランクに分けまして、最上位から二段階目にハイリスクなAIシステムを設定いたしまして、この段階のAIシステムを扱う事業者には基準遵守義務が課されている状況というふうに伺っております。

 先ほどの今井委員からの御指摘も踏まえて御答弁したことと重なりますけれども、雇用や人事、採用選考の在り方につきましては、我が国においては、AIに特化したものではないものの、厚生労働省のガイドライン等において一定の考え方が示されております。その上で、例えば男女雇用機会均等法では、雇用管理の各ステージにおきまして性別を理由とする差別が禁止されているなど、既存法による一定の取組もございます。

 ここがちょっと重要だと思うんですが、国によってやはりその歴史や文化、そういった社会的背景などが異なるため、その結果、各国の制度体系というのは全部一緒ではなくて異なっているということでありますので、繰り返しになりますけれども、我が国としては、既存法、そしてソフトローを適切に組み合わせてリスクに対応することを基本としながら、本法案の第十六条にございます情報収集や調査、指導、助言、情報提供等を通じて必要な対応を図っていくということを考えております。

○塩川委員 人権で国によって違いがあってはならないと思います。

 AIによるプロファイリングやスコアリングが、バイアスやブラックボックス化の問題があり、差別や不利益をもたらす危険があるわけです。分野によっては、禁止することも含めて、AIによる評価を拒否する権利、評価を開示し、その根拠を説明する義務、第三者機関による審査と監視などの規制、不利益を受けた際の救済措置などが必要だということを申し上げておきます。

 続いて、著作権保護についてお聞きします。

 二〇一八年の著作権法改正に盛り込まれた権利制限規定によって、AIの学習目的であれば、原則、著作物の収集を権利者の許諾なく行うことが認められております。このため、AI事業者によって、ネット上で公表されている新聞記事やイラストなどの著作物が権利者の許諾なく収集される事態となっております。

 文化庁に聞きます。

 日本新聞協会は、二〇二五年一月に、新聞協会はAI事業者に対し、報道コンテンツを生成AIに利用する場合は許諾を得るよう繰り返し求めているが、改善が見られないままサービスは拡大の一途をたどっていると意見を出しております。政府としてはどのように対応したでしょうか。

○中原政府参考人 文化庁におきましては、クリエーター等の権利者からの懸念のお声を受けまして、AIと著作権の関係につきまして議論を行いまして、令和六年三月に、AIと著作権に関する考え方についてを取りまとめたところでございます。特に、AIと著作権に関するクリエーター等の権利者の懸念を払拭する観点から、AI学習のための著作物の利用であっても、いわゆる著作権法第三十条の四の要件を満たさず、権利者から許諾を得ることが必要な場合があり得ることなどをお示ししております。

 文化庁におきましては、この考え方につきまして、セミナーなどを通じて周知啓発を行うとともに、文化庁において設けられております相談窓口等を通じた著作権侵害に対する具体的な事例の集積を行っているところでございます。

 こうした周知啓発や事例の集積、そしてAIやこれに関する技術の発展、諸外国における検討状況などの進展等を踏まえながら、必要に応じた検討を続けてまいりたいと存じます。

○塩川委員 周知啓発でいいのかという問題であります。

 新聞協会からは、この間の政府の対応について、現状では機能しているとは言い難い、そもそも現行の法体系が生成AI時代に沿ったものとは言い難いとの指摘がされております。ですから、新聞協会は、AI事業者による自主的な取組や、ガイドライン等のソフトローでは対応し切れない状況を打開するため、著作権法の改正を含め、生成AI時代に沿った法整備を出すべきだと指摘をしております。

 無断学習を認める著作権法を改正し、事前に権利者の許諾を得る、こういったことを必須とする、そういった改正が必要ではありませんか。

○中原政府参考人 AIと著作権に関する考え方を発出以降、先ほど御説明を申し上げました相談窓口などの設置のほかに、令和六年四月以降は、関係当事者間の適切なコミュニケーションを推進しまして、AIの適正な開発及び利用の環境を実現する観点から、AIの学習における望ましい著作物の利用方法などについて関係当事者間で情報共有を図る場を創設しまして、情報交換などにも取り組んでおります。こうした中で、民間事業者の取組の例としても、クリエーターがAIを活用して創作活動を行う例や、権利者への対価還元に向けた取組も出てきているところでございます。

 そして、先ほどの相談窓口に寄せられた例としましては、自身が作成したイラストがAIを利用して改変されたですとか、学習用データとして収集されて、いわゆる海賊版サイトに自身の画像が無断で転載されたなどといった御相談をいただいておりまして、これらは考え方において想定されていたものでありまして、著作権侵害として対応可能な例であるというふうに考えております。

 まずは、こうした周知啓発や事例の集積、AIやこれに関する技術の発展、そして諸外国における検討状況などの進展等を踏まえながら、必要に応じた検討を続けてまいりたいと存じます。

○塩川委員 コミュニケーション、情報共有といっても、それ自身が、相手の事業者がそれを受けない、特に海外の事業者はそういう対応を行わないという実態があるわけで、新聞協会の指摘を重く受け止めるべきであります。

 前回の個人情報の問題でも同様でしたが、AIの研究開発、活用を推進する法案を出す一方で、著作権や個人情報の問題があれば、結局、当事者が裁判をやってくれということでは、政治の責任を果たしているとは言えないということです。

 チャットGPT―4oの画像生成機能でのジブリ風の加工の話も、著作権法違反に当たる可能性がある、こういう問題もありますし、俳優や声優の声が本人の同意なしに生成AIによって加工され、利用されている実態もありますが、声は著作権の対象外ということで事実上放置されているということもあります。これに対して、俳優、声優の方たちからは、声の肖像権の設立を求める声明も出されております。

 大臣にお尋ねします。

 知的財産を保護せず、生成AIの推進だけを推し進めれば、コンテンツ再生産のサイクルは機能しなくなる。例えば、報道機関が縮小すれば市民の知る権利が後退することにつながるように、この問題は、権利者の問題にとどまらず、市民の権利や文化に取り返しのつかない不利益をもたらす、こういう問題だという認識はお持ちでしょうか。

○城内国務大臣 塩川委員御指摘のとおり、AIの研究開発や活用の推進を図っていく中にあっても、やはり知的財産が適切に保護されることで新たなコンテンツが継続的に創作される環境を実現することが、知る権利あるいは文化の発展を守っていく上で極めて重要であります。

 その上で、例えば、信頼できるAI開発者の下に良質なデータが集められ、それを用いてより高度なAIが開発、提供されることで、新たなコンテンツ創作活動につながる好循環を実現することが理想だと考えております。

 このため、令和六年五月に公表いたしましたAI時代の知的財産権検討会の中間取りまとめでは、そのような好循環を生み出すための方策として、法、技術、契約、この三つの手段の適切な組合せにより、AIに関する懸念や知的財産権の侵害リスクに対応していくことが必要である旨が示されているところであります。

 政府としても、新たなコンテンツの創作活動につながる、今申し上げました好循環が生み出せるよう、各主体が適切に対応していくことを求めてまいります。

○塩川委員 法、技術、契約、これでは対応ができていないという現状があるということであります。

 著作者の保護のためにも、市民の権利や文化を守るためにも、AI事業者に責任を果たさせる法整備が必要だと考えます。現状では、著作権法には、著作者が自らの著作物が学習データに使われているのかを確認する開示請求権も明記されておりません。

 最後に大臣にお尋ねしますが、この法案で、AI事業者に対しデータセットの開示を義務づけるなど、法整備を行う必要があるのではありませんか。

○城内国務大臣 お答えします。

 知的財産としての適切な保護や対価還元の要否を権利者において確認するために、学習いたしましたデータセットにどのような情報を用いているかについて、AI事業者からの開示が必要となる場合があることは認識しているものであります。

 データセットを含めたAIの透明性確保の在り方は非常に重要な観点であると考えておりますので、本法案第十三条に基づきましてAIの適正な研究開発及び活用のために新たに策定する指針におきまして、データセットに係る情報提供などAIに関する透明性を確保するための内容を、ここにしっかりと盛り込んでまいる考えであります。

 いずれにしましても、しっかりと対応してまいります。

○塩川委員 プロファイリング、スコアリング、また著作権保護の立場からも、ルール作り、法整備が必要だということを申し上げて、質問を終わります。