生成AIの利活用は企業競争力を高める一方、プライバシー侵害リスクを伴います。本稿では、日本国内の法規制や企業文化に焦点を当て、生成AIの活用時に直面する法的課題やリスク管理の実務的アプローチを解説します。プライバシー保護を競争力強化の要素として位置づけ、具体的な戦略構築のヒントを提供します。
近年のデジタル社会では、生成AIの活用が企業において重要な役割を果たすようになった。生成AIは様々な用途での活用が期待されており、入力した質問への回答に始まり、報告書の自動作成、広告コンテンツの生成、企画の立案、AIチャットボットによる顧客対応の自動化など、活用事例は枚挙にいとまがない。そして、プログラムなどのITに関する専門知識がない者も直感的に使用できることもあって、導入効果は極めて大きい。ある通信事業者では、AIが自ら考えて人の代わりを果たすAIエージェントの普及に備え、社内にAI活用モデルやノウハウを蓄積することを目的に、社内の問い合わせや市場分析は原則として生成AIに任せる等、業務での生成AIの利用を義務付ける旨が報道されており、このような企業の動向からも生成AIの活用が企業の競争力に直結するといっても過言ではないであろう。
しかし、生成AIは、ビジネスに役立つ反面、ツールに内在する以下のリスクがあり、利用方法によっては、法令違反や他者の権利侵害に該当する可能性がある。
上記のリスクのうち、特に留意すべき事項としてプライバシーへの抵触が挙げられる。生成AIは、ディープラーニングと呼ばれる手法により大量のデータを学習し、そのデータを基に指示された成果物を出力するようチューニングされるが、その学習用データとして重要となるのが個人情報を含むプライバシーデータである。プライバシーデータを活用することで、特定の顧客層やターゲットグループに特化した生成AIを構築でき、特定の業界やユースケースにおいて、より的確で効果的な応答が可能となる可能性がある。
このように生成AIにおいてプライバシーデータを活用することは企業競争力の強化に繋がるが、プライバシーの侵害リスクも高まるため、適切なプライバシーガバナンス体制を構築し、生成AIを「安全に使いこなす」ことが重要となる。以下、そのヒントとして、生成AIガバナンスにおけるプライバシーリスクとその対策を概説する。
AIライフサイクルに沿ったAIガバナンスの観点で、プライバシーの確保は様々な場面で関連するが、ここではプライバシーリスクが発生しやすい2つの場面、すなわち取得場面と提供(流出)場面を想定して各々リスクについて検討する。
(1)プライバシーデータの意図しない取得リスク
生成AIは、学習用データセットに含まれている情報を元に新しいコンテンツを生成するため、ユーザーが個人情報を入力しなくとも、学習用データに個人情報が含まれている場合、その情報が生成結果に再現される可能性がある。また、学習用データに個人情報が含まれていない場合でも、生成AIが偶然の一致や統計的な推測によって実際の個人情報に似た情報を生成することがある。このような場合、日本の個人情報保護法上は目的外利用(個人情報保護法第18条第1項、第17条)に該当する可能性がある他、特に要配慮個人情報が含まれている場合には、本人同意の取得義務に違反する可能性がある(同法第20条第2項)。
(2)プライバシーデータの意図しない提供・流出リスク
入力した情報がAIに学習されると、その情報は第三者からの質問に対する回答時に使用される可能性がある。匿名加工化した個人情報を入力した場合であっても、生成AIが学習した膨大なデータと匿名加工情報を照合することで、特定の個人が識別される可能性がある。
また、AIサービス提供事業者が保存している入力内容がインシデントにより漏洩する可能性は否定できず、組織内に閉じた生成AIであったとしても、例えば、特定の従業員のみがアクセス可能な人事データに基づいて生成AIツールを使用した場合、当該生成AIツールに入力された全ての情報がモデルのファインチューニング(既に学習済みのAIモデルを特定の目的に合わせて再学習させる手法)のために使用されることで、アクセス権限のない他の従業員にも広く当該データが開示される可能性もある。
AIモデルが学習用データから情報を再生成する際に、実在する個人の名前等の個人情報に誤情報が混在し、虚偽の個人データが拡散する場合には、さらに被害は深刻となり得る。生成した誤情報が特定の個人や団体の名誉や信用を毀損するものであれば、名誉毀損や信用毀損に基づく損害賠償請求を受ける可能性も否定はできない。生成AIによって作成された誤情報は、インターネットやソーシャルメディア上で急速に拡散される可能性があり、一度拡散されると、個人データの漏洩やプライバシー侵害が広範囲に及び、制御が困難になり得る。
上記のようなプライバシーリスクを含む、生成AIによって生じ得る各種リスクへの対応と利活用促進とを両立させるべく各国でも法整備が進んでいるが、日本では、2025年6月4日に、AIの研究開発・利活用を適正に推進するAI新法(人工知能関連技術の研究開発及び活用の推進に関する法律)が施行された。AI新法は、AIの研究開発・活用に関する基本理念や政府におけるAIに関する基本計画の策定、国による基本的施策の実施とそのための人工知能戦略本部の設置等、その多くの条項が国や政府を対象とする基本法的な性質のものである。民間事業者の義務を定める条項は、第7条における活用事業者の責務に限られており、且つ、その内容も努力義務的なものにとどまっている。
ただし、第16条では国が、国内外の不適切なAIの研究開発または活用に伴って国民の権利利益の侵害が生じた事案の分析および対策の検討、その他のAIの研究開発や活動推進に資する調査研究を行い、その結果に基づいて、研究開発機関、活用事業者その他の者に対する指導、助言、情報の提供その他の必要な措置を講ずる旨が定められている。実際に、どのような情報収集、調査、指導・助言がされるかは具体的な事案によるものの、「国民の権利利益の侵害が生じた事案の分析」が例示されていることから、例えば、生成AIを原因とする大規模な情報漏洩インシデント等の事案が生じた場合に、活用事業者等に対して情報提供要請や対応要請等が行われる可能性は否定できない。
現時点ではAIには未知の部分も多く、各国にとっても法規制の整備は発展途上の段階であるため、規制の影響を評価することや今後の規制の方向性を結論付けるのは時期尚早である。しかし、仮に、現時点での規制に抵触しないとしても、個人の権利侵害やそれに伴う社会的批判などのレピュテーションリスクにより企業価値が大きく毀損され得ることは、これまで個人情報保護やプライバシー保護の文脈で議論されてきたところと同様である。
もっとも、単純に、目的や利用方法を問うことなくあらゆる生成AI利用に関する制限を厳格化するだけでは、利活用に支障が生じ得ることは想像に難くない。過度に厳格で利活用の支障となるルールは、違反を招きやすく、結果的にリスクコントロールの実効性が乏しくなる可能性もある。
重要な点は、利用する生成AIツールの特性、導入目的、入力する情報の内容、AI成果物の利用範囲等を正確に把握し、これらの状況に応じて適用される規制や発生し得るリスクを分析することである。これらは、プライバシーガバナンスにおけるプライバシー影響評価(PIA)の仕組みの応用が可能である。AI倫理活動から得られたリスクに関する知見を、AIプライバシー影響評価に反映し、継続的にリスクアセスメントを実施することで、ユースケースごとのリスク評価が可能となる。
そのうえで、当該リスク評価に基づいて対応すべき事項をリストアップし、既存のガバナンス慣行(プライバシーなど)や技術面・知識面でのギャップの大きさ、コストの大きさ等をも考慮して優先順位をつけ、関係部署と協力して対処する計画を策定する必要がある。
さらには、生成AIの発展に伴い、発生し得るリスクや法規制の内容は時々刻々と変わっていくため、変化に柔軟に対応するには、必要なポリシー、プロセス、文書を策定し、データ利用に関するリスクアセスメント・内部監査を定期的に実施するとともに、従業員等のユーザー教育を行い責任ある利用を促す、すなわちAIガバナンス体制を構築することが必要である。AIモデルのデータ処理プロセスを明確化し、従業員等のユーザーや規制当局に対して説明責任を果たすことで透明性を確保することも、AI利活用における社会的信用を獲得するためには、重要な要素となる。
個人情報保護法をはじめとするプライバシーにかかわるルールで示されるガバナンスを生成AIの利活用において実現するためには、個別の利活用シーンに即したあるべきガバナンス体制をマルチステークホルダーの視点から議論し、結果を社内の関係者を含めて広く共有していくことが必要である。
さらに、技術や社会の変化により、従来の制度的なリスク評価やそれに基づくルールが現実と整合しなくなっている可能性にも留意し、改めてその体制を見直すことが、安全で効率的な生成AIにおける利活用に寄与し、ひいては競争力の強化につながるものと考えられる。
デロイト トーマツ ファイナンシャルアドバイザリー合同会社
ストラテジー
シニアマネジャー 末石 友香
マネジャー 村松 啓介
※上記の社名・役職・内容等は、掲載日時点のものとなります。