メインコンテンツに移動する

AIガバナンスにおける透明性確保のポイント

HAIP Transparency Reportから読み解く開示の方向性

AIガバナンスの重要性が高まる中、広島AIプロセス(HAIP)から生まれた「HAIP Transparency Report」※1が注目されています。本レポートの開示において国際的に先行する日本企業の取り組みやグローバル企業・組織の動向から、各組織のAIガバナンス動向に関心を持つ皆様は勿論のこと、今後自組織のレポート開示を検討する皆様への一助となる情報をご紹介します。

※1 OECD:「HAIP Transparency Report」掲載ページ
Submitted reports | OECD.AI | HAIP Reporting Framework

HAIP Transparency Reportとは

2023年5月に開催されたG7広島サミットを契機に高まっているAIガバナンス及びその開示の需要に応えるために策定されたレポーティングフレームワークで、7つのセクションで構成されています。レポートを発行する組織は7つのセクションとそれに紐づく39の質問に回答することで、AIシステムを開発する組織としてのAIガバナンス状況を対外的に示すことが可能です。

また、レポートを閲覧する読者は統一された質問に基づく回答によって、各組織のAIガバナンス状況を均一に比較・把握することが可能です。

本記事執筆時点の2025年10月末現在、 日本および米国の組織を中心に、21の組織がレポートを開示しており、開示組織の中には民間企業に加えて研究機関や教育機関も含まれています。

各セクション別共通の取り組み分析

レポート内の各セクションについて、多くの組織に共通している取り組みからAIガバナンスの動向をご紹介します。なお、添付のPDFでは各企業の独自の取り組みについても解説していますので、そちらもあわせてご参照ください。

セクション1 - リスクの特定と評価

多くの組織がNIST AI RMF等の国際的なガイドラインに準拠する一方、独自のフレームワークを策定する組織も存在します。

  • リスク分類・評価の国際的な規制およびガイドラインに準拠
    NIST AI RMF、ISO/IEC 42001、EU AI Act、OECD原則等の国際的な規制やガイドラインを参照し、リスク分類・評価を実施
  • AIライフサイクル全体でのリスク特定・評価
    企画・開発・運用・保守の全段階でリスク評価を実施
  • レッドチーミング等のテスト導入
    内部・外部のレッドチーミング*1やアドバーサリアルテスト*2を実施
  • インシデントレポートの活用
    他組織のレポートも含め、リスク特定に活用
  • 外部専門家・第三者評価の活用
    外部専門家や第三者による評価・報告受付体制を整備
  • ステークホルダーとの協働
    業界団体、学術機関、規制当局等と連携しリスク低減策を推進

*1:攻撃者の視点でAIシステムのリスクを評価する手法。
*2:AIシステムに悪意のある情報を入力し、不適切な出力がされないかテストすること。

セクション2 - リスク管理と情報セキュリティ

既存のリスク管理に加えて、バイアスの検出・言語モデルやRAGシステム、知的財産の保護等、AI固有の情報セキュリティ対策を実施しています。

  • AIライフサイクル全体でのリスク・脆弱性対応
    設計・開発・運用の各段階でリスク管理を実施
  • テスト結果の活用
    テスト・監査結果をモデル改善やリスク低減策に反映
  • セキュア環境でのテスト
    本番環境と分離したテスト環境で評価
  • データ品質・バイアス対策
    多様なデータ収集、バイアス検出・低減ツール、人的レビュー等を導入
  • 知的財産・プライバシー保護
    アクセス制御、暗号化、契約・法令遵守、プライバシーポリシー策定
  • AI固有の情報セキュリティ
    言語モデルやRAGシステム*3、知的財産の保護を含む多層的なセキュリティ、脆弱性管理、インサイダー脅威検知等
  • 脆弱性・インシデント・新出リスク対応
    継続的な監視・報告・対応体制

*3:Retrieval-Augmented Generationの略称。言語モデルがあらかじめ学習したデータに加えて、外部のデータベースや文章を検索して参照することで、回答精度を向上させる技術。

セクション3 - 先進的AIシステムの透明性報告

独自の透明性報告レポートやブログでの情報共有など、様々な方法でAIシステムの透明性を報告しています。

  • 能力・限界・利用領域の公開
    モデルカード*4や技術文章、FAQ等で能力・限界・適切/不適切用途を公開
  • リスク評価結果の共有
    多様なステークホルダーとリスク評価結果を共有
  • プライバシーポリシーの開示
    個人データや出力等の取り扱いを明示
  • 学習データの情報開示
    モデルカードや技術レポートなどでデータ出所・アノテーション情報を開示
  • その他の透明性手法
    監査証跡、ダッシュボード等で透明性を強化

*4:機械学習モデルのデータセットや学習過程、能力、制限事項やバイアス等について整理し、記載したもの。

セクション4 - 組織ガバナンス、インシデント管理、透明性

AIリスク管理を組織のガバナンス体制に組み込み、全社としてインシデント管理や透明性確保に取り組んでいます。

  • AIリスク管理のガバナンス組み込み
    全社的なガバナンス体制にAIリスク管理を統合
  • スタッフ教育
    全社員向けのAIガバナンス・リスク管理研修を実施
  • リスク管理方針の公開
    ウェブサイトやレポート等で方針・実践を公開
  • インシデント対応の記録・管理
    インシデントは記録・管理し、再発防止策を策定
  • 脆弱性・インシデント情報の共有
    社内外・業界団体等と情報共有
  • ベストプラクティスの共有
    研究・論文・ワークショップ等で知見を共有
  • 国際的なフレームワーク・ベストプラクティスの活用
    ISO/IEC、NIST AI RMF等の国際的なフレームワークを活用

セクション5 - コンテンツ認証・出所管理

AI利用を明示する手法の標準化が進む一方、出所証明技術の利用は限定的です。

  • AI利用の明示
    AIシステム利用時に明示的な通知やラベルを付与
  • 出所証明・ラベリング・ウォーターマーキング
    C2PA*5等が策定した国際標準や独自技術で出所証明・ラベリングを推進
    • 一部実施していない組織もあり、規制動向が見極められている段階

*5:Coalition for Content Provenance and Authenticityの略称。コンテンツの出所・来歴の認証に関する技術標準を策定している団体。

セクション6 - AI安全性・社会的リスク低減のための研究・投資

安全なAIの確立や社会的・環境的リスクの低減のために、AI固有のセキュリティ・大規模言語モデル・データセンター等、幅広い分野での研究・投資が進められています。

  • 安全性・公平性・説明性等の研究・投資
    バイアス低減、説明性、堅牢性、信頼性、誤情報対策等の研究・投資を推進
  • コンテンツ認証・出所証明の研究・投資
    ウォーターマーキング、暗号署名、検出技術等の研究・標準化に投資
  • AI安全性・信頼性向上の共同研究・投資
    業界横断の共同研究やツール開発、国際プロジェクトへの参画
  • 社会経済的・環境リスク低減の研究・投資
    省エネルギーAI、環境負荷低減、社会課題解決型AI等に投資

セクション7 - 人類・地球規模の利益の推進

AIを用いた社会・環境課題解決に加え、AI自体の省エネルギー化も進められています。

  • 社会経済的・環境的利益の最大化
    AIによる業務効率化、サステナビリティ、環境負荷低減、医療・教育・気候変動対策に注力
  • デジタルリテラシー・教育支援
    AIリテラシー向上のための教育・研修・教材提供
  • SDGs支援・責任あるAIプロジェクト優先
    SDGs達成に資するAIプロジェクトを推進
  • 市民社会・コミュニティとの連携
    NPO・研究機関・自治体等と連携し、社会課題解決型AIを推進

レポート開示状況の国別・地域別比較

AIガバナンスの開示状況は、日本・米国・EUそれぞれにおいて地域固有の特徴がみられます。

一方で、どの地域も共通して、現状最も厳格な法規制であるEU AI Actを基準にAIガバナンスが整備されています。

レポート開示予定組織に向けた提言

HAIP Transparency Reportは、統一されたフレームワークに基づき AI ガバナンスの取組みを開示することで、ステークホルダーが各組織の取り組みを比較・評価できる点に大きな意義があります。その効用を最大限に引き出すため、以下の4点を提案します。

  • 開示粒度の統一
    開示情報量には組織間で差異が見受けられ、読者による比較を困難にしています。
    レポート単体で各組織のAIガバナンス状況を比較できるような十分な粒度での開示を推奨します。
  • 未実施の項目に対する根拠の説明
    設問に対し「未実施」とのみ記載するのではなく、合理的な理由や背景を併記することで読者の理解や納得感を担保することができます。
  • 図や表の使用
    図表を活用して開示することで視覚的にも組織のAIガバナンス状況を捉えることが出来ます。例えば、NIST AI RMF等のフレームワークと自組織のガバナンス体制との対応関係を可視化し、AIガバナンスの全体像を直感的に伝えることも考えられます。
  • 具体的・定量的な情報開示
    方針の提示に加え、AIガバナンスを実現するための具体的なツールの活用状況や統制の頻度などを明示することで、開示内容の説得力を高められます。

デロイト トーマツのAIガバナンスへの取り組み

今回ご紹介したHAIP Transparency Reportを組織として公開するためには、強固なAIガバナンスの構築が必要不可欠です。デロイト トーマツではAIガバナンスに関して様々な観点から検討を進めているとともに、その高度化支援に取り組んでいます。

詳しくは以下をご覧ください。

このページはお役に立ちましたか?

ご協力ありがとうございました。