AIガバナンスとは、人工知能(AI)の開発と利用を倫理的・法的・社会的基準に沿って監督・管理することで、AIによる事故やAI活用に伴うリスクへの対策を行う枠組みのことを指します。
AIの利活用においては、社会における差別を再生産してしまう公平性の問題や、AIの脆弱性を突いた新たなセキュリティリスク、データプライバシーの問題などが認められており、大きな社会問題となっています。AI利活用を推進する企業においては、単にAIの導入を進めるだけでなく、AI活用に伴うリスクマネジメント、すなわち、AIの判断に対する説明責任やAIの適正利用対応が必要となっています。
AI技術の進化と普及に伴い、企業はこれらのテクノロジーを活用することで大きなビジネス価値を享受しています。一方で、AIの運用は新たなリスクも生み出します。AIリスクの特徴として、下記の3つが挙げられます。
多様かつ影響範囲が広い特徴を持つ代表的なAIリスクは公平性です。AIの学習データの偏りによって、チャットボットが人種差別を含む不適切な発言をする、クレジットカードの審査にて性別に基づく差別を含んだ判断を行ってしまうなど多くの問題となった事例が存在します。
近年、生成AIを中心にAI利活用が進むにつれて、新たなサイバー攻撃の一つであるプロンプトハッキング等のセキュリティリスクや、利用者の許可を取っていない等の個人情報の不適切利用を含むデータプライバシー等のリスクも顕在化しつつあります。
これらのリスクは企業やその顧客の信頼性・安全性に極めて重大な影響を及ぼす可能性があるため、AIガバナンスの重要性がますます増しています。生成AIに代表されるような特に技術の進歩が早い領域をビジネスに取り込むうえでは、日々新しい論点のリスクが発生するため、企業側も柔軟なリスク対応体制の構築が求められています。
デロイト トーマツが日本企業におけるAIガバナンスの取り組みや、AI利活用に向けた投資の状況、AI固有リスクへの対応を概観するため例年実施している「AIガバナンス サーベイ」では、AIの利活用がPoCだけでなく実際のビジネスにおける運用まで進んでいる傾向がみられています。
一方で、活用を進めている企業の多くにおいても、AI利活用時の開発プロセスや運用プロセスの標準化はいまだ進んでいません。AIを利活用する企業は、自社のAIサービスが抱えるAI固有のリスクを正しく把握し、適切に対応するための体制づくりが求められています。
多くの企業がAIガバナンスの整備に力を入れる一方で、きちんと機能するAIガバナンスの確立に苦労している企業は少なくありません。その主たる原因として、AIガバナンスの体系的な整理にとどまってしまい、業界慣習や企業文化、ユースケースなどの企業が置かれた文脈を十分に考慮したうえで自社に適するAIガバナンスの在り方とは何かという検討が十分になされていないことが挙げられます。
AIガバナンスは、経営層からAI導入・開発部門、リスク管理部門、内部監査部門まで、全社横断的に取り組む必要があり、そのあるべき姿は以下のように整理されます。
このあるべき姿を見据えつつも、自社の状況を踏まえ、AIリスクを低減するために実施すべき項目から段階的にAIガバナンスを実施していくことが肝要です。
デロイト トーマツでは、各企業に適したAIガバナンスを整備するためのソリューションを有しています。各企業の特性を踏まえたリスク・対策の検討からプロセス・ガイドラインの整備、時代に応じたタイムリーな更新に至るまで、AIガバナンス策定・実行を支援いたします。
AIの活用に伴うリスクの低減を目指し、国内外から多くのAI原則・ガイドラインが公開されています。
日本国内においては、総務省・経済産業省が2023年12月に「AI事業者ガイドライン案」を公表しました。これは「既存のガイドラインを統合・アップデートし、広範なAI事業者向けの統一的で分かりやすいガイドライン」1 を目指し作成されたもので、「AI 開発者(AI Developer)」「AI 提供者(AI Provider)」「AI 利用者(AI Business User)」の3つの立場ごとに留意点がまとめられたものとなっています。
このAI事業者ガイドラインについては、別途『AI事業者ガイドライン – 解説』で詳しく解説しています。
日本国外においても、各国・地域においての法規制やガイドラインが設定されはじめています。欧州においては、2024年3月13日に正式承認されたEU AI Actを中心に、AIの信頼性の確保やリスク管理をAI事業者に求める法律の整備が進められています。米国では、NISTが「AI Management Framework」を作成している他、連邦政府としても「安全、安心かつ信頼できるAIに関する大統領令」を2023年10月に発表し、国として各領域で消費者保護・プライバシー保護など各領域でのガバナンス基準の作成をすすめることを発表しています。
EU AI Actについては『EU AI Act – EUの包括的AI規制の概説と企業の対応』で、NIST「AI Risk Management Framework」については『NIST AI Risk Management Framework(AIリスクマネジメントフレームワーク) – 概説』で詳しく解説しています。
生成AIの利活用が隆盛を極める現在、上記のような各国・地域での法規制への対応はもちろんのこと、業界ごとに定められているガイドラインの遵守によるAIガバナンスの高度化は、経営管理等に資する極めて重要な取り組みのひとつと言えます。AIガバナンスの高度化のためには、法規制・ガイドラインを読み取ることは必要です。
前述の通り、AIリスクは多岐に渡り、生成AIの躍進など、技術の進化や法規制化の動きも速く、その対策は容易ではありません。デロイト トーマツではこの難しい課題に対し、「実践」、「連携」、「反映」の三点を重視し、AIガバナンスの高度化に取り組んでいます。
デロイト トーマツでは、これらの取り組みから得られたAIガバナンスの方法論を、各企業の状況に合わせ構築できるよう、AIガバナンスの実施項目を体系的に整理し、AIガバナンスサービスとして展開しています。
またデロイトでは、Trustworthy AI(信頼できるAI)と題してAIガバナンスに関するフレームワークをグローバルで提唱しています。信頼できるAIをいかに実現していくか。あるいは、AIをいかに信頼できるものとして活用していくか。企業や組織がAIの取り組みを進めていくにあたっての重要な観点であり、AIを用いた効果的オペレーションや競争力創出に必要となるものです。
AIのユースケースに応じてどのようなリスクがあるのかを識別し、必要となる観点を踏まえた対処を行うことがガバナンスの要諦です。どの段階に位置する企業、組織にとっても、安全かつ確実にAI活用を進めて成果を出すための助けになります。
AIのリスクは技術進化や社会動向等に応じ変化します。
技術進化の点で特に注目すべきは、生成AIの躍進です。AI利用者は言葉で生成AIの振る舞いをコントロールできることから、AI利用者の数やAI利用者ができることは、これまでのAIと比べて大きく広がり、そしてAIのビジネス導入プロセスも大きく変化することになります。このような変化により、AIリスクはさらに多様化していきます。
このような大きな変化が起こるAIのリスク対策において、AIガバナンスの実践とその知見を有する「産」、最先端技術の動向とその社会導入のあるべき姿を研究する「学」、そしてこれらを踏まえイノベーションを阻害せずに適切なルールを制定する「官」の連携は、これからますます重要となってきます。
デロイト トーマツはAIガバナンスの適切な社会導入を目指し、このような産官学の連携に積極的に参加するとともに、産官学連携を柱とする包括的なAIガバナンスの研究を行っています。これらの活動を通じて得た包括的なAIガバナンスの知見を活かし、クライアントへの先進性のある情報提供やプロジェクト推進が可能です。
1 総務省「「AI事業者ガイドライン案」に関する意見募集」より引用。
https://www.soumu.go.jp/menu_news/s-news/01ryutsu20_02000001_00009.html