Posted: 21 Oct. 2019 3 min. read

「AIの倫理」ってナンだ?(後編)~人間とAIはどのように協調するのか~

AIと利用者の双方に倫理が求められることに焦点を当て前編はAI倫理を読み解きました。では、そういった社会において、我々はどのようにAIと協力していけば良いのでしょうか。AIの判断は常に100%正解ではなく、間違えることがあります。加えて、学習データの内容が変わると、AIの判断結果も変化することがあります。自動運転車の場合、その日の天候や周囲を走る車等の状況に応じて、走行の振る舞いが変わる可能性があります。

 人口知能のイメージ画像

レベル3の自動運転車(条件付運転自動化)は、自動運転の継続が困難となった状況下では、人間が運転を支援・代行することが想定されています。では、前編で示した「慣れていない夜道で、しかも通行止めに遭遇して、どうして良いか分からない」という状態に陥った場合、人間と自動運転車はどのように協力して問題を解決できるのでしょうか?総務省の「AI利活用ガイドライン」で定義される「AI利活用原則」の該当部分と併せて見ていきたいと思います。

まず、自動運転のAIが異常発生を認識した際に運転手に助けを求めます。このためには、運転自体を行うAIとは別に警告用AIもしくは自動処理を備えることが必要になります。(AI利活用原則【安全の原則】)。これで、過去の走行データから「慣れていない道」かつ「事故発生が多い道」という条件に合致した場合には運転手にアラートを出す等が行えるわけです。

運転手はAIからのアラートを受けて、自動運転車をどのように手助けするか(明確な指示を与える/運転を代わる等)の判断が求められます。この際に「何故AIがアラートを出したのか」が分からなければ、運転手側も適切な判断ができないため、判断根拠に係る「説明可能なAI(Explainable AI:XAI)」も必要になります(AI利活用原則【透明性の原則】)。

例えば、AIが「初めて通る道で、暗く狭い道なので、交通事故のリスクが高いかもしれません」とアラートを出し、それで、運転手側は「多少遠回りで良いので、明るい大通りに沿って進んでください」と適切な指示を行うことができるようになります。また、必要な場合には、運転手の自由意思によって人間の運転に切り替えることが求められます(AI利活用原則【適正利用の原則(人間の判断の介在)】)。

このように、AI活用型社会(AI-Readyな社会)を実現していくためには、人間とAIが互いに適正な倫理観を持ったうえで、協力して問題解決に取り組むことが必要です。OECD、European Commission、ISO等の団体でもAI倫理に係る具体化したガイドライン等の策定が進められていますが、日本においても様々な業態でのAI利活用を想定して、人間とAIがどのような倫理を持ち、協調していくべきか具体化していくことが期待されます。

D-NNOVATIONスペシャルサイト

社会課題の解決に向けたプロフェッショナルたちの物語や視点を発信しています

プロフェッショナル

松本 敬史/Takashi Matsumoto

松本 敬史/Takashi Matsumoto

デロイト トーマツ グループ シニアスペシャリストリード

AIおよびメタバースを含むEmerging Tech全般のガバナンスの研究・サービス開発を推進している。 AIガバナンスの領域においては、産官学でのステークホルダーと連携しながらフレームワークの開発・ケース検討・研究発表等の活動を多く実施している。 東京大学未来ビジョン研究センター客員 AIサービスとリスクコーディネーション研究会(東京大学未来ビジョン研究センター)