2025年5月28日、デロイト トーマツは、大阪で開催された人工知能学会全国大会において、対話型AIに関する共同研究開発の成果として「大規模言語モデルによる専門家のシミュレーション:法学教授の事例研究」を発表した。本研究開発に携わった山本優樹、同じく研究に参加した落合孝文氏、稲谷龍彦氏に、本研究の意義や対話型AIの将来について聞いた。
Professional:山本 優樹/Yuki Yamamoto
――まず皆さまの専門分野やバックグラウンドについて教えてください。
山本:私は大学時代から20年近く、一貫して人工知能の研究と社会導入を行なってきました。大学院卒業後は大手テックメーカーでオーディオやヘッドホン、テレビ、そして映画などのエンターテインメント領域に人工知能を導入する仕事に従事してきました。
転機となったのはコロナ禍です。米国のワクチン接種関連システムなど、技術によって社会課題を解決するような事例を目の当たりにし、自分もAIという技術を用いて社会を良くしたいと思うようになりました。そこで技術を「深掘りする」側から「広める」側になるために、デロイト トーマツに入社しました。
AIの専門家として、AIは今後人間のあらゆる仕事に影響を与えると考えています。ですから社内にこもるのではなく、社会との接点をたくさん持って研究と社会導入ができる今の環境はとても充実していると感じています。
落合孝文氏(以下敬称略):私は渥美坂井法律事務所 プロトタイプ政策研究所所長を務めています。本研究所は、外部有識者の皆さまとともに、さまざまな政策テーマについて研究し、実現可能な社会のグランドデザインを提言する機関です。弁護士ではありますが、もともと大学では理工学部の数理科学科で学んでいたこともあり、特にここ10年ほどはビッグデータやIoT、AIといったデジタル技術に関心を持ち、法的な面から研究しています。
2016年から、総務省のAIネットワーク社会推進会議のメンバーとして、AIの利活用原則や事業者ガイドラインなどの制定に関わってきました。また規制改革推進会議やデジタル行財政改革会議ではAIをどう社会実装していくか、という検討にも取り組んでいます。
稲谷龍彦氏(以下敬称略):私は京都大学大学院法学研究科の教授で、元々の専門は刑事法です。大学では文学部に在籍し、言葉の意味とは何か、また、意味を理解するとはどういうことかを研究する「認知意味論」という分野を学び、その後ロースクールに進学しました。
2015年ごろから法学でもAIが注目を集めはじめたのを機に、私も本格的にAIと法についての研究を始めました。科学技術と人間がうまく付き合っていく方法、特に技術の良い面を活用して人間と科学が良い方向に進んでいくには何が必要なのか、ということに強い関心があり、そんな観点から研究を続けています。
デロイト トーマツ リスクアドバイザリー合同会社 マネージングディレクター / 山本 優樹
――人工知能学会で発表した「大規模言語モデルによる専門家のシミュレーション」という研究について、その内容を教えてください。
山本:法律の専門家である稲谷先生を、生成AIを用いて模倣的に再現(シミュレート)するという、専門領域に特化した対話型AIの研究です。シミュレート対象の論文や大学での講義データを学ばせ、専門家の知見や考え、振る舞いを再現できるようにし、将来的には法律事務所などの専門領域の業務支援などへの活用を視野に入れたものでした。高度な能力を持つ専門家の知的活動を再現するための手法を検討し、出来上がったAIモデルの性能評価方法も提案しています。今回の研究により、生成AIを用いて個人をシミュレートする際の課題や押さえるべき点など、さまざまなポイントが見えてきました。本研究では稲谷先生はシミュレートするご本人として、また落合先生には法律の専門家の観点からAIの性能を評価する評価者として、研究にご参加いただきました。
――山本さんはデロイト トーマツでAI関連のアドバイザリーなどを手がけていらっしゃいます。なぜ今回、このような研究プロジェクトをはじめたのでしょうか。
山本:ビジネスにおけるAI活用という観点では、どうしても「業務をどのくらい効率化できるか」「工数を何時間削減できるか」といった目の前の課題に対する取り組みが中心になります。しかし、AIの驚くべき進化スピードを考えると、この技術は近い将来、人間の社会を根本的に変えてしまうほどの潜在能力を持っていると確信しています。そこで、もっと中長期的な視点でAIについて考えていきたいという課題感を持っていました。そんなときに偶然、稲谷先生、落合先生と仕事でご一緒する機会があり、稲谷先生が「僕の分身をつくれたら授業が楽になりますね」とおっしゃったのです(笑)。
京都大学大学院法学研究科 / 稲谷龍彦教授
稲谷:AIが僕の代わりに基礎的なサーベイや、毎年行う講義をしてくれれば、自分は本当に面白いところ、クリエイティブなところだけに集中できるなと思ったんです。それで、僕の分身ができて、役割分担ができれば幸せだな、と話した覚えがあります。
山本:私は、AI関連のアドバイザリー業務に加え、Deloitte AI Institute (DAII) というグループ横断の組織にも所属しており、業務の50%はAIのコア技術や、社会導入に関する研究をしています。そこで、ぜひ深く研究したいテーマだと思いました。
というのも、私は前職で映画制作にも携わっており、クリエイターの仕事をAIに置き換えるという研究と制作現場への導入をしていました。ハリウッドの最先端のクリエイターたちは、「自分たちの仕事の80%は、誰がやってもアウトプットの質はあまり変わらない作業だ」というのです。残りの20%こそが、真にその人のクリエイティビティを発揮できる領域だから、そこの集中するために80%の作業をAI化したいと話していました。
稲谷先生のケースも同様で、本当に集中すべき領域に注力するためにAIで自分の分身をつくるというのは、技術と人間の共存を考える上で大きな意義があります。もし稲谷先生をシミュレーションできたら、AIが人間を置き換えていくという未来を見据えて、多くの示唆が得られるでしょう。そこで稲谷先生、落合先生にご協力いただき、研究プロジェクトをはじめることにしました。
稲谷:僕は法律の専門家として、個人に最適化したAIエージェントをつくることに強い関心があります。僕は元々、人間は強い部分と弱い部分がある「でこぼこ」した存在だと捉えており、法律はそんな「でこぼこ」に一律に規制をかけるために、いろいろな問題が起きていると考えています。そのギャップを埋める上では、パーソナライズできるAIエージェントが鍵になると考えています。そこで、山本さんにご提案いただいたAIの研究に自分自身も関わることで、いろいろ見えてくることがあるはずだと思い、参加することにしました。
渥美坂井法律事務所・外国法共同事業プロトタイプ政策研究所 / 落合孝文所長
落合:よくAIが進化すると人間の仕事が奪われるという話が出ます。逆に言うと「人間じゃないとできないことは何か」を見極めることが大切だということです。これだけ技術発展のスピードが速いと、人間はこれから、仕事人生の中でも学び直しをすることが避けられなくなるでしょう。そのときにAIを用いて学習の仕組みを高度化できるはずだと考えており、そんな観点から、評価者として参加しました。
――実際の研究開発はどのように進められたのでしょうか。
山本:AIというのは、基本的には学習したデータを再現する技術です。ですから、学習データの中にない情報は答えられないという性質があります。そこで、まず稲谷先生がこれまで書かれた記事や論文を大量に読み込ませてみました。
はじめにRAG (Retrieval-Augmented Generation、検索拡張生成) という手法を試してみましたが、思うような成果は得られませんでした。
稲谷:最初のモデルの出力結果は、学生の答案でいうと松竹梅の竹レベルでしたね。勉強した形跡はあるけど、絶対深くは内容を理解していないだろう、という(笑)。断片的な情報を無理やりそれっぽくこじつけたような回答になっていました。
落合:その頃の回答には、毎回(仏哲学者の)フーコーが出てくるんですよ(笑)。まさに断片のような引用ばかりでした。おそらく実際の稲谷先生の頭の中では、いろいろな思想家の考えがネットワークのように構造化されているのだと思いますが、それがうまく再現できていませんでした。
稲谷:当然ながら、頭の中では知識が断片的に存在しているのではなく、それぞれがつながってひとつの体系をつくっています。そして何か質問を受けると、その体系の中で質問がどこに位置付けられるのか、という形でネットワークをたぐって考えていくのですが、RAGのデータにそういったつながりはなく、読み込ませたデータを検索するだけなので、再現が難しかったのかもしれません。
山本:まさに「専門家を再現する」という観点では、この部分が大きな課題でした。研究の早い段階でこのRAGの限界に気付くことができたのは大きかったですね。そこでアプローチを変え、RAGを一部活用しつつも、主にシステムプロンプトとして事前に指示を与える形でチューニングを進める方向性に切り替えました。
――AIモデルの性能は、どのように評価していったのでしょうか
落合:今回は私のような法律の専門家だけでなく、稲谷先生をよく知る学生さん数名にもモデルを評価してもらいました。そこで分かったことは、一般的な質問だと比較的「稲谷先生に似ている」と高い評価も得やすいんですね。ところが法的な見解のような専門的な内容になると、本人とは違う部分が出てきます。また学生より専門家の方が回答ロジックで何か違う、となります。つまり、極めて個別性が高いような専門家のAIの評価は、やはりある程度その分野の知識がある専門家でないと難しいのかなと感じました。
山本:専門家としての稲谷先生の回答については、高度な内容が含まれることから落合先生に評価していただきました。AIモデルに法律の質問を投げかけ、その回答がどのくらい正確で、稲谷先生の回答に似ているかを評価しました。
一方、人間をシミュレーションする場合は、専門分野だけでなく、その人の普段の振る舞いも再現しなければなりません。そこをどうやって評価するかについては、かなり悩みました。
考え続ける中である種のブレイクスルーになったのは、いろいろな人に多面的にモデルを評価してもらうというアイデアでした。その際、評価するための質問項目も評価者に考えてもらうのがポイントです。通常はAIモデルを評価するための質問というのはガチガチに決めておくのが一般的です。しかし、人間というのは相手によって接し方が変わりますので、各評価者がいつも稲谷先生と接しているのと同じようにAIモデルに質問を投げかけ、回答の自然さ、すなわち稲谷先生らしい回答かを評価してもらいました。
生成AIは高度な言語能力を持つため、「稲谷先生はこういう回答をするはず」という言葉での評価自体が、AIモデルを改善するためのデータとして活用できます。すなわち評価結果がそのまま改善のための学習データになる特徴があり、これを利用した評価と学習のフィードバックループの仕組み化を行えたことで、AIモデルの精度が一気に上がりました。
――今回の研究ではどんな学びがありましたか。
稲谷:生成AI、つまり大規模言語モデル(LLM)のバイアスという問題について気づかされました。LLMは基本的に大量のデータを学習させてつくるため、その振る舞いはLLMが学習した社会の規範に影響を受けます。心理学の分野では西洋の民主的で産業化された社会をWEIRD(Western, Educated, Industrialized, Rich, and Democratic)文化圏と呼んだりしますが、今のLLMはこの文化の影響を受けて、それが回答にも影響を与えているように感じました。
もうひとつ、これは研究者という職業のクリエイティビティに関わる問題かもしれませんが、私たち研究者がやっているのは端的に言うと「いたずら」のようなものです。誰もが当たり前だと思っていることをひっくり返したいという欲求があり、例えば論文でもあえて社会の規範ギリギリを狙うことがあります。おそらく、他の分野のクリエイティブな仕事でも、そのような傾向はあるでしょう。
ですから、専門家をシミュレートするAIモデルをつくるときは、ある程度、社会規範から外れるようなことができないと難しいのかもしれないと気づきました。しかし今のAIは社会規範から外れないようになっていますよね。
山本:これはまさに倫理バイアスという問題で、ChatGPTをはじめとする生成AIは、問題発言をしないように入念にトレーニングされています。これは人種差別や犯罪の助長などを避けるためですが、逆に言えば、そこにバイアスがあるということでもあります。
落合:実際、今回稲谷先生のAIモデルを評価していて気づいたのは、悪いことを言わないということです。これは倫理バイアスのせいかは分かりませんが、例えばある項目の評価を求めても、決してマイナス面が中心にはならないのです。本物の稲谷先生は、いい面も悪い面もはっきりと評価しますから、どうしても回答にずれが出てきます。
稲谷:言語そのものが持っている特性も、もしかしたらLLMに影響を与えているかもしれません。例えば日本語は暗黙知や暗黙の文脈ありきで働く言語ですので、言葉の裏にある意味をどこまで学習できているのか、分かりにくいところがあります。対称的なのがドイツ語で、曖昧さがなく、言葉で世界のすべてが明確に表現できるようなところがあります。また言語によって推論のスタイル、つまり考えの組み立て方も異なってきますので、今後は文化ごとにLLMを調整することがますます重要になっていくかもしれません。
落合:私は東南アジア諸国や途上国の方との議論に参加することもあるのですが、やはり「自国の文化・言語のLLMがほしい」という要望をよく聞きます。インドネシアなどは巨大プラットフォーム企業がありますので、自前で開発に取り組んでいるようです。自国の言語や文化を表現できるLLMというのは、今後ますます重要な課題になるかもしれませんね。
山本:AIが人間を代替すると言われている時代に、単一のLLMしかなかったら大きな問題ですよね。いま文化や言語によって異なるLLMが必要だというお話が出ましたが、それをさらに微細化していくと、その究極は、個人ごとのLLMです。個人ごとの個性、特徴、振る舞いなどに個別に最適化されたAIができてくれば、今までとは違う景色が見えてくるかもしれません。まさに私たちの今後の研究テーマである個人のシミュレーションが大きなトピックになりそうです。
その点今回私たちが実践した、多様な評価者からのフィードバックを言語化して、それをAIの学習に生かすという方法は、今後多様なLLMをつくる上での基本的なアプローチになるのかなと思います。
稲谷:加えて、個人に関するさまざまな活動データを学習させることも重要です。例えばスマートフォンの利用データを生成AIに読み込ませることで、その人が世界をどう見ているか、傾向が分かる部分もあると思います。そういった幅広いデータをうまくつなげられるようになると、AIのパーソナライズは一層進むでしょう。
一方で、リスクの話もしなければなりません。プライバシーの問題は当然のものとしていったん置いておくとしても、AI特有のリスクとして考えなければならない課題がいくつもあります。例えば、パーソナライズされることにより、AIが一層利用者の好むように挙動するようフィードバックループがかかり、いつの間にか利用者自身の思考や選好も非常に偏ってしまう可能性があります。自分にとって居心地のいい情報しか流れてこなくなるという、いわゆるフィルターバブルが強化される方向に進んでしまう危険性があるわけです。
これに対しては、AIが適切なタイミングで「あなたは本当にこういう人になりたいの?」と問いかけてくれる伴走者のような役割を担うようになると面白いなと思っています。
山本:人間がAIにフィードバックするだけでなく、AIが人間にフィードバックするという仕組みも必要だということですね。
落合:一方で、データ量が増えるとすべてを個人が処理することは難しくなるでしょう。すでにSNSにおけるコンテンツモデレーションなどはAIが主に担っていますが、今後は一人ひとりの個人データもAIが管理しなければ追い付かなくなるでしょう。そうなると、テクノロジーを利用することを前提にそのガバナンスが重要になりますね。
山本:今回の研究では、お二人のお力添えのおかげで、一定の成果を出すことができました。私が以前テックメーカーにいたころは、大学教授や弁護士の方とこうして一緒にAIの研究ができるとは夢にも思いませんでした。デロイト トーマツだからこそ実現できた研究プロジェクトだったと思っています。人間をAIで代替するというテーマは最先端ですし、本日お話にも出たようにまだまだやるべきことがたくさんありますので、今後も引き続き研究していきたいと思っています。
稲谷先生、落合先生は、AIとの理想的なパートナーシップがどのようなものであるべきか、また、それを実現するためにどのような法制度が望ましいのかをさまざまな角度から検討しておられます。今回の研究を起点とし、さまざまな事例をご一緒しながら、今後も共に検討させていただければと思います。本日は興味深いお話をありがとうございました。
データに隠されたインサイト(洞察)を導き出し、ビジネス価値を向上させます。DeloitteのAI&Dataサービスは、アナリティクス(分析)、オートメーション(自動化)、AI(人工知能)を戦略的に組み合わせてデータを深く理解し、スピードとコストを最適化しながら、インパクトのあるビジネス成果を創出します。
※本ページの情報は掲載時点のものです。