見出し画像

『生成AI革命』全文公開:第4章の1

『生成AI革命』(日経BP 日本経済新聞出版)が1月19日に刊行されました。
これは、第4章の1全文公開です。

第4章
医療や法律関係にもChatGPTが進出

1.生成AIは、「弁護士が要らない社会」を実現するか?

 インターネットを超える影響がこれから生じる

 法律関連業務は、生成AIによって大きな影響を受ける分野の一つだ。ChatGPT などの生成AIが法律関連の仕事に及ぼす影響について解説した文献として、サフォーク大学ロースクールの学部長であるアンドリュー・パールマン教授による論文が参考になる(注1)。
 パールマン教授は、その影響はインターネットのそれを超えるとしている。この主張を裏付けるため、この論文は ChatGPT によって生成された。要約、序文、アウトラインヘッダー、エピローグ、およびプロンプトだけが人間によって書かれ、ChatGPT が人間の編集なしに残りのテキストを生成した。
 生成AIは、法律関連の以下の四つの分野で活用される可能性がある。

 ・法的調査:生成AIは、大量のテキストデータを迅速にスキャンし、特定のトピックに関する情報を提供する。それによって、弁護士の法的調査を支援する。
 ・文書作成:生成AIを使用すると、契約書などの法的文書の生成が可能となり、弁護士の作業時間を節約できる。
 ・一般的な法的情報の提供:生成AIは、よくある質問への回答や基本的な法的アドバイスを提供するためにも使用される。
 ・法的分析:生成AIは、関連する法的原則や判例に基づいた提案や洞察を提供することによって、法的分析を支援する。

 これらにより、法務の効率と正確性が向上し、弁護士はより多くの事件を処理することができ、クライアントに対して高品質なサービスを提供することが期待される。

 生成AIを用いて契約書の作成ができる

 生成AIを用いて法的文書を作成する場合、つぎのように進める。
 まず、関係者や契約条件、特別規定などの情報を入力することをユーザーに求める。生成AIはこの情報をもとに法的文書のドラフトを生成し、ユーザーは必要に応じてそれを見直し、修正することができる。
 たとえば、ユーザーが不動産の売却契約を望む場合、買い主と売り主の名、不動産の価格、そして予期せぬ事態への対処規定を、生成AIに提供すればよい。生成AIは、それに基づいて契約のドラフトを生成する。ユーザーはそれを見直し、必要な修正を施すことができる。この手続きにより、法的文書を作成する際に、ユーザーの時間と労力を省くことができる。

 弁護士の役割はなくなるか?

 一般に、低所得者は有利な法的サービスを得ることが困難だ。しかし、ChatGPT の助力を得れば、遺言書の作成などが可能となる。貧困線以下の生活を送る者の大部分や、中所得のアメリカ人のほとんどは、重大な民事法上の問題(子供の監護、債権の回収、立ち退き、差し押さえなどの問題)に遭遇した際、適切な支援を受けていない。
 生成AIは、依頼者が自分で利用できる手段や、弁護士がいまよりも多くの依頼者に接触できる手段を提供することによって、これらの要求に応える方法を提示する。
 AIは、ただちに弁護士の役割の消滅を意味するものではないが、将来は、弁護士が要らない社会が実現するかもしれない。つまり、いまは、「弁護士がいない社会の始まり」だ。
 多くの依頼者、とくに複雑な問題に取り組む者は、専門的な知識や助言、そしてカウンセリングを提供する弁護士を依然として必要とする。だが、それらの弁護士も、効率的かつ有効なサービスを提供するためのAIのツールを求めるようになるだろう。これらのツールは、非常に価値あるものとなる可能性が高く、弁護士は、特定の状況でそれらのツールを使用することが必要とされるだろう。
 以上の指摘の中で、私は、つぎの点が大変興味深いと思った。

・ChatGPT の助けで契約文などを作ることができる。
・低所得者には大きな恩恵となる。
・将来は、弁護士が不要になるかもしれない。

 パールマン教授はさらに、法科大学院は、電子調査ツールの使用法を学生に示したのとほとんど同様の手法で、ChatGPT のようなツールを、カリキュラムに取り入れる必要がある、と指摘している。たとえば、初年度のリーガルライティングの授業や演習のプログラムにおいて、未来の弁護士が実際にテクノロジーをどのように使用すべきかを教える必要がある。
 なお、パールマン教授の論文以外に、「訴訟において、ChatGPT が人間の弁護士に取って代わることができるか?」という問題に関する研究も行なわれている。ChatGPT が関連する判例の重要な事実を要約して、原告側をサポートすることができるとする研究もある(注2)。以上で見たことは、法律分野における「知の独占」が崩れることを意味するものだ。
 本章の2で述べるように、医学の分野でも同じようことが起きるだろう。その他、さまざまな分野で同様の変化が起きる可能性がある。

 幻覚による誤りを克服できるか?

 法律関係の仕事において、判例の役割は大変大きい。膨大なデータなので、必要な情報がなかなか見つからない。これに関して、ChatGPT の潜在力は大変大きい。
 しかし、エラーや誤解の可能性には、つねに注意しなければならない。事故は、すでに起きている。2023年5月、米ニューヨークの連邦裁判所で審理中の航空機内のトラブルに関する民事訴訟で、スティーブン・シュワルツ弁護士が ChatGPT を使って作成した準備書面に、実在しない6件の判例が含まれていた。6月22日、裁判所は、この弁護士に対して、5000ドル(約72万円)の罰金を科した。
 なお、誤りの情報出力に対する対処も試みられている。東京大学発のスタートアップ企業であるリーガルスケープは、企業の法務のデジタル変革を助け、法務部門の業務の効率化やリスクの管理の強化をめざして、対話型AIを開発した。このAIは、法律に関する問いに答える能力を持っており、日常の法律の相談や契約書の確認など、いくつかの業務を援助する。そして、ハルシネーション(幻覚)問題を解決するため、質問への回答時に必ず信頼のおける法律書籍に依拠して回答させる。
 同社の資料によると、司法試験のある問題にGPT4が誤った答えを出したのに対して、リーガルリサーチAIは、正しく答えたことに加え、根拠となる判例を表示した。このため、ユーザーは安心して利用できる。平成26(2014)年司法試験の短答式試験(民事系科目、会社法領域)における正答率は、ChatGPT(GPT4ベース)は35・7%だったが、リーガルリサーチAI(GPT4ベース)では78・6%だったという。
 また、2012〜2014年の司法試験と2012〜2016年の司法試験予備試験で出題された選択式の「短答式試験」のうち、会社法に関連する計70問につき、正答率は約71・4%で、合格ラインとされる60%を上回ったという(注3)。このAIを、法令関連の情報検索のサービスに用い、2023年秋にも市場に出す予定だという。



この記事が気に入ったらサポートをしてみませんか?