対話型AI活用法入門@歴史学(人文学)
はじめに
こんにちは、オスマン帝国陸軍参謀総局第五課勤務の博士(文学)です。
今回の情報生産工廠では、人文学の一分野である歴史学研究において、いま話題の対話型AIを活用する方法について考察します。
現在、対話型AIに注目している多くの人は、すでにプログラミング等の知識のある人が多いかと思います。しかし本記事の著者である私は、人文学の一部門である歴史学研究者であり、いま述べたような知識はありません。同業者の多くもそうかと思います(失礼?)。
したがって、本記事は対話型AIがどういうもので、何がすごいのか、という初歩的なところからはじめ、最後に対話型AIの活用法について考えていきます。
①すでに我々はAIを使っている
対話型AI、すなわちプログラミング言語(人工言語)ではなく、我々がふだん話したり聞いたりしている言語(自然言語)による指示・出力が可能なAIが、急速に広まっています。
とりわけ OpenAI が提供する ChatGPT は、2022年末の公開以来、対話型AIの代表格として現在多くの注目を集めています。
しかし注意したいのは、AIに興味がなかった私のような人間ですら、ChatGPT 公開以前であってもAIを日常的に使っていたという点です。
そして私が日常的に使っていたAIこそ、のちに対話型AIの核となる技術を生み出すことになるAI自動翻訳ツールなのです。
Google翻訳や DeepL に代表されるAI自動翻訳ツールは、自然言語、すなわち我々がふだん話したり聞いたりしている言語を入力すると、別の自然言語に翻訳して出力してくれるツールです。
そして対話型AIの核となっているのが、この自然言語で入力された情報を理解し、回答を自然言語で出力するというものです。
AI自動翻訳ツールは、人間の言葉で入力・出力ができますから、とくに予備知識やプログラミングの技能がなくとも、誰でも使うことが出来ます。そしてAI自動翻訳ツールと核となる技術が同じであるため、対話型AIも、誰でも障壁を感じることなく使うことができるのです。
しかし対話型AIでは、すでに話題になっているように、翻訳に限らないさまざまなことができます(長い文章の要約、検索、ロールプレイング‥‥‥)。そしてこの「自由さ」こそ、対話型AIの特徴でしょう。
②対話型AIの基本構造
次節で対話型AIの活用方法について考察するために、本節では、自動翻訳から出発した対話型AIが「自由さ」を獲得した背景について説明しておきましょう。
AI自動翻訳では、入力された文章を理解し、これまでに自身が蓄積したデータの中から情報を組み合わせ、それらしい翻訳を作成するという試行が行われています。
だから我々が「こんにちは」と入力すれば、AIは挨拶に該当する情報で最も頻出する単語を見つけて、"Hello"と返してくれるのです。
そして当たり前ですが、AI自動翻訳は「こんにちは」という入力に対して「お元気ですか」と回答してくれることはありません。
しかし、対話型AIが登場する過程で起こったのは、人間が入力した文章に対して、これまでにAIに蓄積させたデータの中から情報を組み合わさせ、それらしい続きの文章を生成させるという変化です。
つまり、我々が「こんにちは」と入力すると、AIが「お元気ですか」と返してくれる——人間とAIが言葉を通じて対話できる——そういう変化が起こったのです。
これはとても大きな変化ですが、AIがやってくれているのは自動翻訳の時と同じ作業です。
対話型AIは、「こんにちは」という入力に対して、"Hello"という翻訳を生成する代わりに、挨拶の次に来る文章として頻出する表現を見つけて「お元気ですか」という文章を生成してくれているのです。
すこし迂遠な説明をしましたが、AI自動翻訳から対話型AIへの変化で起こったのは、AIが生成する回答が「それらしい翻訳」から「それらしい続きの文章」に変わったという、それだけです。
しかし対話型AIに「自由さ」を生んだ要因は、この「翻訳という行為からの脱却」なのです。
さて、この節で私は、AIが生成してくれる翻訳や文章に対して「それらしい」という修飾語を何度も使ってきました。
そしてAIが生成する回答の「それらしさ」こそ、対話型AIのもうひとつの特徴でもあります。
③対話型AIをどう使えばいいのか?
ここまでの考察から、対話型AIの特徴は、a. 用途における「自由さ」、b. 回答に見られる「それらしさ」という2つに絞られました。
対話型AIの活用法を考えるときには、この特徴によく注意する必要があります。
a. 対話型AIの「自由さ」
対話型AIは過剰なまでに自由です。一個の人間にとっては無限とも思える情報源と選択肢を持っています。表を作れと言われれば作り、ラテン語を話せと言われればラテン語を話します。
しかし彼らには目も耳もありません。したがって、我々人間がAIに何をしてほしいのか、空気を読んだり忖度してくれることはありません。
つまり人間が対話型AIの自由を制限してやらなければ、彼らは的外れな回答を延々と生成するだけです。
例えば、私は自炊に不慣れだけれども金欠で泣く泣く家でご飯を作らないといけない学生だとします。冷蔵庫には実家から送られてきた玉ねぎと人参があります。晩御飯にはエネルギーのあるものを食べたいので、スーパーで豚肉を買ってきました。なぜ豚肉だったのかというと、最近は安い鶏肉続きで気分を変えたかったからです。
さてここで対話型AI(ここではChatGPT)の登場です。「今日の晩御飯のメニューを提案してください」と聞くとしましょう。生成された回答は以下の通りです。
どうでしょう、学生にとってはがっかりするメニューではないでしょうか。どれも作るのが難しそうな料理だし、冷蔵庫の中身ともマッチしていません。
何故、対話型AIは人間の意図した回答を生成してくれなかったのでしょう?
それは、対話型AIに対する人間の質問が情報不足だからです。
改めて、学生の状況を説明した上で、ChatGPTに質問してみましょう。生成された回答は以下の通りです。
どうでしょう、学生も満足のメニューですよね。
何故、対話型AIは人間の意図した回答を生成してくれたのでしょう?
それは、対話型AIに対し①適切な指示(晩御飯のメニューを提示せ)と②適切な情報提供(冷蔵庫にある材料、作り手の技術力等)を行ったからです。
対話型AIの「自由さ」は、強みであるとともに大変な弱点です。
人間が指示や情報提供といった形で枠をはめてやらなければ、対話型AIに意図した回答をさせることはできません。
b. 対話型AIの「それらしさ」
対話型AIは、入力された指示をもとにそれらしい文章を生成しているに過ぎません。AIには真偽を判断する頭脳、もしくは失敗の責任を引き受ける人格がありませんから、「それらしい」文章を生成するためには平気で嘘をつきます。
例えば、私はオスマン帝国史の研究者です。スレイマン大帝以降のオスマン帝国がなぜ衰退したのかという質問に対し、短い回答を書く必要があります。実に面倒です。その時期のオスマン帝国は「衰退」したのではなく「変容」したのだというのが、近年のオスマン帝国史研究における最新の見解ですから、この方向性にしたがって200字程度で回答したいところです。
さてここでChatGPTの登場です。「17世紀にオスマン帝国が衰退し始めたのはなぜですか?」と聞くとしましょう。生成された回答は以下の通りです。
どうでしょう、研究者の期待を裏切る回答です。そもそもオスマン帝国を侵略する中央アジアの国ってどこなんでしょうか。専門家からすれば、こういう細かいツッコミを入れればキリがありません。
しかしこの回答には、専門家でなければ「そんなものなのか」と思えてしまうような「それらしさ」があります。
何故、対話型AIは人間の意図した回答を生成してくれなかったのでしょう?
それは、対話型AIが玉石混交の情報を拾い集めて、「それらしい」文章を生成するものに過ぎないからです。
一つ付言しておくと、①情報源を研究者の論文に限定するよう指示をする、②字数を200字程度に限定するよう指示をすることで、ある程度は研究者の意図した回答を引き出せる可能性があります。しかし、対話型AIの性質上、そうした回答が出るかどうかは偶然性に委ねられます。
対話型AIの「それらしさ」は、やはり「自由さ」と同様に弱点も孕んでいるのです。
人間が十分にチェックしてもなお、対話型AIに適切な回答をさせられるとは限りません。
c. 人間の道具としての対話型AI
対話型AIの「自由さ」と「それらしさ」について見てみると、この機械を使う際の注意点が浮かび上がります。
それは、対話型AIは人間の道具に過ぎず、人間が使い方を考えて調整してやらねば無用の長物だ、ということです。
言い換えれば、対話型AIにいかなる指示や情報を与えるのか、対話型AIで何をしたいのか、これは人間に委ねられています。
活かすも殺すも人間次第という意味では、いかにターミネーターのご先祖様のような機械に思えようとも、対話型AIは人間中心主義を脅かす段階にはないとも言えます。
d. プロンプト・システム
道具として対話型AIを使う上で、noteのCXOである深津貴之氏のデザインした以下のプロンプト・システムが役に立ちます。
ここまで読んだ方なら、このプロンプト・システムの根幹が「自由で」「それらしい」文章を生成するにすぎない対話型AIに枠をはめる、という思想であることに気が付くと思います。
①命令書
指示を入力
②制約条件
情報や目的、注意点や例を提示してAIの動作範囲を限定
③入力文
要約や文章化させる場合の情報を入力
④出力文
AIによる回答
e. 思考連鎖プロンプト
加えて、思考連鎖プロンプトというものも、対話型AIを道具として使うために重要な概念です。
例えば、お湯を沸かしてお茶を飲むとしましょう。そのためには、①やかんを取り出す、②やかんの蓋を開ける、③やかんを流しに持っていく、④蛇口をひねる、⑤やかんに水を入れる、⑥やかんをコンロにかける、⑦急須を取り出す、⑧茶缶を取り出す、⑨急須に茶葉を入れる‥‥‥と、普段意識しなくとも、我々人間は複数の連鎖的な段階を経て行動しています。
対話型AIの場合は「お湯を沸かしてお茶を淹れてください」という短い入力で連鎖的な段階のある動作を一気に行うことが難しいようです。
お茶を淹れる例で言えば、お湯は沸かせても急須にお湯を入れられないという問題が発生し得ます。
また、対話型AIはある程度「推測」ができるので、お湯を沸かしたら味噌汁を作るのだという情報に触れてしまい、なぜか味噌汁を作ってしまうというミスが発生することもあります。
このため人間は、AIに対して少しずつ、段階的に指示を出す必要があります。これを思考連鎖プロンプトと言うのです。
思考連鎖プロンプトを実施するためには、AIにやらせたい作業について、いかなる段階が含まれているのか人間がしっかり理解していなければいけません。
ただし、対話型AIには思考連鎖プロンプトを行う上で有利な点があります。それは、対話型AIは対話ができる、という点です。
AI自身に、これから実施する作業を細かい段階に分けてもらえばいいのです。
④歴史研究者は対話型AIで何ができるのか?
さて、ここまでまとめた内容を踏まえて、人文学の一分野である歴史学の研究者が対話型AIで何ができるのか、考えてみましょう。
この際のポイントは、「対話型AIは研究者を補助する道具に過ぎない」という点です。
言い換えれば、問いを立てたり、回答の真偽を確かめたりという、研究の根本はAIに委ねられない、ということです。
もっと言い換えると、研究に付随するルーチーンやブルシット・ジョブ、「それらしい」品質で良いものなら積極的にAIに委ねられる、ということです。
以上を踏まえて、私からの提案です。
・申請書執筆
申請書の書き方や段落分けなど、しっかり条件を指定した上で、書きたい内容の箇条書きや字数制限を示せば、申請書を「それらしく」書くことは可能でしょう。
・文章要約
入力する情報を一本の論文や長いメールに制限してしまえば、「それらしい」要約ができそうです。
・メール返信
無限にくるメールに「それらしい」返事を書くのは、人間がやれば面倒ですが、対話型AIならすぐやってくれます。
・英文のネイティブ・チェック
ネイティブ・チェックは、自分で書いた英文を「それらしく」する作業に外なりません。
・文章のブラッシュアップ
対話型AIに編集者の役割を与え、論理の欠陥や説明不足な点等、指摘してほしいところを指定すれば、該当箇所を教えてくれます。
・レジュメの作成
講義ノートをレジュメにする、ということも可能だろうと思います。同様の方向性で、学会報告の読み上げ原稿をもとにパワポの文面を生成することもできそうです。
⑤歴史研究者は対話型AIで何ができそうなのか?
前節で挙げたのは、既存の対話型AIでもうできることです。本節ではこれからこういうことなら対話型AIでできるようになるかもしれない?というのを挙げ、本稿を終えたいと思います。
・論文検索システムとの連動
CiniiやGoogle Scholar、Taylor & Francisといった論文検索システムだけを情報源とした対話型AIがあれば、論文だけに情報源を絞り、正確性がある程度担保された文章を生成してくれるのではないでしょうか?
・オンラインストレージとの連動
One Drive等のオンラインストレージだけを情報源とした対話型AIがあれば、自分が電子化した書籍、自分が収集した論文、さらには自分が取得してOCRにかけた史料データだけに情報源を絞り、複数の研究成果と史料を横断して文章を生成してくれるのではないでしょうか?
・学会運営の半自動化
学会運営というのはほとんどがルーチーンなので、学会運営に特化した対話型AIができそうなものです。
おわりに
今回は対話型AIの活用法について、ごく初歩から解説しました。
ごく最近、OpenAIがChatGPTのAPIを公開してくれました。ですから、ChatGPTを自分で他のアプリケーションに連動させることができるようになっています。
しかしプログラミング等の知識がない自分には「どうやってChatGPTを他のアプリケーションに連動させられるのか」がわかりません。自分でも勉強してみますが、もっと詳しい人——デジタル・ヒューマニティーズに携わっている研究者とか——の仕事を待ちたいと思います。
表紙写真:日本人がはじめて見たロボットはオスマン帝国製だった!?という都市伝説の記事より(2023.3.8閲覧)