ChatGPTと大学での学び:解任騒動直前のOpenAI Sam Altman氏のインタビュー雑感
Sam Altman氏の11/15インタビューと解任騒動
The New York Timesのテック系ポッドキャストHard Forkで配信中のSam Altman氏のインタビューを聴いた。ChatGPTリリース1周年直前の2023年11月15日に行われ20日に配信開始されたものである。11月15日というのは、Altman氏が自ら率いるOpenAIの理事会から突然解任を告げられた17日の2日前に当たる。このインタビューからは、まさかその2日後にCEOの座を奪われるとはAltman氏自身予想だにしていなかったことが窺われる。ポッドキャスト配信準備中に解任騒動が起きたが、結局1時間弱のインタビュー全部がノーカットで20日に配信された。そして、その直後、突然の解任からわずか5日後の22日にAltman氏がOpenAIのCEOに返り咲いたのは多くの人の知るところである。
今学期の授業からみた大学での学びとChatGPT
私はちょうどその頃このポッドキャストを聴き、自分の研究や大学での授業との関連で生成AIについて思うところがいくつかあった。私の勤め先の大学も含め世界中の大学がChatGPTなどの生成AI使用について「ガイドライン」を発表し始めたのは2023年春くらいからではあったが、個人的には秋(今学期)になって初めて授業における学生らのChatGPT利用と本格的に向き合うことになったからである。当時(11月末)はまだ学期半ばだったため、もう少し冷静に事態を見極めてから大学での学びとChatGPTについて書いてみたいと思った。今現在もまだ2023年度秋学期中ではあるが、状況がかなり見えてきたのでこうしてこの記事を書いている。
結論から言えば、大学での学びにおける効果的なChatGPTの使い方はまだまだ確立されておらず、教員・学生双方の様々な角度からの試行錯誤が必要と痛感している。そして、理想的には両者がChatGPTを使って得た知見を共有し、今後の大学での学びに如何に生成AIを活かしていくのかをオープンに議論していくべき、と考える。
2023年11月15日NYTインタビュー
11/15のSam Altman氏のインタビューに戻ろう。このインタビューでは記者らが生成AI、大規模言語モデル、ChatGPTについて多方面から突っ込んだ質問を投げかけ、それらに対してAltman氏が明快に回答している。私事で恐縮だが、2023年6月に勤め先の大学でAltman氏が日本の大学で初めての学生とのOpen Discussionを行った際に司会を務めさせていただいた。その際のAltman氏の学生に対して語りかける口調とThe New York Timesのテック担当コラムニストらとの会話における氏の口調とは当然のことながら異なる。だが、生成AIに対する懸念や批判を受け止めつつも、言葉の端々から感じられる彼のAIの可能性・将来性・有用性への揺らぎない自信と熱意は5ヶ月後のこのインタビューでも全く変わっていなかった。
以下では氏の発言の中で印象に残ったキーワード3つを選び個人的な雑感を述べていく。3つのキーワードとは、「生産性」、「ツールとしてのChatGPT」、「ハルシネーション」(事実には基づかない情報をAIが生成すること)である。
キーワード1:生産性
まず、「生産性」について、Altman氏は「ChatGPTは人々の生産性を上げている」と述べている。だが、個人的には、課題採点という大学教員としての業務における生産性は、今年度講義科目でChatGPT使用を禁じなかったことにより、前年度と比べ低下したと感じた。例年履修生100余名ほどの講義科目で毎週リアクションペーパー(講義内容について、自分の経験等に即した感想を書くというもの)を課している。今年度は、学期初めに「授業についての感想を書く課題なので、生成AIを使っても良いが役には立たないだろう」と伝えてあった。にもかかわらず、「感想」ではなく「総括」や「まとめ」のような回答が例年より多く、内容的に凡庸なため読んでいて苦痛なものが増えた(念の為強調しておくが、質の高い回答のレベル・数は例年と変わりなかった)。しかも、その要約がところどころ間違っていたり、授業で全く扱っていない内容が含まれていることがあり読み飛ばすわけにもいかなかった。その上、一読すると文章としてはまともに見えるのだが、よく読むと文と文の間の意味的一貫性や論理性に欠けるものがいくつも見つかった。さらには、文体的にも「あるトピックの専門家が素人に向けて解説や未来予想をレクチャーする」と言ったスタイルになってしまっていて、授業課題に対する回答の文体としては「上から目線」の印象を与えるものがいくつも見られた。そんなわけで、結果的に例年よりも採点に多くの時間を費やすことになってしまった。
キーワード2:ツール
次に、2つ目のキーワード「ツールとしてのChatGPT」について。上述の6月のイベントの冒頭でもAltman氏に確認したのだが、11月のこのインタビューでも氏はChatGPTをあくまでも「ツール」と捉えている。さらにこのインタビューでは「人々はどんな局面でChatGPTを使うと効果的で、どんな局面では役に立たないかを既に把握できている」と述べている。だが、今学期の私の経験からは、少なくとも大学での学びにおいては、どのようなタスクに使うのが効果的かを教員も学生ももっと詳細に検証する必要があると感じている。まず、ユーザー当人に全くその分野の知識がない場合にはアウトプットの質を吟味できない。また、ChatGPTに知識を問う場合でも、かなり確立した分野・トピックに関する知識であれば正解を出せるが、大学院で学ぶような最新の研究の知見については今現在のシステムでは正解が出せないことが多い(機械工学系の同僚がChatGPTリリース直後に授業で「このChatGPTのアウトプットの誤りを指摘せよ」という課題を課したところ、当時のChatGPTは大学学部レベルの問題は解けたが、大学院レベルの問題は解けなかったとのことである)。ましてや最新の研究の知見に関する授業やトピックについて「知識」ではなく「感想」を聞くタスクでは、専門家から見れば的外れな内容になってしまう。
従って、教員としては「学生が課題にChatGPTを使ったかどうかは教員にも判別できない」と諦める前に、今現在のAIシステムを過信せず、自分の専門分野に関するアウトプットを吟味してみることが必要と感じた。Altman氏は昨年6月の我が大学でのイベントでもこのインタビューでも「若者はいつの世も最先端のツールに精通することが大切」と言っているが、学生たちも、今現在最先端ツールの一つであるChatGPTに関して、今の技術レベルで何がどこまでできるのかを慎重に見極めつつ課題における最適な使い方を見つけていって欲しい。
キーワード3:ハルシネーション
最後に、3つ目のキーワード「ハルシネーション」とは、AIシステムが事実には基づかない情報を生成することを指す。ChatGPTも含め今現在の生成AIシステムはしばしばハルシネーションを起こす。同じトピックについてChatGPTが全く同じアウトプットを出すことは稀である。だが、私の印象では必ずしも誰もがこの事実を実体験として知っているわけではないようである。ハルシネーションについてAltman氏は「毎回全く同じことを言う人間がつまらないのと同様にAIシステムが時々違った回答を出すことはAIの創造性の観点から問題ないと思う」と述べている。だが、少なくとも大学においてChatGPTに知識や論理性を問う際にはハルシネーションは大いに問題となる。また、ChatGPTが回答に参考文献を明記した場合にも、実際には参考にしていない文献名を挙げていたり、文献で言及していることとは異なる内容を回答に含めていたり、という問題がしばしば起こることが指摘されている。剽窃(他人の作品や論文を自分のものとして発表すること)を行なってはいけないというのは、大学で学ぶ多くの事柄のうちの最重要事項と言っても過言ではない。従って、今現在のAIシステムがハルシネーションを起こすことを教員も学生も肝に銘じるべきだろう。
おわりに
以上、2023年11月15日のSam Altman氏のChatGPTの現在・未来に関するインタビューの中から「生産性」、「ツール」、「ハルシネーション」に焦点を当て、今学期の授業体験に鑑みて生成AIと大学ではどう付き合うべきかについて書いてみた。現在のChatGPTが必ずしもそのまま大学における活動の生産性を上げてくれるわけではないこと、ツールとして使いこなすためには今の技術レベルを過信しないこと、ハルシネーションに注意すること、が教員にとっても学生にとっても重要である。今学期は学部1・2年生を対象としたセミナーでどのように生成AIを大学での学びに使うのが有効なのかを学生らとともに実際に調査してみている。ユニークな発想・アイディアが既にいくつも出てきていているので、これらについては別の機会に報告したい。
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?