見出し画像

「ChatGPTは人間の創作を助けるか?」海外で話題の記事考察と教育×AIの未来。

みなさん、ChatGPT使ってますか? 
ここではChatGPTの概要については説明しません。「ChatGPTって何?」という方は既に色々な方の解説記事や動画が出ていると思いますので、ぜひそちらを参考にしてください。

このnoteでは2023年2月9日にThe New Yorkerに掲載された
ChatGPT Is a Blurry JPEG of the Web
(原文英語。邦訳すると「ChatGPTはWeb上のボヤけたJPEGである」)
米国の著名なSF作家であるTed Chiang氏が、ChatGPT(大規模限度モデル)の本質について、専門用語を極力排しつつも非常に鋭い洞察をし、海外で話題になっています。

本noteでは原文を機械翻訳の助けを借りつつ重要だと思った部分を抜粋し、最後に考察を加えます。「ChatGPT(大規模言語モデル)」の仕組みや本質について理解を深め、また人間は今後AIとどう向き合っていけば良いか? 考えさせられる内容になっています。

この記事は以下のような方にオススメです。
・ChatGPTを触ったことがあり、その「便利さ」に西野カナばりに震えている方。
・ChatGPTを教育や学習、仕事のために使いたいけど、なんか平気で嘘ついてくるし、どうしたらいいの……なんて思っている方。
・ChatGPTどうなってるのか仕組みに興味はあるんだけど、プログラマーでもないし全然分からんという方。
・AIと人間、教育や学習の未来について考えてみたい方。

自己紹介:北欧で社会人大学院生(修士)、「IT×学習」を専攻しフィードバックについて研究しています。修士論文は「AIと人間のフィードバックはどう違うのか」がテーマ。元々はがっつり教育畑で、全国をまわって子どもから大人の方々と一緒に表現教育の場をつくる仕事をしていました。
今は修論執筆・研究のためにテーマに関連するAI×教育の論文や記事、動画を漁る日々。卒業後は引き続き学習科学・情報学の博士課程に進む予定です。 

ChatGPT Is a Blurry JPEG of the Web」はこんなストーリーで始まります。

ゼロックス社のコピー機の異変

2013年、ドイツのある建設会社の社員が、ゼロックス社のコピー機の異変に気づきました。
ある家の間取り図をコピーしたところ、微妙に、しかし重要な点でオリジナルと異なっていたのです。元の間取り図には、3つの部屋がそれぞれ14.13平方メートル、21.11平方メートル、17.42平方メートルと長方形で表示されています。しかし、コピーされた図面では、3部屋とも14.13平方メートルと表記されていました。

Chiang氏はこの異変が起きた背景にある「可逆」「不可逆」の概念について説明を加えます。この説明は今回のストーリーを理解する上でとても重要なので、改めて日本語訳を引用・抜粋して紹介します。

「可逆」と「非可逆」

復元されたファイルがオリジナルと同じであれば、圧縮プロセスは「可逆」と表現され、何の情報も捨てられていないことになります。これとは反対に、復元されたファイルが元のファイルの近似値(似ているが違う値)でしかない場合、圧縮は「非可逆」と表現されます。
テキストファイルやコンピュータプログラムでは、1文字でも間違えると大変なことになるため、通常、可逆圧縮が使用されます。非可逆圧縮は、写真、オーディオ、ビデオなど、絶対的な正確さが必要でない場合によく使われます。写真や歌、映画が完璧に再現されていなくても、ほとんどの場合、私たちは気がつきません。忠実度の損失は、ファイルが非常に厳しく圧縮された場合にのみ認識されるようになります。このような場合、圧縮アーチファクトと呼ばれる、最小のjpegや mpeg画像のぼやけや、低ビットレートのMP3の音の小ささなどに気づきます。

ゼロックス社の複写機では、モノクロ画像用に設計された「jbig2」という非可逆の圧縮形式を使用していました。これは、画像中の類似した領域を特定し、その領域を1つずつ保存しておき、解凍時にその領域を繰り返し使用して画像を再構成するというものです。その結果、部屋の面積を示すラベルが似ていると判断し、1枚だけ保存しておき、間取り図を印刷する際に、その1枚を3部屋分再利用していたことがわかりました。

Chiang氏は、このゼロックスコピー機が前提としていた「非可逆」の仕組みとChatGPTを含む現行の大規模言語モデルの類似点を見出します。

ゼロックスのコピー機がロスレスの代わりに非可逆圧縮形式を使っていること自体は、問題ではありません。問題は、コピー機が微妙な方法で画像を劣化させていたことで、圧縮のアーティファクトがすぐには認識できないことです。単に不鮮明なプリントを出すだけなら、誰もが「これは正確なコピーではない」と分かるはずです。そこで問題になったのが、コピー機から読み取れる数字が不正確であること、つまり正確ではないのに正確にコピーされているように見えてしまうことでした。(2014年、ゼロックスはこの問題を修正するパッチをリリースしました)。

このゼロックスコピー機の事件は、OpenAIのChatGPTをはじめ、AI研究者が「大規模言語モデル」と呼ぶ類似のプログラムを考える上で、今日、心に留めておく価値があると思うのです。

ChatGPTは、Web上のすべてのテキストを不鮮明なjpegにしたようなものだ

ChatGPTを使った方なら実感があると思いますが、とても役立つ回答をしてくれる一方で、まるで息を吐くように、全く事実に基づかないがそれらしい「嘘」を並べ立てることもあります。Chiang氏はその「幻覚」のような現象が何なのかを解説します。

ChatGPTは、Web上のすべてのテキストを不鮮明なjpegにしたようなものだと考えてください。jpegが高解像度の画像の情報を保持するのと同じように、Web上の多くの情報を保持しますが、正確なビット列を求めると、それは見つからず、得られるのは近似値だけです。しかし、その近似値はChatGPTが得意とする文法的なテキストで表示されるため、通常は許容範囲内です。ぼやけたjpegを見ることになりますが、ぼやけることで画像全体のシャープさが損なわれることはありません。

この非可逆圧縮への類推は、ChatGPTがウェブ上の情報を別の単語で再パッケージ化していることを理解するための方法だけではありません。また、ChatGPTのような大規模言語モデルが陥りやすい「幻覚」、つまり事実とは異なる質問に対する無意味な答えを理解するための方法でもあります。(略)もし圧縮アルゴリズムが、オリジナルの99パーセントが破棄された後にテキストを再構築するように設計されているなら、それが生成するもののかなりの部分が完全に捏造であることを予想しなければならないはずです。

非可逆圧縮アルゴリズムでよく使われる手法が補間であることを思い出せば、この例えはさらに理にかなっています。(略)ChatGPT はこのような補間処理が非常に得意で、人々はそれを面白がっています。彼らは写真の代わりに段落の「ぼかし」ツールを発見し、それを使って楽しく遊んでいるのです。

大規模言語モデルは、テキスト中の統計的な規則性を識別します。Webのテキストを分析すると、"供給が少ない "といったフレーズは、"価格が上昇する "といったフレーズと近接して現れることが多いことがわかるでしょう。この相関関係を取り入れたチャットボットは、供給不足の影響について質問されると、物価上昇について回答するかもしれません。
もし、大規模な言語モデルが経済用語間の相関関係を膨大に蓄積しており、さまざまな質問に対してもっともらしい回答ができるのであれば、それは本当に経済理論を理解していると言えるのでしょうか? 

大規模言語モデルは、人間がオリジナルな文章を創作するのに役立つのか?

ここでChiang氏は、私たち人間と言語モデルの関係へと視点を移します。
私たちの代わりにそれらしい文章を一瞬で作ってくれるChatGPTですが、果たしてこのような大規模言語モデルは私たちがオリジナリティを駆使して創作する助けになるのでしょうか?

大規模な言語モデルは、人間がオリジナルの文章を作るのに役立つのか? それに答えるには、その問いが何を意味するのかを具体的に説明する必要があります。ゼロックス・アート、コピー・アートと呼ばれる、コピー機の特性を生かしたアートがあります。ChatGPTというコピー機でも、そういうことは可能でしょうから、その意味では答えはイエスです。しかし、コピー機がアート制作に不可欠なツールになったとは誰も言わないと思います。大多数のアーティストは、創作活動にコピー機を使いませんし、その選択によって不利になるとは誰も言いません。

では、ゼロックス・アートに類するような新しいジャンルの文章について話しているのではないと仮定しましょう。そうすると、大規模言語モデルによって生成されたテキストは、フィクションであれノンフィクションであれ、作家がオリジナルなものを書く際の出発点として役に立つのでしょうか? 大規模言語モデルが定型文を処理することで、作家は本当に創造的な部分に注意を向けることができるのでしょうか?

Chiang氏はここではっきりと自説を述べます。ChatGPTの力を借りて一から文章を作ることは、人間の創作にとって良い方法ではない、と。

もちろん、誰もすべての作家を代弁することはできませんが、オリジナルでない作品のぼやけたコピーから始めることは、オリジナル作品を作るのに良い方法ではない、ということを主張させてください。作家であれば、オリジナルなものを書く前に、オリジナルでないものをたくさん書くことになります。しかし、その非オリジナルな作品に費やした時間や労力は決して無駄ではなく、むしろそれこそが、最終的にオリジナルな作品を生み出すことを可能にするのだと私は考えています。言葉を選び、文章を並べ替えることで、文章がどのように意味を持つかを学ぶことができるのです。小論文を書かせることは、単に教材の理解度を試すだけでなく、自分の考えを明確に表現する経験を積ませることになるのです。もし生徒が、誰もが読んだことのある作文を書く必要がなければ、読んだことのないものを書くのに必要なスキルは身につかないでしょう。

もし、インターネットへのアクセスが永遠に失われ、限られたスペースの個人サーバーにコピーを保存しなければならないとしたら、ChatGPTのような大規模言語モデルは、捏造を防ぐことができると仮定すれば、良い解決策になるかもしれません。しかし、私たちはインターネットへのアクセスを失っているわけではありません。では、オリジナルがあるのに不鮮明なjpegがどれだけ役に立つのでしょうか?

(考察)ChatGPTを初めとする大規模言語モデルAIとどう付き合っていけば良いのか?

Chiang氏の洞察は鋭く、人間としてできることへの示唆に富む内容でした。ここからは個人的な考察、大切だと思ったことを書いていきます。

AI・テクノロジーの「概念」を理解しようとする 

僕自身はITやエンジニアのプロではないです。むしろ教育NPO等を通して「人間らしい」学びが生まれる現場に関わってきました。 たしかにAIの進化は近年凄まじいです。でも現時点のAIではひっくり返ってもできないことが人間には沢山あります。

最新のAIを初めとするテクノロジーが生み出すアウトプットは一見、人間が思考して生み出すアウトプットと似ていたり、成果を出す速度では人間を圧倒的に凌駕します。思考の整理やブレインストーミングを助けてくれたり、どう考えてもめちゃめちゃ便利です。僕はこの技術の進化には素直な賞賛を送りたいです。
ただ、そもそもAIの学習・アウトプットの仕組みは人間の「学び」のシステムとは全然違っています。

僕は近年学習科学に出会い学び始め、その道ではまだまだひよっこですが、それでもAI大規模言語モデルの「学習モデル」は最新の学習科学研究から見ると(勘違いかもしれませんが)未だに一世代、二世代前の学習パラダイムがベースになっているように思えます。
Chiang氏が指摘するように圧倒的な情報量・データベースによって補っているだけであって、少なくとも現状はオリジナリティも、クリエティブさもないように見えます。(そもそも何をもってオリジナリティか、クリエイティブなのかというのは面白い問いで、考えた方が良いですが)

人間の「複雑さ」を理解しようとする

そもそも人間の認知・学びの活動は自分たちが見えているよりも実はずっとずっと複雑です。「対話」や「フィードバック」においても、自分たちが意識や知覚できる以上に非常に繊細なやり取りが行われています。
また、「共同体としての学び」で捉えたときにもChatGPTのできることはまだまだ非常に限定的です。もちろんChatGPTのデータベースは膨大ですが、人間の共同体との接続はまだ非常に弱い。たとえば僕は今修士論文を書いていますが、ChatGPTが使えるからといって指導教授とのミーティングを決してやめる気にはなりません。教授のこれまで積み重ねたAIデータベースにも無い鋭い洞察やアイディア、教授のネットワークを通した研究ポテンシャルの広がりなど、AIがまだひっくり返ってもできないような豊かな「学び」の機会があります。まぁここはAIの仕組みというよりも、仕組みを踏まえた学習環境をデザインする必要がありそうですね。

AI×教育における「第三の波」

2021年に発表された論文「Artificial intelligence in education: The three paradigms(教育におけるAI: 3つのパラダイム)」では、これまでに教育におけるAIは大きな流れで3つの進化をしてきたと述べています。
それは「AIによる指示」「AIによる補助」「AIによるエンパワメント(empowerment)」という流れだと言います。
まず初めの「AIによる指示」時代では、AIは知識モデルを表現し、認知学習を指示するために使用されました。
次に「AIによる支援」時代では、AIは学習者の共同作業者として働きながら学習を補助するために使用されました。
そして最新の「AIによるエンパワメント」時代では、AIは学習者がより深く学ぶことを助け、学習者はAIの力を借りながら主体的に学んでいきます
エンパワメントとは、組織開発の世界では個人や集団が本来持っている潜在能力を引き出し、湧き出させることを指します。
ChatGPTや大規模言語モデルのAIは、学び手の潜在能力を引き出せるのでしょうか……きっとそれは僕たちが「どう理解して使うか」に左右されるかもしれませんね。

さいごに:過大評価も、過小評価もしない 

資本主義が続く限り、テクノロジーの進化には常に大きな予算が付き、多額の資金が注ぎ込まれ、その「発展」は続いていくでしょう。

一方でこの世界のほとんどはエンジニアではない、テクノロジーに精通していない人たちです。ChatGPTを始めとする人間が作り出したAIモデルが、私たち人間の可能性を引き出し、豊かに学んでいけるようにするかどうかは、大多数の非エンジニアである私たちがどのようにこのテクノロジーを理解し、利用するかにかかっています。

進化し続けるテクノロジーの力に呑み込まれたり、無視しようとしたり過小評価するのでもなく、未来に繋がる豊かな学びを一緒に作ってくれるパートナー的な存在として考えていくことが大切になると感じています。

ただそのためには非エンジニアであったとしても、先生を含む教育者や学習者は、AIに対するできるだけ「正しい」理解が必要です。決してコードが書けなくても良いと思います。むしろ重要なのは、テクノロジーへの概念的な理解、そしてそれ以上に人間への深い理解ではないでしょうか。

とはいえ、今後AIの力学を無視して教育や学習を考えるのはほぼ不可能になる気がしています。教育・学びに関わる人には不可避的にリテラシーが求められます。でもほとんどの人は「そんなこと言われても……」って感じだと思いますし、現場の最前線に立っている人はそんなことを考える余裕はないと思います。

そんな中では研究と教育現場や事業の橋渡し、チームワークが大切になると思っています。僕はその対話を担える学びのPM、デザイナーになりたいです。そういう意味でも助けになる情報は発信したいですし、自分の研究を進めろよという心の声を無視しつつこのnoteを書いています。笑

個人的にはできないことよりできるようになったことに目を向けたいし、悲観的になるより楽観的に生きたいなと思います。「人のできること」こそ過小評価してはいけないと感じます。

とはいえまだまだ僕も自分自身が少しずつ学んでいる身です。
これまで生活することにいっぱいいっぱいで、特に留学中は生き延びることに必死を言い訳にnoteはあまり更新してきませんでしたが、やっぱり発信って大切ですね。今年はもう少し学んでいることや社会人の留学生活についても発信していこうかなぁ。

あ、「読んで貰えているんだな」と分かるのでよろしければスキやフォロー等して頂けると喜びます。今後も色々と書く気になります。拙い考察も読んでくださりありがとうございました。今後も一緒に学びをアップデートしていけると嬉しいです!

本noteは個人の気づきをまとめたものであり、所属機関は無関係です。
今後新たな知識や考えのアップデートに伴い記事を更新する場合があります。

引用元記事:The New Youkers, (著)Ted Chiang, "ChatGPT Is a Blurry JPEG of the Web" (2022年2月13日)  

参考論文:
Ouyang, F., & Jiao, P. (2021). Artificial intelligence in education: The three paradigms. Computers and Education: Artificial Intelligence, 2, 100020.



いいなと思ったら応援しよう!