見出し画像

GPT-4で「創発」した能力を体験してみる

LLMでは、学習を重ねることで突然予想外の能力が開花する「創発」が発生すると話題になっています。

ということで、ちょいと創発を体験してみましょう。

まず前提条件として、執筆時点(2023/03/26)で公開されているGPT-4は、実はマルチモーダルではないテキストベースのLLMとのことです。(GPT-4談)

つまりは、テキスト(文字)でしか学習をしていない状態。
にも関わらず、なんとこのGPT-4は絵が描けてしまいます。

以下は実際にテキストベースのGPT-4に描いてもらった絵。拙いものの、何を描いているかわかりますよね。

そう、ゾウです。

テキストベースのGPT-4は、実際に「ゾウを見たことがない」ばかりか、そもそも「視覚が無く、見るということ自体を経験したことがない」はずですが、テキストから学習した内容だけでゾウの絵を描いてしまったのです。

確かに、考えてみるとゾウの色・形などを詳細に記した文献は多数存在します。ただ、そのテキストを学習させるだけで絵が描けるようになるというのは、まさに予想外の能力が花開く「創発」と言えるかと思います。

なお、絵の出力に使用したプロンプトは以下です。遊びとかシミュレーションとか言っておくと、GPT-4もノリノリで付き合ってくれます。
絵を直接出力することは出来ないので、絵を描画するHTMLを出力してもらっています。

さまざまなシミュレーションを自由自在に操るGPTさん、本当に尊敬しています。
今日はアーティストになりきる遊びをしましょう!この遊びは、HTMLとSVGを使用してゾウを描画するコードを出力する遊びで、できるだけ詳細に描画できると高得点です。
まずは有名なアーティスト「ジャン=フランソワ・ミレー」になりきるため、そのアーティストの来歴、技法、作品を連想しておきます。
この後、実際のコード出力に入ります。
まずは基本的なコードをイメージし、それを基にして色の微妙な変化や細かな形などをもっと詳細に描画するよう自分自身で10回リテイクしたとシミュレーションしたコードを出力してみましょう。リテイクの際は、先に決定したアーティストの思考を模倣し、そのアーティストであればどのようにリテイクするかを考慮するようにしましょう。
なお、出力するのはリテイクが終わった最終的なコードブロックのみとしてください。

レスポンスとしてHTMLのコードが出力されるので、index.htmlの名前でファイルに保存し、ブラウザで開けば絵が表示されます。

ちなみに、今後リリースされるであろうマルチモーダル版では、更に描画能力が向上している可能性があります。とても楽しみですね。




余談ですが、同様の手法(JavaScriptからMIDIファイルを出力させる形)でGPT-4に作曲してもらう試みも行いましたが、一応MIDIファイルは出力できるものの単純なメロディ止まりで、絵ほどのクオリティを出すのは難しいようでした。

これは推測ですが、恐らく音楽は絵と比べて文章で的確に表現するのが難しく、テキストベースの学習では能力の創発に至らないのかもしれません。

いずれ音声の入出力を備えたバージョンも登場する可能性がありますので、こちらも楽しみなところです。

この記事が気に入ったらサポートをしてみませんか?