![見出し画像](https://assets.st-note.com/production/uploads/images/112885857/rectangle_large_type_2_c7dc842aa67d415fb4615cbabdd835e9.png?width=1200)
GPT-4は技術革新でなくカイゼンを巧みに見せた演出だった?
2023/3にリリースされたGPT-4、そろそろ5の話が出ています。
とくに要約不要ですね。商標出願が登録されたのは2023/8/1です。
ただ、すぐ出ることを意味するよりは、どちらかというと先に名称とられないよう楔をうっておく、という考え方もあります。
むしろ運営団体OpenAI CEOサム・アルトマンは、そのAI開発スピードを抑えようとしているコメントを2023/4に出しています。
その背景は、やはりAIの脅威へのレピュテーション対処、かなと想像します。
よくAIの倫理、という文脈で語られますが、は過去の関連投稿を引用にとどめておきます。
ということで、5の中身はまだないか、またはベールに包まれています。
今回は、今のGPT-4について、興味深い記事を見つけたのでそれを砕いて紹介したいと思います。
GPT-4含めて、LLM(大規模言語モデル)をベースにしたタイプはGAFAMやベンチャーなどが続々と発表しています。
そのトップランナーであるGPT-4、意外にもそのモデルの中身はベールに包まれていました。今回はその中身が分かってきた、というものです。
文中でも断ってますが、これは「噂」で裏付けされてません。あくまで仮説、またはプロレスを楽しむ感覚でうけとめてください。
ポイントは、技術革新でなく「レピュテーション革新」と丸められるかもしれません。(ちょっと前半をフリにつかいました)
ある程度この業界に明るい方なら、1世代前の「GPT-3」でその凄さは話題になっていました。
話題が凄すぎて、このままモデルを大規模化してファインチューニングしてリリースしてもインパクトが弱いのではないか?
彼ら(文中ではサム・アルトマンを示唆)はそう考えたかもしれません。
そんな4が世に出る前の2021年ごろに、Googleの研究者たちがこんな論文を事前公開サイトにUploadします。
ようは、
LLMの母ともいえる(同じくGoogleが発明してオープン化した)Transformerという言語モデルを、目的別にモジュール化して疎結合できる方法を編み出したよ、
という話です。(相当端折ってますが・・・)
そしてOpenAIは、この技術を活用し、リリース前はあたかも神秘的にもみえる技術的な躍進があったかのような演出を施して、人類に匹敵する知能を誇ったと宣伝した、という流れです。
実際サム・アルトマンは、エンジニアというよりはスタートアップを生む専門家です。過去の関連記事を引用します。
繰り返しですが、だからGPT-4が凄くない、ということを言いたいわけでは全くないです。
実際ベンチマークはすごいスコアをだしており、それはそれですごい偉業です。
ただ、結果だけを見て魔法のような大発明が行われた、と思考停止するのではなく、実はもともと技術革新の種はいくつかあり、むしろそれをどう組み合わせて、そしてなにより効果的に見せるのか、それが世間のインパクトに直結することを示した事例ではないかと思います。
今後もし当事者たちがその経緯を明かす日がくれば、技術書籍だけでなく、マーケティングの教科書としても取り上げられるかもしれません。