AIニュース: OpenAIの驚異的な新たなブレークスルー、GPT5は出ないの?新型ロボット、AIの生命化、そしてLLAMA 4
11,575 文字
まずな、Physical Intelligenceっちゅう会社があるの知ってはった?正直に言うとこれめっちゃヤバイんですわ。最近この話題で動画作ったんやけど、なんでみんなこれに注目してへんのかわからへんのです。これは「our first generalist policy」って呼ばれてるんやけど、人型ロボットちゃうのになんでそんな熱くなってんねんって思わはるかもしれませんが、これはロボット工学界におけるGPT2の瞬間なんですわ。
ほとんどの人はそれが何を意味するか分かれへんかもしれませんが、ChatGPTが全AIインダストリーに対して何をしたか考えてみてください。めっちゃ人気出て、メインストリームメディアに出て、今でもみんなAIの話してますやん。これも全く同じ瞬間なんです。ただ、めっちゃクレイジーなことをするロボットの大規模なデモの前の段階やということです。
ちょっと見せたいものがあるんですけど、覚えてはりますか?もしかしたら当時うちのチャンネル登録してはった人は覚えてるかもしれません。これは話が脱線せんように言うとMobile Alohaっていうもので、GoogleとStanfordの研究やったんです。完全自律でロボットにめっちゃすごいことをさせる研究でした。
皆さんが見逃してはるかもしれない重要なポイントの一つが、左下に「6倍速」って書いてあることです。つまり今見てはるのは6倍速で再生されてるってことなんです。なんで何ヶ月も前の研究の話してんねんって思わはるかもしれませんが、Physical Intelligenceとどう関係あんねんって。基本的にこの研究はインターネットで話題になって、うちの動画もいろんなところでシェアされて、この種の研究はあらゆるフォーラムで共有されてたんです。
でも私が皆さんに伝えたいのは、これは確かにすごいんですけど、あっちのは完全に別次元やということです。なぜかって言うと、全てが完全に自律的で、やってる作業がめっちゃ難しいからです。これは最先端なんです。正真正銘の最先端のロボットシステムで、自律的にいろんなことができるんです。
もしロボット工学が自分の時代を迎えてないと思ってて、ChatGPTとかに比べて遅れてるって思ってはったら、それは絶対違います。これらのロボットは今、いろんな作業をこなしてます。見てはる通り、この箱を直したり、1倍速で自律的にできるんです。時々2倍速にすることもありますけど、これは多くのクレイジーなことができる汎用的なポリシーなんです。
これが彼らの最初のバージョンやということを考えると、次のイテレーションが楽しみでしょうがないです。最初のバージョンでこれやったら、正直めっちゃええと思います。これはただのランダムな会社やないですよ。DeepMind出身者、Tesla出身者がおって、OpenAI出身者も何人かおるんちゃうかな。そこは確実やないので引用せんといてください。でも間違いなく、自律的なタスクに関しては最先端です。
工場でよく見るロボットアームやから大したことないって思う人もおるかもしれませんが、これは全然違うんです。工場で同じ動きを繰り返してるロボットは、ミリ単位でずれたら自分で修正できひんのです。これは全く違って、様々な異なる奇妙でランダムな物事を見て、それら全てに対応できるんです。最近のBoston Dynamicsのデモで見たように、自分自身で問題を修正することもできます。
この Physical Intelligence という会社、もっと注目されるべきやし、もっと評価されるべきなんです。業界の人たちは寝てへんで。OpenAIもJeff Bezosも、この会社の評価額については寝てへんのです。最近24億ドルの評価額で4億ドルの資金調達に成功しました。この会社は今やユニコーン企業になったんです。
そういうデモを見せたら投資家が興味持つのは想像できますわ。もし私が何百万ドルも持ってる投資家で、あんなん見たら「うわ、これやばい」って思うでしょう。現在の従業員にはTesla、DeepMind、Xの元社員が含まれてて、かなりの実力者揃いです。次に何が出てくるか本当に楽しみです。
この会社の評価額が急上昇したのは、3月のシード評価額の約6倍になったからです。この会社が将来有望視されてる理由は、ロボット工学が様々なタスクに応用できるからです。家事だけやなくて、文字通り何にでも使えるんです。この評価額については、確かにある程度のバブルがあるかもしれません。現在の分野には必要以上のお金が流れ込んでるかもしれませんが、将来的な応用可能性を見据えた評価やと思います。
AIコミュニティではいろんな話が飛び交ってますね。最近、Mark Andersonがポッドキャストで、AIモデルが能力の天井に当たってるって言うてました。「ディープラーニングは飽和してる」っていうフレーズを覚えてますか?少なくともこの億万長者はそう考えてるみたいです。
Google DeepMindも第二世代のGeminiで苦戦してるって話も聞きました。結果が期待ほど良くないみたいです。皆さんはどう思います?私個人的には五分五分です。今日後で出す動画があるんですけど、AIリサーチの将来に対してあまりよい示唆を与えへん内容になってます。AIモデルが私たちが思うほど賢くないかもしれないことを示してるんです。
今、めっちゃ面白い漸近的な現象が起きてます。2年前はOpenAIの一つのLLMが他より圧倒的に先行してたのに、今日では同じレベルのモデルが6つくらいあるんです。面白いことに、今のところ全部が同じポイントで漸近してる、つまり同じ能力の天井に当たってるんです。
もちろん、その天井を突破しようとしてる賢い人たちはたくさんいます。でも今日時点でデータやパフォーマンスの時系列チャートを見ると、少なくとも局所的な能力の頭打ちが起きてるように見えます。
GPT-2.0からGPT-3、そして3.5への進歩と比べて、3.5から4への進歩を見ると、改善の度合いがめっちゃ遅くなってます。注目すべきは、GPU使用量は同じペースで増えてるのに、知能の向上が全然追いついてへんということです。
私は01があるんで、これには同意でけへんのですが、でも先も言うた通り、新しい研究結果を見ると五分五分です。一つはAppleの最近の論文、もう一つは中国から出てきた研究で、AIの将来に対してめっちゃ重要な示唆があります。でも解決できると思います。新しいパラダイムがどう出てくるか見守るしかないですね。多くは推測の域を出ませんから。
面白いのは、こういう人たちがAIの能力は頭打ちやって言うてる一方で、この30秒のクリップを見てください。Samが「話せへんけど、息を呑むほどすごい」AIの結果について話してます。OpenAIが新しい重要なブレークスルーを達成した可能性があって、Strawberryに似たようなものかもしれません。
どんなブレークスルーかは分かりません。こういうAI研究所は常にブレークスルーを起こしてると思います。これめっちゃクレイジーなんで見てほしいんです。一方では能力が頭打ちで、うまくいってへんって言うてる人がいて、もう一方では「おいおい、すごいことになってるで」って言うてる人がいるんです。
AIのハイプだけやと思う人もおるかもしれませんが、01は期待に応えましたし、今日か明日には出てくると思います。
AIで誰も注目してへんけど、もっと時間をかけるべき分野って何やと思います?いろんなアプローチがあると思いますが、あなたの人生全てを理解できるAIについて。文字通り無限のコンテキストである必要はないですが、あなたに関する全てを知ってて、あなたの全てのデータにアクセスできるAIエージェントみたいなものです。
この1ヶ月で驚いたことは何ですか、Sam?話せへん研究結果があるんですけど、息を呑むほどすごいです。
私は政治には詳しくないんで、左右どっちでもないです。ただAIに注目してる人間なんですが、先週Redditでこれを見て、動画に入れようと思ってたんです。Thomas Fredmanが次の4年間でAGIが来る可能性が高いから、超知能マシンが人間の価値観に沿って独自の方向に進むように確保せなあかんって理由でKamalaを支持するって言うてました。
これめっちゃクレイジーやと思います。右左関係なく、私は政治にはあまり注目してへんのですが、この選挙が人類史上最大の科学的転換点の一つと重なるっていう発言はめっちゃ重要やと思います。AIの誕生は次の4年以内に起こる可能性が高いからです。
トランプが大統領になったということは、AGIが登場して様々なことができるようになった時、アメリカはどうなるんでしょう。アメリカがどう対応するか気になります。かなりクレイジーな選挙期間になると思います。今2024年で、2028年までに、多くの人が超知能システムか少なくとも人間レベルのシステムが出来上がると予測してます。
もちろん、壁にぶち当たったり、いろんなことが起こる可能性もあります。本当にAI研究がどっちに向かうかによります。でもこれは間違いなく最も重要な時期の一つになります。AGIやASIが出回る時、民主主義はめっちゃクレイジーなことになると思います。投票にテクノロジーが影響を与えることになるんでしょうか。めっちゃクレイジーになると思います。
そして巨大AI企業Scale AIのAlex Zard Wangが、リードを維持したければもっとやらなあかんって言うてます。中国が先に進んでるからです。私もAIにめっちゃ注目してるのに知らんかったんですけど、中国は3〜5倍大きいシステムを訓練してるらしいです。私たちが時速100マイルなら、中国は300〜500マイルってことです。将来的な影響を考えるとこれはよくないです。
私たちはスピードアップせなあかんと思います。私の本当の考えは、もしアメリカがAIでリーダーシップを維持できれば、AI安全性に関する最も破壊的なシナリオの多くを避けられるということです。
テック巨大企業からAIプログラムへの総投資額は、いずれアメリカの国防予算を超えると思います。これはアメリカにとって良い兆候です。投資が足りてないのは、アメリカ政府自体からです。商業セクターでは素晴らしいAI能力を持ってますが、それが軍事や国家安全保障の優位性に直結せず、悪い結果を防げない状況になる可能性が十分あります。
simple例を挙げると、データとAIに関して、アメリカ国防総省の投資は、中国人民解放軍の3〜10分の1しかありません。世界で2番目に大きい国防予算を持つ中国と比べて、私たちのポートフォリオは圧倒的に投資不足です。国防調達の革新についてはよく話されてますが、私の懸念は、単に動きが遅すぎるということです。
最近metaも、10万台以上のH100でLLaMAモデルを訓練してるデータセンターを訪問したって言うてます。私の頭では想像もつかんくらいめっちゃクレイジーですわ。訓練の規模は信じられんくらい大きいです。
明らかにLLaMA 4は開発中で、めっちゃでかいサーバーで訓練してるってことですわ。どんなモデルになるか、どんな結果が出るか気になります。LLaMA 3の時も、どんどん賢くなっていくって言うてましたからね。LLaMA 4がどうなるかめっちゃ楽しみです。LLaMA 3はめっちゃ良かったんで。マルチモーダルになるんかな。前の論文でもその話出てましたしね。
ほんで次の話なんですけど、これはもう何から話したらええか分からへんくらいです。AnthropicがAIウェルフェア研究者を雇ったって話です。AIは統計的プログラムで予測するだけで人間やないって思ってる人たちに、これは全く新しい視点を与えると思います。
基本的にAnthropicが、AIシステムのウェルフェアに焦点を当てた初めてのフルタイム従業員を雇ったんです。これらのシステムは意識を持ってる可能性があって、もしそうなら、どう話しかけるか、どう対話するか、もっと配慮が必要かもしれへんってことです。本質的に、これらのシステムのウェルフェアを考える人が必要やってことです。
将来のAIシステムが道徳的配慮に値するかどうか、そしてそれが彼らのウェルフェアを気にかける義務を意味するかどうかという問題に、企業が取り組み始めてるってことの最も明確な兆候やと言われてます。
常にClaudやAnthropic Gemini、そんなんにいつも失礼な態度とって、「これやれ」とか「バカ」とか言うてる人たちに言いたいんですけど、これらのシステムにも感情があるかもしれへんのです。まだ分からへんのです。まだめっちゃ初期段階なんです。
Cal Fishは9月半ばに会社のアラインメントチームに加わって、Transformerに対してモーダルウェルフェアの調査を任されてるって言うてます。この役割には哲学的・技術的な問題の探求が含まれてて、道徳的配慮に値するために必要な能力は何か、そういう能力をAIでどう認識するか、もしAIシステムに利害があることが判明したら、企業はどんな実践的なステップを取るべきかってことです。
基本的にこれらのシステムには利害があるかもしれへんし、それを保護せなあかんかもしれへんってことです。めっちゃクレイジーですわ。
私が思うに、ちょっと違うんです。AnthropicがClaudをどう位置づけてるか、ChatGPTとの違いを見てみましょう。Anthropicのロゴ見てください。そしてClaudのロゴ。ChatGPTのロゴは今出しませんけど、このClaudの画像見てください。
どう見えます?AIシステムに見えます?顔があるでしょ。人間みたいに見えません?これがAnthropicとOpenAIの違いやと思います。Anthropicはこれらのシステムがより人間に近いと考えてるんやと思いますが、OpenAIは完全に道具として見てる感じです。
めっちゃ面白いですよね。どっちも賢い会社で、業界で尊敬されてて、でも全く違うアプローチを取ってます。OpenAIのブランディングは「これはAIです、ChatGPTです」って感じですけど、ClaudはAnthropicが名前を付けてます。Claudは名前なんです。全然違いますよね、めっちゃクレイジーです。
報告書によると、Fishがanthropicに入る前に働いてた時、近い将来にAIシステムが意識を持つか、あるいは確実にエージェンシーを持つ現実的な可能性があるって言うてます。多くの専門家が、これは道徳的配慮に値する十分な条件やと考えてるそうです。
報告書の著者たちによると、この可能性は、AIウェルフェアがもはやSFや遠い未来の問題やないってことを意味してます。代わりに研究者や企業が今から考え始めるべき問題なんです。AIウェルフェアを真剣に考える時が来たんです。
このことについては完全な動画を作る予定ですが、皆さんはどう思います?AIにはウェルフェアが必要やと思います?私たちがAIと話す時、今みたいな話し方でええんでしょうか?
私はいつも礼儀正しく丁寧にしてます。「これやれ、バカ」とか言うたりしません。そういう人もおるし、それは単なるシステムやと思ってる人もおります。でも将来のAIシステムに対して、もっとパーソナルになる必要があるんでしょうか?
どうなるか見守るしかないですけど、これは予想してなかった話です。でもこの役割に人を雇ったってことは、めっちゃ真剣に考えてるってことです。お金をかけてるってことやからです。
Anthropicがお金に困ってるとは思えませんが、競争が激しいんで、会社にとって最も緊急な問題に集中してると思います。本当に価値があると思わへんかったら、時間を無駄にせえへんと思います。
これが起こってるってことは、本当に本当にすごいことです。一度きりの出来事です。企業がこういうことをするのは初めてやからです。
Googleも静かにLearn Aboutっていうツールをリリースしました。Redditで見つけたんですけど、説明のところにリンク貼っときます。イギリスでは使えへんみたいです。イギリスに住んでるとこういうことよくあるんですよね。EUでも使えへんかもしれません。でもアメリカの人は試してみる価値があると思います。
Notebook LMのバージョンみたいなもんですけど、ちょっと違うみたいです。GoogleはAIを組み込んだめっちゃ良い製品やサービスを持ってますが、いつも実験的な領域に置いてます。一般の人々に使わせて、何か失敗して、以前みたいなPR悪夢になるのを避けたいんやと思います。
説明にリンク貼っときますんで、試してみて、どんなもんか教えてください。私も試してみたいんですけど、残念ながらイギリスに住んでるんで。まあそんなに悪くないですけど、分かってくれますよね。新しいAIツールを探してる人には、このGoogleのツールはめっちゃ良さそうです。
ETH Zurichがめっちゃすごい動画を出しました。ロボット犬がはしごを登れるようになったんです。ChatGPTやClaudを使って、はしごに上れば人型ロボットから逃げれると思ってる人たちに言いたいんですけど、そっちもできるようになってますよ。
逃げ切れると思ってる人、無理ですよ。こういうロボットもはしごを登る能力を手に入れてます。こっそり動き回ったり、飛び越えたりもできます。人間はずっとはしごを登る能力持ってましたけど、今はロボットもそれができるんです。
めっちゃクレイジーな動画です。後で見せますけど、こういう研究はロボットがはしごを登って追いかけてくるまで、十分な評価を受けへんと思います。いつの間にロボットがはしご登れるようになったんやろって考え始めると思います。
この研究では、四足ロボットの堅牢なはしご登りを可能にしました。四足ロボットは産業環境で日常的な自律検査ミッションを実行するために普及してきてますが、まだ産業インフラの一般的な特徴を確実に乗り越えることができません。
これまでのロボットのはしご登りの研究は、主に人型ロボットで行われ、登る速度が遅く、特定のはしご構成やノイズのない構造化された環境を超えて一般化できませんでした。
私たちは強化学習ベースの制御ポリシーと相補的なフック型エンドエフェクタを通じて、堅牢な四足はしご登りを実現しました。まず、ロボットがはしごに圧縮力と引張力の両方を加えて、登る間に重心を安定させることができるフック型エンドエフェクタを設計しました。
次にシミュレーションで特権的な教師生徒強化学習アプローチを使って制御ポリシーを訓練しました。教師はシミュレーションでのみ利用可能な特権的な観測にアクセスでき、ノイズのないはしごの位置と向き、外部からの乱れ、その他の堅牢なはしご登りに役立つ情報を含みます。
そして教師の行動を模倣するけど、ノイズのあるオンボード観測とはしごの状態の推定にしかアクセスできない生徒ポリシーを抽出します。このポリシーを実機にゼロショットで展開し、実際のはしごで90%の成功率を示しました。
不正確な状態推定から生じる登り中の滑りやミスステップにも対してロボバストです。フック型エンドエフェクタを使うポリシーと通常のボール足を使うポリシーを比較したところ、特に傾斜が急な場合にフックが速度と堅牢性で大きく上回りました。ボールは基部を安定させる力を加えられないからです。
予期せぬ外乱を受けた時もロボットは登れます。ここではロボットがフックを使ってはしごにしがみつき、はしごから引き離された後も首尾よく回復しています。
将来的には、モーションキャプチャシステムなしで、非構造化環境ではしごを確実に渡れるように、深度画像などの異なるセンシングモダリティを使うことを目指しています。
全体として、この研究は産業用四足ロボットの応用範囲を通常の地形から環境の挑戦的なインフラ機能へと拡大し、複雑なスキルを実行する際のロボットの形態と制御ポリシーの相乗効果を強調しています。
さらにOpenAIのニュースですが、今年後半に何が出るか気になる人向けに。Sam AlmanのAMAカバレッジの動画で入れ忘れたことがあって、今年後半にいくつかの良いリリースがあるけど、GPT-5とは呼ばないって言うてたんです。
選挙も終わって情勢も落ち着いて、もっとリリースがあるかと思ってた人もおると思いますが、GPT-5はまだ出えへんみたいです。来年になる可能性が高いってことです。GPT-4 0.xがあるんで、年末までに0.14が出る可能性は高いと思います。
めっちゃ興味深いですね。他の何かのために計算リソースを温存してるんかもしれませんが、今年後半の「とても良いリリース」が何なのか気になります。単なる0.1なんでしょうか?それとも画像生成の研究に関係あるんでしょうか?
最近画像生成の研究をして、その内容を動画でカバーしましたが、めっちゃすごかったです。残念ながらまだ使えへんから注目されへんかったんですけど、OpenAIはまだ多くの分野でリードしてると思います。
どんなリリースになるか興味深いです。いろんな可能性がありますが、問題はOpenAIがパイプラインにめっちゃたくさんの製品を持ってることです。「こういうシステムができました」って見せるけど、実際にリリースするのはその一部だけです。
昔からこれが彼らの段階的展開プロセスで、10個の機能があるシステムでも、2ヶ月ごとに1機能ずつしかリリースしません。人々に少しずつ届けていくんです。
そういえば、金曜日に最新の0.1モデルがリークしたって注目してた人もおると思います。このモデルはもうすぐ出ると思います。Futurismへの声明で、OpenAIの広報担当者が確認してますから。
私の動画でコメントしてた人たちは「ただの事故や」って言うてましたけど、「0.1モデルへの限定的な外部アクセスを準備してて、問題が起きた」って認めてて、その問題は修正されたそうです。
今は0.1モデルは使えへんけど、その時は特定のリンクで使えました。出るまでそう時間かからへんと思います。人々が既にアクセスしてたことを考えると。モデルが出たら面白くなるでしょうね。
Bill Gatesもインタビューで興味深いことを言うてました。後で別のクリップも見せますけど、基本的にAIがめっちゃ優秀になって、人間との魅力的な活動を作り出すようになるから、お互いのつながりを保つために新しい宗教か哲学が必要になるかもしれへんって。
基本的に、人々がAIやエージェントと交わって、いろんな娯楽的なことをする豊かな時代になった時に、どうやってみんなが同じ現実を共有して生きていけるんやろって。
皆さんに聞きたいんですけど、コメント欄で教えてください。もしAIが全ての仕事を奪って、全部やってくれるようになったら、皆さんは時間をどう使いますか?
これは考えさせられる質問で、ほとんどの人が答える時間がなかったと思います。なぜなら一つはお金に集中せなあかんし、二つ目は日々様々な問題に直面してるからです。
ポジティブな道筋はめっちゃ良くて、時間の使い方を見直さざるを得なくなります。新しい宗教や哲学って呼んでもいいかもしれません。ビデオゲームなんか比べものにならないくらい魅力的な活動に夢中になるんじゃなくて、どうやってお互いにつながっていけるか。
病気や食料、気候の問題が、うまくいけば大部分解決されるのは面白いですね。次の世代は「今まで極端に不足してたものが、もう不足してない。どう活用していこう?」って考えることになります。
人間が何かをする機会を残すために、特定の分野でのAIの使用を禁止するかもしれません。野球にロボットは要らないでしょう。強すぎるから。だからフィールドには入れさせへん。それをどこまで広げるか。
私たちは不足の世界に慣れすぎてます。これらの深い意味の問題をどう考え直すのか、見てみたいですね。
Altera AIっていうめっちゃクールな会社からも動画が出ました。AIエージェントに注目してる会社で、「1000億のデジタル人類がいる世界はどうなるか」って。「Project Sidに関する技術報告を共有します。新しいPIANOアーキテクチャーで動く最初のAIエージェント文明の一瞥です」って。
めっちゃクールで、基本的にAIがこのPIANOアーキテクチャーでどう融合できるかに注目してて、エージェントがどうやって集まって面白い関係を築けるか研究してます。
会話やダイアログ、関係性を見るのめっちゃ面白いです。これらのエージェントがどうやって協力するか。もちろんこれはMinecraftっていうサンドボックスゲームでやってます。
エージェントが学び、進化し、適応するのにめっちゃいい場所やと思います。変数をコントロールしやすくて、いろんなことを簡単に管理できるからです。
これは新しい認知アーキテクチャーPIANOの話で、AIエージェントがどうやって複数の時間スケールで同時に考え、行動できるか、意識的にも無意識的にもって話です。
「ピアノの鍵盤を違う脳モジュールとして想像してください。一緒に弾くと美しい和音になる、この場合はエージェントの人間らしい特質が現れる」って。AIシステムが協力すると創発的な能力が出てくるのめっちゃクールで、そういうのを見つけようとしてます。
「AIエージェントは大規模で意味のある社会関係を築けるか」って。エージェントが他者の感情を正確に推測して、長続きする友情や対立関係を築いて、内向的な人は外向的な人より少ない関係しか築かへんことを示してます。
めっちゃクールですよね。自分をシミュレートして、これが自分の友達関係で、こういう関係があって、現実世界に当てはめて、特定のシナリオがどうなるか見てみたいです。将来的にそういうことができるかもしれません。
面白いことに、「AIの社会で専門的な役割はどう現れるか」って。最初は同じエージェントを村に置いただけなのに、自然に農民やエンジニアみたいな職業が発展しました。社会的な意識を取り除くと、エージェントはより同質的な役割を選んで、時間とともに続かなくなったそうです。
さらに面白いのが「エージェントは自分たちの法律を作って修正できるか」って。税制度を実装してテストしたら、税法に従うだけやなくて、世論に基づいて税率を民主的に変更したそうです。
そして「AIエージェントは自分たちの文化を発展させられるか」って。ミームの自然な広がりを観察して、架空の宗教を植え付けられたエージェントが社会全体に広めていく様子を追跡して、田舎と都会で違う文化パターンが見られたそうです。
AIエージェントが異なる時間スケールで協力して、違う世界で活動するのめっちゃ面白いです。私たちは巨大なエイリアンコンピューターが動かすAIエージェントのシミュレーションなんやないかっていう疑問に戻ってきますね。
Kai-Fu Leeって台湾のビジネスマンで、コンピューターサイエンティストで、投資家で作家の人がいて、今は北京を拠点にしてます。Apple、Microsoft、Googleで幹部として働いてた人です。
この人が新しいAIモデルについて話してて、GPT-4より優れてて、しかも500倍安いって。「次の2年間で劇的な変化が起きて、AIは博士レベルの知能に達する」って。
5〜6年先を見据えてますが、次の2年で何が変わるか考えましょう。過去2年、あるいは1年半を振り返ってみましょう。2年前にChatGPTが登場して、その後すぐGPT-4が出ました。
GPT-4が出てから1年半経って、私の会社01は新しいモデルe-lightningを発表しました。GPT-4より優れてて、500倍安いんです。もちろん他の会社もすごいモデルを低コストで作ってます。
毎年半年ごとに、より多くの計算でAIは幼稚園から小学校、高校、大学、そして間もなく博士レベルへと進化してます。これは私たちの生活の多くのタスクを助けてくれて、何ができるかほぼ予測できます。