アメ車

大学時代に(ということは、もう40年以上前に)聞いた話で、アメ車(アメリカの車)は、ローギアで時速30km位まで加速できるし、セカンド(2速)に入れると時速100km位まで加速できるらしい。その代わり、燃費はリッター2kmくらいだとか聞いた。
乗ったことがないので、わかりませんが。どういう条件でリッター2kmなのか。それだと、ガソリンタンクが100リッターだとしても200kmごとに満タンにしなきゃならない。
「その気になれば、セカンドで100km/hまで引っ張れるんだぜ」「マジかよ」「そりゃそうさ、アメ車だもん。」
絶句した。だいたい、当時の私の運転は、発進してから時速20kmまで加速したころには、もう3速に入っていた。

私が30年くらい前に、サラリーマン時代に乗っていた車(日本車)は、リッター17km走った。
結局、日本車は細かい改良だとか、改善だとかを繰り返して、燃費も安定性も安全性も、少しずつ改善してくるうちに、今の「地位」を築いたんだろうと思う。
(ただし、内燃機関の車の場合、だけれど。)

その当時私がイメージした「アメリカ」は、細かい改良をするよりも、力任せにひたすら「馬力」を追求するような「作り」を好む、ということだった。
これが当たっているか、違うのか、たんなる「ステレオタイプ」なのかは、わからないけれど。

https://gigazine.net/news/20250128-coding-for-a-greener-internet/

Linuxのコードをたった30行修正するだけでデータセンターの電力消費量を最大30%削減可能、実際にLinux 6.13から反映される - GIGAZINE

これ、すごいなと思った。
これはAIの話ではなく、データセンターの話だけれど、おそらくカーネルのコードを丁寧に見ていくと、まだ改善の余地があるかも知れない。「目的に特化して」の改造も、独自の改良でできる余地があると思う。オープンソースならでは、だと思う。

で、AIはどうなんだと言えば、このニュースが出てきた。

https://www.nikkei.com/article/DGXZQOGN27CE40X20C25A1000000/

公開技術でAI開発費「10分の1以下」 DeepSeekの衝撃

AIの基本構造自体30年前と大きく変わったとは思えない。ただ、ニューラルネットワークの重みづけの膨大な計算をGPUにやらせる、という発想は、すごいと思ったけれど。

私が実際にシミュレーションのような形で(当時の技術レベルで)AIのバックプロパゲーションを試したのは、もう30年以上も前だけれど、hidden Layerの、すなわち多層化構造の一枚ずつを学習させていけば、そんなに「莫大な計算量」にはならないように思うのだけれど。(と、馬鹿の一つ覚えのように、30年も同じことを主張している。)

なぜ、それをしないか。理由は単純で、「その一手間が、かなり面倒くさいから」だと思う。逆に言えば、タグづけなしの「大規模言語」ではなく、基礎的な概念から段階的に高次概念まで、何階層かを多段階に学習させれば、現在のCPU構造からそれほど計算量も多くなく「学習」や「判断」を行うAIが作れると思う。
ここにこだわるとすると、この「多段階化」にそのAI設計者や開発チームなどのマンパワーが割かれて、果ては「人間の知識の体系化」も求められ、開発にも時間がかかっただろうし、「すぐに結果を求める投資家」には「いつまで経っても、モノが仕上がらないじゃないか」と叱責される結果になったに違いない。
逆に、何もかも、中間的な hidden layer の学習も全部ブラックボックスにして、ひたすら計算させればいいことにしたから「難しいことを考えなくても」現在のような「高性能のAI」が作れた、ということになると思う。

ただ、前者の方法(多段階化)の場合に、まず前段の計算量がざっくり 100×100だとし、後段の計算量も100×100だとすると、2段に分けることで学習コストは100×100+100×100になる。その一方で、後者の方法(すべてをブラックボックス化)の場合には、計算量は100×100×100×100になる。だから「膨大な電力が必要だ」ということになってしまう。多段階化のコストの削減効果はかなり大きいはず、なのだけれどなぁ。

なんとなく思うに、openAIとかは、2速で時速100kmまで加速できるアメ車のイメージで私は感じている。
本当にAIがわかっている方なら、別にopenAIの技術を盗まなくたって、DeepSeekのような結果は出せたんじゃないか、という気がする。不幸にしてDeepSeekが中国の会社だったから、これからどんな疑いをかけられるのか、容易に想像がつくけれど。
そして、「期待を裏切らない展開」というか、中国政府がAIが蓄えた知識に目をつけるのも、時間の問題かも知れない。

https://news.yahoo.co.jp/articles/cb4cfc7fa8ab8de57902dd40e416329873f339ce

中国製AI「DeepSeek」の危険性、収集されたデータは「中国で安全」に保管

だろうなぁ、、、。

要するに、openAIが「2速で時速100kmまで引っ張れるアメ車」だと考えるなら、アメリカは(マイクロソフトなど)「その燃料を供給する社会システム」を追求するのだろうけれど、単純な話で、燃費を良くすりゃいいだけの話。しかも、どこに手を加えたら燃費が良くなるか、わかっているはずなのに。
誰も面倒くさがってやっていないだけの話だから、開発チームに「言語学者、社会科学者、経済学者」などなどを集めて「知識の、おおまかな体系化」を行い、まず、段階的にそれを学習させたベースAIに、最終段となるユーザインターフェース層のAIを(これも一層は無理だろうけれど)被せればいいんじゃないか?と思う。

というのを、自分で試せた年齢の時には「何言ってんだ、このオタクは」だったし、金がなくても、気力と体力を唯一勝負の材料にできた頃と比べて、悲しいことに「気力と体力」が年齢相応になっている気がして、なんとなく悲しいというか、本当に無責任な書き方しかできないのが、悔しい。

以上

いいなと思ったら応援しよう!