見出し画像

【リスキリング】失われた30年を取戻す-その①:生成AI-

1990年代の「ニューラルネットワーク」までは分かるんだけどねという方は、下記を見れば2022年当時のトレンドまでは取り返せる気がします。論文が出たのが2017年ですが専門家じゃないなら5年くらいのディレイは、まぁ、いいかなって思ったり…

生成AIの入口は、Transformer, Attention, LLM, Hallucinationくらいです。後はそれに紐づく考え方とか、自分がやりたい事に重心を置いて、スルスルっと理解すればよいので。

まず、Transformerってナニ?ってとこから。40分の動画ですが分かってるところを早送りすれば時短可。

っていうのを見ると、Attentionってナニよ?ってなるので、下記。こっちも約40分の動画ですが分かってるところを早送りすれば時短可。

ってとこで、だいたいわかった気になりますww。残りはLLMとHallucinationですが、気が向いたら更新…

当時所属していた、大学の研究室の先生が「この前、自分の講義の時に"行列"って単語を発した瞬間に、それまでざわついていた教室が一瞬で、しーーーんと凍り付いたのを見て愕然としてしまった…」と仰っていたのを思い出しました。工学部なのに…って事ですけど…

上の動画を見ると、結局「行列」ってナニ?っていうのも分かるし、「内積」は電気・電子系の方なら「そりゃそうだ」と思うでしょう。

で、Attentionってナニ?っていうのをここで説明しないというのは、いじわるでしょうか?www

いいなと思ったら応援しよう!