![見出し画像](https://assets.st-note.com/production/uploads/images/154378468/rectangle_large_type_2_4b93bb635189cfb61a533cf9774d6ef6.png?width=1200)
Photo by
r7038xx
【リスキリング】失われた30年を取戻す-その①:生成AI-
1990年代の「ニューラルネットワーク」までは分かるんだけどねという方は、下記を見れば2022年当時のトレンドまでは取り返せる気がします。論文が出たのが2017年ですが専門家じゃないなら5年くらいのディレイは、まぁ、いいかなって思ったり…
生成AIの入口は、Transformer, Attention, LLM, Hallucinationくらいです。後はそれに紐づく考え方とか、自分がやりたい事に重心を置いて、スルスルっと理解すればよいので。
まず、Transformerってナニ?ってとこから。40分の動画ですが分かってるところを早送りすれば時短可。
っていうのを見ると、Attentionってナニよ?ってなるので、下記。こっちも約40分の動画ですが分かってるところを早送りすれば時短可。
ってとこで、だいたいわかった気になりますww。残りはLLMとHallucinationですが、気が向いたら更新…
当時所属していた、大学の研究室の先生が「この前、自分の講義の時に"行列"って単語を発した瞬間に、それまでざわついていた教室が一瞬で、しーーーんと凍り付いたのを見て愕然としてしまった…」と仰っていたのを思い出しました。工学部なのに…って事ですけど…
上の動画を見ると、結局「行列」ってナニ?っていうのも分かるし、「内積」は電気・電子系の方なら「そりゃそうだ」と思うでしょう。
で、Attentionってナニ?っていうのをここで説明しないというのは、いじわるでしょうか?www