文藝春秋とnote編集部の2024年度共同企画「#未来のためにできること」への応募にかこつけて、これまで考えてきた事をまとめたのを発端とするシリーズ。概ね1000字以内の本文と「…
- 運営しているクリエイター
#深層学習
結局、持続可能な未来の到来を妨げるのはシンギュラリティというより「人間自身による人間自身の為の人間自身の規定」による制約のせいという話。
思えばGoogleが最初のLLM(大規模言語モデル)Transformerを採用したのが2017年。翻訳ツールの精度をルール駆動エキスパート・システムで維持するのが困難になったからで、まずその展開自体がパラダイムシフトだった訳ですが、その瞬間には全く話題になりませんでした。人類全体が反応したのは「人間との対話能力を備えた」ChatGBTが登場したタイミング(2022年)。 何もこれが初めてという話でもありません。深層学習アルゴリズムの大源流は、同年発表されたニューロン・コン