人工知能との付き合い方を考える、しかも前向きに考える2_自己回帰型LLMの限界(20230329覚書)


以前に感銘を受けて下記を紹介しました(別記事。引用のみ)
ChatGPTを前向きに利用しようとするほどに必要な見識と考えました
秀逸な記事;「ChatGPT」に浮かれる人が知らない恐ろしい未来新井紀子氏「非常に危険なものが生み出された」
https://toyokeizai.net/articles/-/656682

今日この記事を新聞で読みました
幸いにもネットに上がっていたので紹介します
新井紀子氏と共通している一つは「責任ある大企業Microsoftの判断に疑問」を呈していることです。

ChatGPTを検索エンジンとしては使うな、責任ある大企業Microsoftの判断に疑問 | 日経クロステック(xTECH) (nikkei.com)中田 敦氏
https://xtech.nikkei.com/atcl/nxt/column/18/00692/021600100/

繰り返しになりますが
お二方の記事は
ChatGPTを前向きに利用しようとするほどにわきまえるべき基本に思えました

今日後者の記事で納得したのは
引用してある「事実に基づいた、誤りのない、制御可能なより優れたシステムが将来的に表れるだろうが
それは自己回帰型LLMではない」という言葉でした
(ネット公開部分に非ず)

人工知能は何十年も
スカートの流行のように
ナタデココのように
フルーツグラノーラのように
その流行が繰り返されてきました
これもその一つに過ぎなくて失望に終わるべく運命づけられた成功(仮定)への過程にすぎません
このことはしっかり認識されるべきだと思います

noteでとても面白い記事を載せてらっしゃるのを拝見しました
無料で公開なさっているので是非ご覧ください
(無断で引用しましたが問題があればご連絡ください)

ChatGPTさんはラテン語もできる すごい!YoHei氏
https://note.com/yohei557/n/nf04f1a0458e8

ChatGPTに日本語をラテン語翻訳させてらっしゃいます
≪ 問 ≫と≪応え ≫を見てください。

そもそも日本語は英語より不利だと思いますが
不利な日本語と不利なラテン語では
新井紀子氏のおっしゃる
「サイコパスっぽさ」は発揮できていない。

(前掲記事からの引用です)
――実際にChatGPTを利用すると、ちゃんと意味を理解しているように見えてしまう部分もあります。
おそらく心理学的な効果ではないでしょうか。
ChatGPTをすごいと感じてしまう現象は、受け答えの正しさよりも、自信満々かつスムーズにウソをつく“サイコパス”っぽさに起因していると思います。
そのため、知的レベルが高い人でも「こっちのほうが正しいんじゃないか」と、信念や心理を揺さぶられる。(引用ここまで)

やっぱりすごく賢そうにふるまっているけど持ってるデータをそれらしく処理する以上じゃないんだなと腑に落ちました。

持っているデータ(最高の知性のそれを含む)を
最高にそれらしく処理する技術が正体なのかもしれません(とおもいます)

それは我々の知性の補助となるべきもので代替するものではない
ときにそれは我々の知性を惑わせる
無謬性は決して担保できないのに人間のウェットな知性を惑わせる

現在の流行はこの限界と本質を踏まえず、
低学年の教室で
先生が何か面白いことを言ったら子供たちが盛り上がってしまい収拾がつかなくなることがあります
そんな様相を呈していないでしょうか

ちょっと怖い気がします。
ここまで読んでくださった方ありがとうございました

☆彡この記事においては新井紀子氏・中田 敦氏・YoHei氏の秀逸な記事を引用させていただきました
というよりそれらの記事に啓発されて自分の考えを深めたところを書きました。ありがとうございました。

いいなと思ったら応援しよう!