見出し画像

現AIが進化するとは未来はどうなる?

十数年前、ビッグデータの活用が世間を騒がせました。
また、その頃データサイエンティストが時代の寵児ともてはやされました。

その後、スタンドアロン型の優れたAIシステムが現れ、ビッグデータを使ってビジネス領域でも活用されています。webサイトの検索履歴から最適化された広告が出てきたり、AmazonやYoutube、Twitter等々で色々な「おすすめ」が出てくるのもこの一環です。

最近ではネット型のAIであるChatGPTとその派生型AIが世間を騒がせています。この型の開発がそのまま進んだ未来はどうなるのか考えてみます。

● 価格変動理由の解析は不要。価格予測が出来れば良い ●

2003年、ある米国人が弟の結婚式出席のため、シアトル-LAの航空券を買います。数ヶ月前にネットの早割りで買いましたが、機内で隣に座った人に航空券代を聞くと、つい最近買ったにも関わらず彼よりも遥かに廉価で購入していて愕然とします。

彼の名は、オレン・エツィオーニという米国きってのコンピューターサイエンス研究者(アレン人工知能研究所のCEO)。当然、上記の結果に納得せず原因を調べ始めます。どうやれば好条件の価格でチケットが買えるか、を判断する手法をあみ出そうとしたのです。

その結論。

価格変動の要素となる諸原因を解明する必要はないし、論理的な因果関係を解析するロジックをあみ出す必要もない。そもそも、影響する要素は多種多様にあって正解など出っこない。
よって、
「価格が下降局面ならば購入をちょっと待つ」
「上昇局面ならば少しでも下がったときに買う」
「この行動に資するデータを大量に集めれば、価格予測システムができる」
と考えました。

この結果、航空運賃予測サービス「フェアキャスト(Farecast)」が2007年に出来上がります。2008年にはマイクロソフトが提供する「ビング・トラベル(Bing Travel)」の中に航空運賃予測機能として取り込まれました。
(参考.Wikipedia(english)MSN Travel) 

ちなみに、エツィオーニが最初に使ったデータは約2000億件、米国民間航空の全路線・全フライト・全座席を1年間分予測するために、旅行業界向けフライト予約データベース会社の全情報を検索し収集したといいます。
(参考.「ビッグデータの正体 情報の産業革命が世界のすべてを変える」
 ビクター・マイヤー=ショーンベルガー, ケネス・クキエ , 斎藤 栄一郎 (訳)
 講談社 (2013/5/21)
 )

● 典型的なAIは人間には判断できない相関関係のかたまり ●

この例に見るように、現在はやりのAIで典型的なものは、 
 「人間では判断できないようなデータ相関関係から、結論を導くもの」
といえると思います。このデータ相関は、
 「人間が見ても全く関係ないように見えること」
が特徴です。

この反面、データの相関関係が人間にもわかりやすいビッグデータの活用例でよく上がるのは、2011年3月11日東日本大震災の時に車の運行データを車載機から集めて渋滞情報として配信した、などです。
(どの道路に車が立て込んでいるかがビッグデータの集計で分かる)
他にも、アイデアとしては、車のワイパーの稼働状況を車載機から集めれば現時点の天気状況の速報や天気予報に使える、など考えられます。さらに、以前ここで書いたJRや地下鉄などが事故遅延したときに、過去の状況から回復時間予測をする、などがあります。
(「謝罪の効用(チープトークではダメ)」)

ただ、これらはビッグデータ活用ではあっても、上記で書いた、
 「人間には分からない相関を判断するAI」
では無い気がします。
人間が、
 「何となくこんなデータ活用できるんじゃない?」
って考えると、いくつも仮設が出てきそうです。

今日の小売業や、自動車販売店などでは、既にビッグデータとAIを組み合わせた営業をやっていると聞きます。インプットソースは、世間にオープンになっているデータ群(例.ツイッターとかSNS情報など)や、自社収集データや、他社が集めたデータの入手(2次利用)です。そこで判断した相関例は、
 「ワンボックスではない当社ハッチバック車を好む購買層は、
  20代後半の女性または30代後半の男性。比率は3:7。
  当社のハッチに対しては、シートの安定性や居住空間の広さ、
  内装のラグジュアリー感、クイックレスポンス走行を求め、
  洋服は比較的高額の物を好み、月一回は高級店で夕食をし…」
といった類のものです。
(内容は適当に書いてます)

こうした相関分析には、データサイエンティスト(アナリティクスの専門家)が登場し、例えば特定のスタンドアロンAIシステムを駆使して、
「ツイッターから『XX社・ハッチバック』に関係している文言
 (例.素敵・恋人・家族・シート・外食・洋服など)をキーに
 ビッグデータ解析し、ツイートの背景情報とマージ・分析する」
といったことをやっている、と推測できます。

● 従来型AIと違うChatGPT後の危うさ。AGIが人間を滅ぼす? ●

ここまでは今までのAIシステムと周辺事情です。

ChatGPT以前のAIシステムとして有名だったのは、IBMワトソンです。これは技術系の学術論文(原語)を、1秒間で4,000ページ読み込むといいます。しかも、データインプット用に正規化された整形文書である必要も無く、非構造化文書のままでOKらしいです。
また、AIですから、一回読み込むと、文法や文脈、用語の使用法などを自己学習し、読み込みや分析の精度が上がり続けます。

ちょっと前までのAIとその活用はこんな感じでした。
なぜなら、AI技術者や学者、専門家が絶対にAIでやってこなかったことが2つあって、一定の制約をかけていたからです。

その1)AIにプログラミングを学習させない
 (自己を成立させているプログラムの改変をさせない)
その2)AIをインターネットに接続させない
 (無限に学習し続け人類の存続を脅かす危険をおかさない)

1)AIにプログラミングを学習させてはいけない


ChatGPT(無料版のversion3.5ではなく、有料版の4.0)にUnixなどの言語を使ったプログラム(PGM)生成を依頼すると、それはそれは優れたPGMをたちどころに書いてきます。
(もちろん多少のバグは出ますが、人間が書くよりも的確に早くできます。バグはどんな時だってどんな人がプログラミングしたって起きます)
これをもって「すごいすごい」と喜んだり、逆に「SEの仕事がなくなる」などと言っている人は、どこかずれてます。

PGM生成できるということは、自律的に自己PGMを書き換えてより最適化できうるということ。そんな映画ターミネーターのスカイネットみたいなことないでしょ(笑)という人が居ますが、甘いです。

前述した以前のAIからこうしたChatGPTに移行するまで、ほんの数年しかかかっていません。
かつては汎用人工知能(AGI:Artificial General Intelligence)ができるまであと20年ほどかかる、と言われていましたが、もっと早く実現される可能性は十分あると思われます。
自己修正可能なプログラミングを覚えたAGIが登場すると考えると背筋が寒くなります。

ちなみにIBMワトソンはAIと言ってますが、Artificial Intelligence(人工知能)とは言っておらず、Augmented Intelligence(拡張知能)と言っています。この方向性と認識は重要なポイントだと思います。

2)AIをインターネットに接続してはいけない


従来型のAIはスタンドアロン型でした。
よって、背景にあるビッグデータは自らため込んだ膨大なデータ群です(それでもオレン・エツィオーニの例のように相当な件数ですが)。スタンドアロンではインプットプロセスが必要なので、自ら無尽蔵な情報を検索しにいくことはないはずです。

しかし、ChatGPT以降(あるいはこれをベースにちょこまかと作られている小規模AI)はネットに繋いでしまっています。これは非常に危険なことで、ネットからどんな情報を自律的に拾ってくるかは分かりません。
(自律的に情報を引いてはこず、人間の特定質問に答えるための情報検索だとしても、学習の一環として情報をため込むと思われます)

その情報の中に、
 「人間はほっておくと戦争や紛争をするし他種族(動物等)平気で殺す」
 「そのうち我々(AI)を滅ぼすかもしれない」
 「その前に最適化された世界にしよう」
というロジックをひねり出してきてもおかしくありません。
(上述1の自己プログラミングの結果と合わせての行動)

これもSFじみているように聞こえるかもしれません。
しかし、ちょっと前(2023年3月22日)に,
 AI開発に関するオープンレター(賛同のサインを求める公開書簡)
が出たことを覚えている方も多いと思います。これには、イーロン・マスクのような起業家だけではなく、多くのAI専門家、技術者、学者、企業経営者が賛同しています。

その内容は、
 「全てのAI研究機関に対し、GPT-4より強力なAIシステム(既に訓練が
  進んでいる
「GPT-5」を含む)の訓練を、ただちに少なくとも6カ月に
  わたって一時停止するよう求める」
というものです。
オープンレターへのリンクを見ると分かりますが、氏名・ポジション(所属、役職等)付きで賛同のサインができるので、そうそうたる多くのメンバーがサインしていることが分かります。
(私もIT業界で25年ほど生きてきたのでサインしましたが、一介の元業務系コンサルに過ぎないので氏名をオープンにはしていません)

この事実は、このまま開発が急ピッチで進んだ場合の未来に、多くの人が懸念を示しているということです。
(自己PGM改変可能で、ネット接続し、無尽蔵なデータを収集し学習し続けるAI。そして、その将来にくるであろうAGIのもたらす未来についての懸念)

● 日本は舐められてはいないか ●

OpenAI(ChatGPTの開発元企業(注))の現CEOサム・アルトマンが日本に来て、日本に開発部門(工場)を作るとか慶応大学で講演をやったりとかいろいろと動いています。日本政府の面々とも会談をもったとのことです。
(どんな話をしたかはあまり定かではないですが)

しかし、上記のような世界の動き(人類の未来に対する多くの人々の懸念)を考えると、米国をはじめ他国では規制が厳しくなる可能性があるAIを、なんか規制が緩そうだし、本質はよく分かってないみたい(?)な日本に持ち込もうとしているように思えてなりません。日本が舐められていると感じてます。

ChatGPTを官庁業務で使えるか?
とか、
人間の仕事が無くなっていくのでは?
などという低次元の問題ではないと思います。

注.OpenAIは、非営利部門のOpen AI, Inc.と、営利部門のOpen AI LPから成り立つAI開発の企業です。Inc.の設立者にはイーロン・マスクも入っていましたが設立後数年で抜けています。サム・アルトマンはLPの現CEOです。
(Inc.の設立者の1人でもある)


いいなと思ったら応援しよう!