【書評】『チャットGPTvs.人類』
生成AIと人類社会の関係を問う
2022年11月末に一般公開されたチャットGPTは、わずか5日で100万人、2カ月で1億人のユーザーを獲得し、インターネットサービス史上最速の成長を遂げました。平和博氏は本書で、このAIブームの本質と社会への影響を、100年前から続く人類の欲望と結びつけて論じています。
本書の特徴は、現在のAIブームを歴史的な文脈の中に位置づけていることです。1920年代、チェコの作家カレル・チャペックは戯曲『RUR』で「ロボット」という言葉を生み出しました。人間の労働を代替する存在としてのロボットは、当時から人々の期待と不安を掻き立てる存在でした。平和氏は、チャットGPTへの現代社会の反応が、100年前のロボットブームと驚くほど似ていることを指摘します。
AIは人間の仕事を奪うのか
著者は、チャットGPTの衝撃を様々な角度から分析しています。特に注目されるのは、雇用への影響です。オープンAIとペンシルベニア大学の共同研究によれば、米国の約80%の労働者がチャットGPTによって仕事の10%以上に影響を受け、約19%の労働者は仕事の50%以上が影響を受けるとされています。
特に影響を受けやすい職種として、プログラミングやライティング関連の仕事が挙げられています。一方で、科学的スキルや批判的思考を必要とする職種は比較的影響を受けにくいとされています。
教育現場の混乱と対応
教育分野での影響は特に深刻です。本書では、チャットGPTによるレポート作成の問題が詳しく論じられています。人間が書いたように見えるレポートを瞬時に生成できることから、多くの教育機関が対応に追われています。
ニューヨーク市やシアトル市の公立学校では使用禁止措置を取り、英国のケンブリッジ大学はチャットGPTの使用を不正行為とみなすことを宣言しました。一方で、ユニバーシティ・カレッジ・ロンドンは禁止ではなく、効果的で倫理的な使用法を指導する方針を打ち出しています。
日本でも、上智大学が学位論文やレポートでのAI使用を禁止し、東京大学はAIのみでの作成を禁じつつ、社会変化への対応を促しています。著者は、AIと教育の関係について、単純な禁止では解決できない複雑な問題であることを指摘しています。
「もっともらしいデタラメ」の危険性
本書で特に注目すべき指摘は、チャットGPTの出力する「もっともらしいデタラメ」の問題です。AIは膨大なデータから確率的に「もっともらしい」文章を生成しますが、その内容の真偽は判断していません。
著者は、SF作家テッド・チャン氏の「ぼやけたJPEG」という比喩を引用しながら、この問題を説明します。JPEGファイルが画像データを圧縮するように、チャットGPTはインターネット上の情報を圧縮して再生産します。その過程で情報は劣化し、時として事実とは異なる「もっともらしい」内容が生成されます。
プライバシーとデータの問題
プライバシー保護も重要な課題として取り上げられています。EUでは一般データ保護規則(GDPR)に基づき、イタリアがチャットGPTの一時利用停止を命じる事態も起きました。著者は、AIの学習データの収集と利用について、社会的な議論が必要だと指摘しています。
対照的なAI規制への姿勢
著者は、米国、EU、中国、日本のAI規制への異なるアプローチを比較しています。米国は「AIアクセル」と「規制ブレーキ」のバランスを重視し、EUは強力な規制枠組みの構築を目指しています。中国は社会主義的価値観に基づく規制を導入し、日本は「規制よりも推進」の立場を取っています。
「知性」と「意識」をめぐる議論
本書の後半では、AIの「知性」と「意識」について深い考察が展開されています。言語学者ノーム・チョムスキーの指摘を引用しながら、著者はチャットGPTの「知性」が人間の知性とは本質的に異なることを論じています。
社会の対応が求められる課題
著者は最後に、AIがもたらす社会変化への対応を論じています。特に「AIデバイド(格差)」の問題を重視し、AIを使いこなせる人とそうでない人の間の格差拡大を警告しています。
総じて本書は、チャットGPTという新技術がもたらす社会的影響を、歴史的な視点と現代的な課題の両面から分析した優れた考察となっています。技術の進歩に社会がどう向き合うべきかという根本的な問いに、示唆に富む視点を提供しています。