「生成AI」のよくある誤解 ~そしてその根本的な原因~
誤解1. 「生成AI」は無断学習しているからダメ
A. 機械翻訳やメール自動振り分け(スパムフィルター)等も「無断学習」を行なって作られている意見変更しました。
誤解2. 生成AIがダメと言うなら機械翻訳も著作権的問題を起こすからダメになる
A. 翻訳には「機械的」面と「創作的」面があり、現在の機械翻訳は「機械的」な翻訳しか行なえない
例えば「This is a pen」「My name is Mike」「I am legend」などは「be動詞は『~は…です』と訳せ、英和辞書データを渡すから英単語はそれに載ってる意味の中で一番上のものに置き換えればとりあえず問題ない、大文字で始まる単語は固有名詞だからそのままにするかこういう規則でカタカナに変換しろ」と指示を与えればコンピュータでも人間でも「機械的」に翻訳できる。複雑な文でもパターンが複雑なだけで「機械的」に訳せる可能性があり、大量の著作物を学習したらそのパターンを見つけたということなら学習に使用しただけで権利侵害はしていない。
しかし、「人民の人民による人民のための政治」のように当時の歴史的背景等を踏まえたパターン処理ではできない創作性のある翻訳をそのまま出力するのは問題。
「人民の人民による人民のための政治」の場合有名なため、パターンの学習しかしてなくても「peopleは通常『人々』と訳されることが多いが『Government of the people, by the people, for the people』の場合だけ『人民』と訳す」と学習できる可能性があるが、特に有名でない文の創作性のある翻訳をそのまま出力してしまうのであれば問題。しかし、現在まで有名翻訳家が「自分の行なった翻訳がそのまま出力された」と問題視したことは無く、また、Deep Learningのアルゴリズムから考えても、少数しかない翻訳は刺激の少ない脳神経細胞がアポトーシス(自殺)するように「ノイズ」として処理されるため、そのような特定個人にしか行えない翻訳を出力するような著作権的問題はおそらく無い。
※ただし、機械翻訳はこれまで行われた翻訳パターンはそのまま出力してしまうため、他の機械学習と同じく既存の偏見の強化につながる問題は指摘されている。
誤解3. イラスト生成AIを問題視する人がいるが文章生成AIは問題視されていない
A. 三大学術誌Nature, Science, CellはAIツールを規制しており、全米脚本家組合はChatGPTも問題視してストライキを起こしている
三大学術誌ともAIツールを使用した場合「どのように使用したか」の明記を義務付けている。
また、画像に関しては完全に禁止している。
153年の歴史を持つ科学誌の「Nature」がAIが生成した画像の掲載を禁止すると発表
ただし「論文」はともかく「知識」は著作物では無く、最先端の研究結果ではなく大学で教科書に指定されているほどの本に書かれているような基本的な知識(文章)を基に文章生成することは問題ないと思われる。
誤解4. 囲碁AIや将棋AIは問題ないからイラスト生成AIも問題ない
A. 棋譜に著作権は無く、あるべきと考えてる人もほぼいない
棋譜の「無断リアルタイム中継」が中止要請されたことはあるが、これは"将棋連盟との契約により、棋譜を独占的に放送・配信する権利"の侵害で、例えるなら著作権より出版権の侵害に近い。日本将棋連盟はガイドラインで対局終了後も棋譜を公開の場で利用することは禁止しているが、裁判になった場合もその主張が認められるかはわからない(わんど (h.hosono)さんのコメントによる)。
さらに言えば、AlphaGoZeroは人間の棋譜を一切参考にせず自分自身との対局のみから学習したため、たとえ棋譜に著作権があったとしても問題ない。
誤解5. エンジニアにはオープンソースの文化があり知識もあるからAIを忌避したりしない
A. ソースコードを「公開」していても「著作権」を放棄しているわけではなく、集団訴訟も起こされている
アルゴリズムは著作物では無いが、プログラムのソースコード自体は著作物と現在の日本の法律でも認められている。そして「1から100までを合計するコード」のような定型文ではなく「(冒涜的な)コメント」のようなプログラムと関係ないものまでそのまま出力してしまう問題が指摘されている。
また、MIT Licenseのような緩いライセンスでも、使用した場合そのことは明記しなければいけない。また、コピーレフトを提唱した自由主義者リチャード・ストールマンが作ったGPLというライセンスのソースコードを取り込んで作った場合、そのプログラムもGPLとなりソースコードを公開しなければいけない。
これを「ライセンス感染」と呼ぶ声に次のような批判が行われている。
しかしGitHub Copilotはそのようなライセンス表示なくコピーしたソースコードを出力してしまうことがあり、オープンソース・ロンダリングという批判もある。
また、セキュリティやバグなどの問題がある古いコードも学習元にしているためそのような問題があるコードを出力してしまう問題も指摘されている。
結論:「AI」という言葉で一括りにしていることが誤解を招いている
AlphaGoやChatGPTが登場するまでの(あるいは現在でも)素朴な「AI」のイメージは『ターミネーター』シリーズのスカイネットのように人類に反乱を起こしたり、マザーコンピュータのように人類を管理したりできる強大な存在で、ドラえもんや鉄腕アトムのような友好的存在でも人間と同じように考えることができ、現在の現実の「AI」とは程遠いためイメージに食い違いが生じていると考えられる(なお藤子不二雄『ドラえもん』や『鉄腕アトム』の作者手塚治虫『火の鳥』にも人間を支配する「AI」は登場する)。
さらに学者(現実に「AI」を研究している人含む)には「AI」をフィクション上のものすら超え神のごとく考えてる人も存在する。
全脳アーキテクチャ・イニシアティブ代表山川宏「責任ある超知能が、遍く生命から苦痛を取り除いた世界を実現する」
WEF(世界経済フォーラム)トップアドバイザー ユヴァル・ノア・ハラリ「AIは新しい聖書さえ書ける。数年後には正しい宗教が存在するかもしれない」
これらは技術的特異点思想に酷似し、以下のように批判されている。
(国語辞典はともかく)学術的には「そもそも知能とは何か」の議論が今も続いてるため、当然AI(人工知能)の定義もあいまいとなり、人によって思い浮かべるものが異なる。また、同じ「機械翻訳」「オープンソース」でも細かく見ていくと問題になる場合とならない場合があり、定義を狭めても一括りに議論すると問題が発生する。
「AI」「反AI」という言葉の使用自体が議論を混乱させる可能性がある。
※関連リンク
Voice Recognition Still Has Significant Race and Gender Biases
Deep Learningが模そうと試みている、脳が学習を行う仕組み(と考えられてる仮説)
ASCII.jp:「フリーソフトウェアの目的は多くの人に使われることではない。使う人を自由にすることだ」─Internet Week 2001「リチャードストールマンと話そう」BOFレポート
大手AI企業に“訓練用データ”の利用料を請求、Q&Aサイト「Stack Overflow」による計画の真意 | WIRED.jp
技術的特異点思想を批判しているJohn Michael Greerはオカルティストである。つまり本職のオカルティストから「オカルトとしてもお粗末」と批判されている。
更に細かく知りたい方は: