
DeepSeekショックを機にAIモデルの蒸留と知的財産権(著作権、不正競争防止)との関係を検討する
「蒸留」ってどうなんですか?わからないのであくまで検討段階です。(弁理士がお墨付きを与えるような記事ではありません。ごめんなさい。本記事は知的財産権の侵害を助長するものではありません。)
「ホワイトハウスのAI・暗号資産(仮想通貨)責任者、デービッド・サックス氏は、知的財産の窃盗が関係している可能性があるとの見解を示した。」とのことです。「知的財産の窃盗」とは穏やかではないです。また、それが本当なら弁理士はこのことを詳しく理解し、顧客に説明する能力を持たねばならない。
第三者から見れば、米国の筆頭たるOpen AI GPT 4o1と同等のモデルが中国で安価に構築されてしまったので、ヒステリーを起こしている…そんな様子にも見えますが、それはさておき。
まず、Open AIの利用規約では、「アウトプットを使用して、OpenAIと競合するモデルを開発すること。」を禁止していることは明らかです。
https://openai.com/ja-JP/policies/terms-of-use/
今回仮に、GPT 4o1を用いた「蒸留」によって、DeepSeekシリーズが完成したとすれば、規約に違反しているということになります。その前に、
AIモデルの蒸留とは?
AIモデルの蒸留とは、複雑で規模の大きいモデル(教師モデル)の知識を、より小さくシンプルなモデル(生徒モデル)に転移させる技術です。教師モデルは、大量のデータで学習され、高い精度を達成していますが、その分計算コストも高くなります。一方、生徒モデルは、教師モデルから効率的に知識を継承することで、軽量かつ高速に動作し、限られたリソース環境でも利用可能になります。
蒸留の目的は、主に以下の点が挙げられます。
● モデルの軽量化・高速化: リソースの限られた環境でもAIモデルを動作させるため。
● 精度向上: 教師モデルの知識を活用することで、生徒モデルの精度を向上させるため。
● 汎化性能の向上: 過学習を防ぎ、未知のデータに対しても高い精度を維持するため。これは、教師モデルが学習データに過度に適合してしまうことを防ぎ、生徒モデルがより汎用的な知識を学習するのに役立ちます。
蒸留の主要な手法
蒸留には、様々な手法が提案されているようです。ここでは代表的な手法をいくつか紹介します。
● 知識蒸留: 教師モデルの出力層だけでなく、中間層の出力も生徒モデルに学習させる手法です。教師モデルの内部表現を生徒モデルに模倣させることで、より深い知識を転移可能。
● 教師あり蒸留: 教師モデルがラベル付きデータで学習されている場合に、そのラベルを生徒モデルの学習にも利用する手法。教師モデルの予測結果と正解ラベルの両方から学習することで、生徒モデルの精度を向上させることが可能。
● 自己蒸留: 同じモデルを教師モデルと生徒モデルの両方として使用し、自身の知識を蒸留する手法。モデルの学習過程で、より洗練された知識を自身にフィードバックすることで、精度向上や汎化性能の向上を図る。
蒸留の利点
● モデルの軽量化: 蒸留により、パラメータ数や計算量を削減した軽量なモデルを構築。これにより、モバイルデバイスや組み込みシステムなど、リソースの限られた環境でもAIモデルを動作させることが可能になる。
● 高速化: 軽量化により、推論速度が向上し、リアルタイム処理や低遅延が要求されるアプリケーションに適したものになる。例えば、自動運転車やドローンなど、即座に反応する必要があるシステムに利用することが考えられる。
● 精度向上: 教師モデルの知識を効果的に転移することで、生徒モデル単体で学習するよりも高い精度を達成できる場合がある。
● 堅牢性の向上: 蒸留により、ノイズや敵対的な攻撃に対するモデルの耐性を向上させる。これは、教師モデルがすでにノイズや攻撃に対して 堅牢性 を持っているため、その知識を生徒モデルに転移することで、生徒モデルも 堅牢性 を獲得できるらしい。
前提:AIモデルの「蒸留」と知的財産権
以上のように、AIモデルの蒸留(Distillation)は、大規模で高性能な教師モデル(Teacher Model)の出力を利用し、より小さい生徒モデル(Student Model)を効率的に学習させる技術です。教師モデルのパラメータ(重み)や中間層の表現を直接コピーするのではなく、主に「教師モデルの予測分布」などを生徒モデルが模倣する仕組みとなります。
これに対して、「著作権侵害」や「不正競争行為」に該当しうるかは、
・教師モデルの利用方法が著作権法上の問題を生じるか
・教師モデルや学習済みパラメータが不正取得された“営業秘密”にあたるか
・(データや成果物に関して)その他、不正競争防止法で保護される利益を侵害しうるか
といった観点から検討する必要があります。
日本の著作権法との関係
著作物該当性
日本の著作権法(著作権法第2条)では、「思想または感情を創作的に表現したもの」が著作物とされます。たとえば、小説や音楽、プログラムのソースコードなどは著作物に該当します。
一方、AIモデルの「学習済みパラメータ」や「中間表現」そのものが「著作物」であるかどうかは、現行の日本法の枠組みでは明確に規定されていません。一般的には、
・単なるデータや数値の集合に過ぎず、そこに「創作的な表現」が認められにくい
・アルゴリズムの過程で得られたパラメータや確率分布が、著作物としての「表現」に該当するのかは疑義がある
と解釈されることが考えられます。
著作権侵害(複製権・翻案権など)
仮にAIモデル(のパラメータなど)が著作物またはプログラム著作物として保護されるとしても、蒸留の工程で何が行われるかを精査する必要があります。蒸留では、教師モデルのパラメータを丸ごとコピーするのではなく、その出力(予測確率など)を用いて生徒モデルを学習するもののようです。
すなわち、
・教師モデルの「内部構造や重み」の直接複製ではなく、「出力された結果」を新たな入力として生徒モデルを訓練する
・いわば“ブラックボックス”として教師モデルを使用し、そこから得られる“数値”を学習の指標として用いる
複製権侵害の可能性
教師モデルをそのままコピーしたり、モデルのコードを違法に複製・配布した場合は別ですが、出力のみを利用し、生徒モデルとして別のパラメータを形成するならば、教師モデルそのものの複製とはみなされにくいと考えられます。著作権法上の「複製」に該当するためには、著作物として保護される部分が実質的に同一と評価される必要があります。
・生徒モデルのパラメータが教師モデルと同一または極めて類似している
・教師モデルの具体的なプログラム表現を複製している
といった事情がない限り、出力をもとに学習した生徒モデルのパラメータを著作物の「複製物」とみなすことは難しいのではないでしょうか。
翻案権侵害の可能性
著作権法上の翻案(改変)にあたるかも検討が必要ですが、AIモデルの場合にどう考えるかはとても難しいです。翻案は著作物の「表現上の本質的特徴」を直接利用・改変することを指すため、単なるアイデアや機能(著作権で保護されない)に基づく新たな成果物は翻案とはみなされないと考えられます。
著作権法上の「情報解析」や「機械学習」に関する例外
日本の著作権法では、「データの解析」や「機械学習」等に関する一定の利用行為は著作権法の目的外利用(著作権法第47条の7 など)として認められる場合があります。ただし、これらは主に学術研究目的や技術開発目的でのテキスト・データマイニング等を想定した規定であり、商用利用の場合は制限がつく場合もあるため、細心の注意が必要です。
日本の不正競争防止法との関係
営業秘密の不正取得・利用
不正競争防止法では、営業秘密(不正競争防止法第2条第6項)の不正取得・使用・開示が禁じられています。営業秘密として保護されるためには、
・秘密として管理されていること(秘密管理性)
・有用な技術上または営業上の情報であること(有用性)
・公然と知られていないこと(非公知性)
という3要件を満たす必要があります。
もし「教師モデルのパラメータ」や「学習アルゴリズム・内部構造」が企業のコア技術として営業秘密に該当しており、何らかの手段で不正に取得されたうえで蒸留が行われた場合には、「営業秘密の侵害」として不正競争行為に当たる可能性があります。
ブラックボックス(出力のみ)からの蒸留と不正取得との関係
教師モデルの内部パラメータが開示されていなくても、API等で大量の問い合わせを行い、その出力を収集する手法(いわゆる「モデルスクレイピング」)があります。
企業の利用規約で「過度な問い合わせによるモデルの模倣行為を禁止」している場合に、それを無視してスクレイピングを行ったならば、不正競争行為というより、契約違反とされるリスクも考えられます。
不正競争防止法上で守られるのは「秘密として管理される情報」であり、公開APIを通じた通常利用が「不正取得」となるかは微妙です。
まとめ
著作権侵害の可能性
・通常の知識蒸留であれば、教師モデルを「ブラックボックス」として扱い、その出力をもとに別モデルを学習させる手法が多いため、著作権法上の複製権等々について追及することは困難ではないでしょうか。
・ただし、教師モデルのソースコードや学習済みパラメータ自体を無断複製して生徒モデルに組み込むような行為(例えば本当に不正アクセスしてモデルごと盗むような行為)があれば、プログラム著作物の複製権侵害等を問われるリスクも考えられます。
不正競争防止法上のリスク
教科書的には、教師モデルのパラメータや設計情報が営業秘密に該当する場合には、不正に取得して蒸留に用いたと認定されると、不正競争行為と判断される可能性があるかもしれません。しかし、通常利用は不正取得には該当しにくいと考えられます。
APIの利用規約で明示的に「モデル出力の大規模取得や蒸留的な行為」を制限しているのに違反して、利用規約を無視してスクレイピングを行った場合には、普通に契約違反やを問われるリスクはあります。
以上のように、蒸留という技術それ自体は、出力(確率分布など)から学習を行うため、知的財産権の侵害にはに当たりにくい行為と考えられます。
他にも見落としている点があるかもしれませんが、ご勘弁・ご指摘ください。
今回の事例は、米国-中国間での騒動?ですが、仮に日本国内のみで同じような騒動が起きた時には、知的財産権の問題より、当事者間の契約の問題であることでしょう。
じゃあその場合はどうなるのか?
規約違反の基本的な考え方
AIサービス提供者が「当サービスの出力を大量に取得して蒸留行為に利用することを禁止する」という規約を設け、利用者がこれに同意したうえでサービスを利用している場合には、利用者と提供者との間に当該規約が契約内容として成立します。
・規約(利用規約)=契約条項
・利用者は、サービス利用開始時に「利用規約に同意」している以上、これらの条項を遵守する義務を負います。
したがって、利用規約で明確に「蒸留行為」を禁止しているにもかかわらず、利用者がこれを行った場合、契約違反(債務不履行)が成立する可能性があります。
契約違反に対する救済手段
債務不履行責任(民法上の損害賠償)
日本の民法では、契約に違反した場合、以下のような救済手段が認められます。
債務不履行に基づく損害賠償請求(民法415条)
利用者が規約に違反して蒸留行為を行った結果、サービス提供者に損害が生じた場合、その損害について賠償請求を行うことができます。
ただし、損害額の立証が必要になります(実際にどの程度の被害が発生したかを証明する必要がある)。
差止請求
契約違反による被害が拡大しつつある場合、実務上は仮処分などの手続きを通じて、一定の差止的効果を狙うことが考えられます。
不法行為責任(民法709条)との関係
不法行為(民法709条)に基づく損害賠償請求は、
・故意または過失
・違法行為(他人の権利または法律上保護される利益の侵害)
・因果関係
・損害
という要件を満たす場合に成立します。しかし、
「どの程度の損害が発生したか」と「その行為が直接の原因となって損害が生じたのか」を立証するのは容易ではありません。特にAIモデルやデジタルサービスの分野では、損害が数値化しにくいケースが多く、そこが一つの大きなハードルになります。
以上のとおりです。
ご参考までに、慶應義塾大学の奥邨先生のXのポストも紹介しておきます。
DeepSeekの関連で、一部蒸留が話題になっているけど、教師モデルそのものをコピーするわけではない場合、教師モデルに関する知的財産権で、蒸留を規制するのは、難しいのではないかと、以前から個人的には考えている
— KJ_OKMR (@OKMRKJ) January 29, 2025
教師モデルの利用契約で、蒸留を禁止するのは別問題で、通常は意味があると思う
蒸留について知的財産権を侵害してるというのは、日米共に現時点では色々ハードルが高い(否定しきらないのは、いくつかの不確定要素があるから。この辺はおいおい、どこかで書きます)
— KJ_OKMR (@OKMRKJ) January 30, 2025
一方、規約で蒸溜を禁止してたら、それの違反はありえる。ただし、当事者間の問題。
先行大規模モデル(教師モデル)の開発者は不利か?
多額の資金を投入して大規模モデルを開発しても、その後蒸留されて開発の成果を奪われてしまうのでは、先行大規模モデルの開発者は不利です。
しかも、現在の知的財産制度では解消できないとなると、新たな規制手段などが求められるかもしれません。
いま蒸留が話題になっていますが、既に第三次安倍内閣の時点から、有識者の間では「AIは蒸留されうる」ことは懸念されていたようです。
考え方を整理したり検討したまでですが、何かのご参考になれば。
前川知的財産事務所
弁理士 砥綿洋佑