生成系AI利用における著作権法の解釈について

はじめに

この記事をご覧の皆様は、ビジネスにおいてもChatGPTをどんどん使われていることでしょう。 最新で高性能なLLMベースのこのAIシステムを使わない手はないですよね。

一方で、このプロンプト(ChatGPTに入力する文章)を入れても大丈夫かな?とか、生成したコンテンツをどこまで使っていいの?という疑問が出てくるのかなと思います。

そこで、生成AI系コンテンツの利用に関する法的留意点などを踏まえて、安全に業務に活用するポイントを説明していきたいと思います。これからの生成AIの利用の際にお役立ていただければ幸いです。

ポイント:

✅生成系AIに入力した著作物は、AIモデルの学習データとして利用される可能性があり、過度の学習への使用は違法になる
✅生成系AIを利用する際は、入力データが学習データに使われないように配慮する
✅生成系AIの生成物の公開・公表により、著作権法に抵触する恐れがある
✅生成系AIの出力を公開する場合はクロスチェック(監査)を活用して安全性を担保する

現状

ご存じの方も多いと思いますが、ChatGPTを始めとする生成系AIの利用には法律の観点から2つのリスクが存在します。

  1. 生成系AIの出力を公開することにより、著作権法に抵触する
  2. 生成系AIに著作物を入力することにより、著作物が学習に利用され著作権法に抵触する

1つ目の「生成系AIの出力した生成物を公開することにより、著作権法に抵触する」リスクは、生成系AIの出力が既存の著作物に対して類似性や依拠性がある場合、それを公開することで著作権侵害となるリスクになります。

2つ目の「生成系AIに著作物を入力することにより、著作物が学習に利用され著作権法に抵触する」リスクは、意図せず入力データが生成系AIの学習に利用されてしまうことによって、著作権侵害となるリスクです。

ChatGPTを開発したOpenAI社の使用ポリシーにも掲載されていますが、生成系AIモデルではユーザーが入力した情報がAIモデル改善のための再学習に学習データとして利用される可能性があります。

学習データとして著作物が利用されることに対して、平成30年に改正された著作権法第30条の4項「電計算機における著作物の利用に付随する利用等」では、著作物の個別利用に関しては比較的緩やかな措置がとられています。

著作物は、次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。

しかし、利用用途の補足として、

情報解析(多数の著作物その他の大量の情報から、当該情報を構成する言語、音、影像その他の要素に係る情報を抽出し、比較、分類その他の解析を行うことをいう。第四十七条の五第一項第二号において同じ。)の用に供する場合

と記述されており、そして同4項のつづきには、

ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は、この限りでない。

とされています。

他人の著作物をAIモデルの学習データとして利用することは、程度によっては情報解析の範疇を超え、著作権法における複製行為とみなされる場合があります。つまり、生成系AIに入力した著作物が知らない間に学習データとして利用され著作権法違反になる可能性があるのです。

したがって、著作物を生成系AIに入力する場合は学習データに含まれないように対策を講じる必要があります。

対策

1 . 生成系AIの出力を公開することにより、著作権法に抵触するリスクに対する対策

生成AIが出力した結果を使用するにあたり、社外への公表・公開に際して、同僚や上司、第三者によるクロスチェック(監査)をお勧めします。生成系AIを利用した当人が気づけなかった場合でも複数の人によるチェックで著作権を侵害していることを把握できる場合もあります。

社内に法務部門がありましたら、そちらにご相談いただくことも有効です。既に使用ガイドラインが告知されている場合もありますので、その場合はガイドラインに沿って運用しましょう。

なお、生成したコンテンツをAIで自動的に監査するという研究も進んできております。必要は発明の母と良く言われてきたものですね。

2. 生成系AIに著作物を入力することにより、著作物が学習に利用され著作権法に抵触するリスクに対する対策

入力情報といえども、他人の著作物を大量に入力することは避け、必要最小限にとどめることが必要です。

著作物を入力しないという方法の他に、オプトアウト(Opt Out)と呼ばれる、システムに入力した情報がサーバーへ保存されることを拒否する機能を使用して、入力データが学習データとして利用されることを事前に防ぐという方法も存在します。

また、著作権法の観点以外にも、生成系AIのビジネス利用ではオプトアウト(Opt Out)が重要となるケースがあります。

それは、機密情報を生成系AIに入力する場合です。機密情報が生成系AIの学習データとして利用されてしまうと、生成系AIは機密情報を記憶してしまい、第三者が生成系AIを利用した際に機密情報そのもの、もしくは機密情報をもとにした生成物を出力してしまう可能性があります。

これは、ビジネスにおける重大なコンプライアンス違反になりますので、当然オプトアウト(Opt Out)を適応して対策を講じる必要があります。

まとめ

今後もさまざまな生成AIが公開されていくことが予測されます。ChatGPTも昨年11月のGPT3.5公開以降、米司法試験で上位10%の賢さをもつGPT4が公開されたり、6月には費用を抑えつつInputのToken数が増加したgpt-3.5-turbo-16kがリリースされたり、ますますビジネスに利用しやすくなってきています。

生成系AIの利用促進には、リスクの考慮が重要です。活用に関するリスクに対処するには、法律と技術に関する生成系AIの専門的な知識により、社内で生成系AIを活用していくための仕組みづくりを行うことが重要です。

AITCでは、Azure OpenAI Serviceを活用したセキュアな環境でのChatGPTのビジネス適用を推進しており、AIコンサルタントがお客様の生成系AIのビジネス活用を支援させていただきます。生成系AIの活用を検討する際はぜひお問い合わせください。

isid-ai.jp

参照リンク:

OpenAI社の利用ポリシー

openai.com

OpenAI社ChatGPTのFAQ https://help.openai.com/en/articles/7730893-data-controls-faq

文化庁による、著作権法の一部を改正する法律(平成30年法律第30号)について 著作権法の一部を改正する法律(平成30年法律第30号)について | 文化庁

法律事務所ZeLoの発信 法律事務所ZeLo、「AI分野」を専門的に取り扱うチームを発足|法律事務所ZeLo・外国法共同事業のプレスリリース

STORIA法律事務所からの発信 storialaw.jp

一般社団法人 日本ディープラーニング協会(JDLA)のガイドライン 資料室 - 一般社団法人日本ディープラーニング協会【公式】

こちらの過去記事もご参照ください。

isid-ai.jp

執筆
AIトランスフォーメーションセンター
シニアコンサルタント、知的財産管理技能士
飯干茂義