それ法律違反じゃないですか?AI時代のコンプライアンスチェック
目次[非表示]
- 1.はじめに
- 1.1.なぜ今、コンプライアンスチェックなのか
- 1.2.免責事項
- 2.早速チャレンジ!コンプライアンスチェック
- 3.おわりに
こちらの記事はDIVXアドベントカレンダー2023の13日目の記事です。
はじめに
なぜ今、コンプライアンスチェックなのか
こんにちは、株式会社divxエンジニアの橋本です。
chatGPTが一世を風靡して以来、chatGPTのみにとどまらず様々な生成AIツールが目につくようになったと思いませんか?文章はもちろん、画像、音声、ソースコードなど、さまざまなものをAIで生成できます。その精度の高さと手軽さから、AIは一部の専門家だけが扱うものではなく、多くの人が日常的に扱いやすいものになってきました。
【今、コンプライアンスチェックしたい理由】
・生成AI使用のハードルが下がり、生成AIを使用する人が爆増中
・個人的な利用にとどまらず、仕事や学業に活用する人も増えている
こんなタイミングだからこそ、AIの使用に含まれるリスクを誰もが理解している必要があると感じ、この記事を作成しました。
免責事項
本記事を共有するにあたり、いくつか前提としてご理解いただきたい点があります。
まず、私は法律の専門家ではありません。したがって、本記事で述べる意見や情報は、法律的な助言や指導を意図したものではないことをご理解いただけますと幸いです。法律に関する具体的な助言や案件については、必ず専門家に相談することを推奨します。
またAIに関する法律と規制はまだ発展途上で、提出されている規則や法案の多くは、評価や改正が進行中であると考えられます。本記事で言及する法律は現時点のものにすぎず、今後変更される場合もあり得る点をご了承ください。
まだ結論が出ない問題も多く含むAIですが、AIのコンプライアンスについて一緒に考察する機会となれば嬉しいです。クイズを楽しむ感覚でどうぞお付き合いください!
早速チャレンジ!コンプライアンスチェック
(1)生成AI入力編 それ使って大丈夫?
それでは早速いってみましょう。
第1問
ここで考えたいポイントは、①入力した情報は個人情報にあたるかどうか、②chatGPTに入力したデータはどのように使われるかの2点です。
まず①について、他のデータと照合しない限りは個人が特定できないよう加工済みとありますが、裏を返すと、それは他のデータと照合すれば個人が特定できるデータ、個人情報の仲間のようなものと言えます。仮名加工情報と呼ばれるこの情報は、一般的に事業者内での活用のみを目的とされており第三者に提供してはいけないものとされています。
また、②chatGPTに入力したものはchatGPTの学習に使用される可能性があります。それができないよう、ご自身でオプトアウトの設定をしない限りは、OpenAIに情報を提供しているのと同じであることを改めて確認したいところです。
補足として、個人が特定出来ないように加工したデータには、一定の条件を満たせば第三者へ提供も可能な匿名加工情報も存在します。仮名加工情報と混同することのないよう、詳しく知りたい方は以下のリンクを参照してみてください。
個人情報保護委員会
◦ 匿名加工情報と仮名加工情報の違いは何ですか
◦ https://www.ppc.go.jp/all_faq_index/faq1-q14-1/
同様に、chatGPTのオプトアウトの設定方法も公式サイトにて紹介されています。
OpenAI
◦ Data Controls FAQ
◦ https://help.openai.com/en/articles/7730893-data-controls-faq
第2問
業務でコーディングをされる方なら一度は考えたことがあるという人も多いでしょう。
ソフトウェアのソースコードは組織の知的財産のひとつと言えます。自社開発はもちろん、秘密保持契約を結んだうえで受託開発にあたっているソースコードも、秘密情報が含まれる可能性があることを肝に銘じて扱うべきでしょう。
また、使用しているツールによって、入力した情報がどのように扱われるか異なります。各々が使用しているツールのプライバシーポリシーを確認し、適切なツールを選ぶことが、ソースコードを守りながら開発を進める第一歩と考えられます。
コード補完ツールといえば、弊社はGitHub copilotを全社導入しています。Copilot for Businessのプライバシーポリシーを確認すると、下記の内容が明記されています。
Copilot for Business は、モデルのトレーニングや Microsoft または GitHub 製品のその他の開発のために、提案を提供する目的で使用されるコードやその他のコンテキストを含むプロンプトを一切保持しません。提案が返されると、プロンプトは破棄されます。
これなら有り難くAIの恩恵にあずかって開発を進めることができますね。私も日々活用しています。最近登場したAIエディターCursorも、入力内容がモデルの学習に使用されないようプライバシーモードの設定が可能なようです。興味のある方はぜひお試しください。
GitHub copilot
◦ Trust Center
◦ https://resources.github.com/copilot-trust-center/
Cursor
◦プライバシーポリシー
◦https://cursor.sh/privacy
第3問
インターネットで公開されているとはいえ、他人の著作物が含まれればそこには著作権が発生している可能性があります。基本的に他人の著作物を許可なく複製・翻案(内容の修正など手を加えること)はできません。
ただし、ここでポイントになるのが著作権の例外規定です。著作権法は著作物が自由に使える場合についても定めています。
日本の著作権法では、特定の条件を満たした場合、情報解析の目的で著作物を利用することが許可されています。ここでいうところの情報解析がAI開発におけるモデルの学習にあたると考えられています。
以下、著作権法30条の4の規定を引用しますので参照ください。
著作物は、次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は、この限りではない。(中略) 二 情報解析(多数の著作物その他の大量の情報から、当該情報を構成する言語、音、映像その他の要素に係る情報を抽出し、比較、分類その他の解析を行うことをいう。(中略))の用に供する場合(以下略)
AI開発に著作物用いることは一定認められているとはいえ、著作権者の利益を不当に害する場合はやはり認められない但し書きがある点に注意が必要です。また、この規定は日本国内での利用に限ります。そのため、実際の利用時は上記の条件に加え、利用の範囲や発生し得る利害などについて十分検討する必要があります。具体的なケースについては専門家の意見を仰ぐとよいでしょう。
(2)生成AI出力編 その権利はどこに・・・?
ここまで生成AIへのインプットについて考えてきました。ここからは生成AIで作られるアウトプットについて考えてみます。
第4問
一般的に、著作権侵害の判断では ①その作品が著作物に依拠していること(依拠:特定の物事に基づいている、依存していること)、②著作物に類似していることが論点になります。
しかしながら、これについて明確な線引きができるかというと、現状では非常に難しいと言えます。
例えば「自分の好きな漫画に似せた画像を作りたい!」と思って特定の著作物を大量にプロンプトに使用した画像であれば、「依拠性がある」と言える可能性が高いです。個人で楽しむ範囲内で出力しただけであれば、権利侵害にはならないかもしれません。(私的複製(著作権法第30条第1項)に該当可能性の見方が強そうです。)ただし、画像をSNSで公開するとなると、これは公衆送信権侵害(著作権法第23条第1項)となる可能性があります。
上記の例は明確に似せようとする意思があるケースですが、そうではないケースもあるでしょう。
例えば、学習データセットに他人の著作物が含まれていても、これは一定の条件下で認められています(第3問の回答を参照)。自分では故意に似せる意図がなくとも、既存の著作物に似た出力結果となってしまうという可能性はありそうです。指摘されて初めて気づく、なんてこともありそうですよね。
上記の例は明確に似せようとする意思があるケースですが、そうではないケースもあるでしょう。
例えば、学習データセットに他人の著作物が含まれていても、これは一定の条件下で認められています(第3問の回答を参照)。自分では故意に似せる意図がなくとも、既存の著作物に似た出力結果となってしまうという可能性はありそうです。指摘されて初めて気づく、なんてこともありそうですよね。
これらの問題については、新たな情報財産検討委員会の報告書でも触れられています。報告書によれば、データセットに著作物が含まれることで一律に著作権侵害とすると、「表現の自由空間が狭まるおそれ」があり、「AIの利活用を萎縮させるおそれもあるため、慎重な検討が必要である」との指摘があります。
新たな情報財検討委員会報告書
-データ・人工知能(AI)の利活用促進による産業競争力強化の基盤となる知財システムの構築に向けて-(平成29年3月)
◦https://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2017/johozai/houkokusho.pdf(36~38頁参照)
そして、「そもそもAIが作ったものに権利の主張なんてできるのか?」という素朴な疑問が湧きます。それについては次の問題で考えてみましょう。
第5問
ここで重要なポイントとなるのは、生成AI利用者の創作意図とされています。
あくまで生成AIは創作のための「道具」にとどまると認められるだけの創作意図と創作的寄与があれば、当該AI生成物には著作物性が認められる、つまりAIで作成したものであろうと著作権のある作品として認められ、その著作者は生成AI利用者となる 、と考えられています。
一方、利用者の指示がごく簡単なものに留まっている場合、AIが自律的に生成した「AI創作物」と整理され、現行の著作権法上の著作物とは認められない、との見解も示されています。Stable DiffusionやMidjourneyなど、利用されたことのある方は実感があると思いますが、確かに数少ない指示でも充分クオリティの高い画像を出力してくれますよね。
では、具体的に何をどこまでやれば創作的寄与があると言えるのでしょう?
第4問の回答でも引用させていただいた新たな情報財産検討委員会の報告書の文言をかりると「どこまでの関与が創的寄与として認められるかという点について、現時点で、具体的な方向性を決めることは難しい」というのが現時点の見解になります。
新たな情報財検討委員会報告書
-データ・人工知能(AI)の利活用促進による産業競争力強化の基盤となる知財システムの構築に向けて-(平成29年3月)
◦https://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2017/johozai/houkokusho.pdf
(3)AI暴走!?誰が責任をとりますか?
最後はAI開発者の視点にたった問題です。
第6問
「AIが勝手にやったことは知らない!」と言いたくなるかもしれませんが、実は既に過去似たような事例が起きています。
マイクロソフトが2016年にサービスを開始したAIチャットボット「Tay」で発生した事例です。Tayは、ユーザーからTwitter(現:X)でツイートを受け取ると、ミレニアル世代の「かっこいい」アメリカ人女性という設定で応答していました。ところが、一部のユーザが差別的なツイートを集中的に行ったことにより、Tayがそれを学習し差別的な発言をするようになってしまいました。これを受けて、マイクロソフトはTayのサービスを停止しています。
生成AIに限らず、自動運転車などにAIが搭載されているケースも想像してみてください。何らかの事故が起きた際は、AIの機能が不十分だった場合や、ドライバーの運転ミスが原因だった場合など、様々な要素の考慮が必要です。AIを開発し提供する側・AIを利用する側、どちらも適切な責任範囲を理解し、その上での操作・利用が求められると思います。これはchatGPTなど生成AIの利用にも通じる部分のように感じました。
AIの運用責任についての法的な枠組みもこれからさらに整備されていくことが予想されます。AIの利便性を享受する一方で、それに伴う責任やリスクについても意識しておかなくてはと思わされる事例でした。
便利なAIをつい過信してしまいそうになりますが、AIに責任を求めることはできません。AIの力を借りつつも、成果物に対する責任をもてるのは人間(自分)であることを忘れないようにしたいです。
おわりに
AIはまだ進化の途中!変化を常に追いかけよう
歯切れのわるい回答しか用意できない部分が多々あり大変恐縮でした。現時点で示されている見解をもとに、AIを巡るコンプライアンスについて考えてきました。
国の法律はもちろん、今あなたが愛用している生成AIツールも、なにか変更があれば今までは問題なく使えていたものが仕事では使えなくなる・・・なんてこともあるかもしれません。変化に常にアンテナを張って、良い形でAIを活用していきたいと思います。
ここまでお読みくださり、ありがとうございました!
divxでは一緒に働ける仲間を募集しています。
興味があるかたはぜひ採用ページを御覧ください。