適切な規制でデジタル化推進を、ChatGPTなど生成AIの企業向けガイドライン公開人工知能ニュース

日本ディープラーニング協会は「生成AIの利用ガイドライン」の第1版を公開した。OpenAIが公開した「ChatGPT」などの企業利用を念頭に置いた、ガイドラインのひな型である。

» 2023年05月10日 10時00分 公開
[池谷翼MONOist]

 日本ディープラーニング協会(JDLA)は2023年5月1日、「生成AIの利用ガイドライン」の第1版を公開した。OpenAIの「ChatGPT」などの企業利用を念頭に置いた、ガイドラインのひな型である。

「生成AIの利用ガイドライン【簡易解説付】」の冒頭 出所:日本ディープラーニング協会

著作権侵害のリスクなどを防止するために

 JDLAは深層学習(ディープラーニング)技術の産業普及を目指す団体で、2017年に設立された。理事長は現在、東京大学 大学院工学系研究科 教授の松尾豊氏が務める。

東京大学の松尾豊氏

 今回のガイドラインは、民間企業などの組織が生成AI(人工知能)を活用する場面を想定し、最低限定めるべき規約や注意事項を示すものだ。LLM(大規模言語モデル)を活用したAIサービスを利用する組織が増えているが、使用時に一定のルールを課す事例も国内外で見受けられる。業務における適切な使用シーンを定めることで、機密情報の漏えいや、著作権や知的財産権の侵害といったリスクを回避するためだ。

 こうした状況を背景に、現段階で組織がルール作りを進める際に参照できる資料としてJDLAはガイドラインを作成した。

 組織による生成AI活用時の主要なリスクは、データ入力時と生成物の利用時などで顕在化し得る。前者では、画像や文書データ、プログラムのコードといった著作物や個人情報の取り扱いに加えて、機密情報入力による情報漏えいリスクを考慮する必要がある。後者では、生成物の著作権発生や、内容の真実性、商用利用可否に関する判断が問題となる。

 生成AIの利用ガイドラインでは、こうした事態における企業対応に一定の指針を与えるとともに、法的解釈を含む簡単な解説文も提示する。例えば「第三者が著作権を有しているデータ」の入力に関する解説では、「単に生成AIに他人の著作物を入力するだけの行為」(生成AIの利用ガイドラインより)は著作権侵害のリスクは低いが、「プロンプトエンジニアリングのためにサーバ内に他人の著作物を蓄積」(同)し、「当該著作物をデータベース化して人間が参照したり読んだりすることができる」(同)場合などは著作権侵害に該当し得ると指摘している。

STORIA法律事務所の柿沼太一氏

 JDLA 有識者会員でSTORIA法律事務所 代表パートナー弁護士の柿沼太一氏は、「今回発表したガイドラインは、あくまで現段階での生成AIを巡る状況を鑑みて制作したもので、最低限の内容にまとめている」と語った。制作時には、組織の構成員が予期せぬ法令違反を犯さないための指針を提示するとともに、組織のデータポリシーやAI活用戦略などと齟齬なく利用できるように意識したとする。また今回の版はChatGPTの利用を念頭に置いているが、今後のツールの発展に応じてアップデートする予定だ。

 昨今、生成AI活用の規制が国際的な議論のテーマとなっている。適切な形での規制は生成AIの研究開発のさらなる発展に貢献する可能性もある。松尾氏は「日本全体でDX(デジタルトランスフォーメーション)が遅れる中で、ChatGPTによる業務のデジタル化は切り札になり得る。ただし、既存の生成AIのプラットフォームに乗るだけでは未来を捨てることになる。自ら(生成AIを)開発していく姿勢が大事だ」と指摘した。

 生成AIの利用ガイドラインはJDLAの公式サイトから確認できる。

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.