医療機器への「ChatGPT」応用は? カナダに見るAIリスク管理の先行事例:海外医療技術トレンド(94)(1/3 ページ)
本連載第46回で、カナダ・ケベック州モントリオールの医療AIについて触れたが、今回は、カナダ全体レベルのAIおよび医療の規制動向を取り上げる。
本連載第46回で、カナダ・ケベック州モントリオールの医療AI(人工知能)について触れたが、今回は、カナダ全体レベルのAIおよび医療の規制動向を取り上げる。
カナダ個人情報保護当局が「ChatGPT」に関する調査を開始
2023年4月4日、カナダ・プライバシー・コミッショナー事務所(OPC)は、人工知能強化型チャットbotである「ChatGPT」およびその運営に関わる企業に対する調査を開始したことを公表した(関連情報)。OPCは、同意取得なしに個人情報の収集、利用、開示があった旨の苦情が寄せられたことが発端としているが、現時点で調査の詳細について公表していない。
過去にカナダでは、OPCが2021年12月14日、米国の顔認識技術企業Clearview AI に対して、個人からの同意取得なしにインターネット上の画像を収集/共有し、データベース化したとして、改善命令を出したケースがある(関連情報)。
ChatGPTに限らず個人データ利用に関わるコンセント管理は、医療AI企業にとっても大きな課題となっている。例えば、英国のロイヤル・フリー・ロンドンNHS財団トラストが、傘下の医療機関の患者データ約160万件をAI開発企業Google DeepMindに提供し、急性腎障害(AKI)向け警告/診断/検知システム(医療機器に該当)の臨床試験を実施した際に、患者データの利用に関するインフォームドコンセントのプロセスが不十分で、英国1998年データ保護法違反があったと英国情報コミッショナーオフィス(ICO)により判断されたケースがある(関連情報)。
なお、OPCは、AIプライバシー保護政策に関連して2020年11月12日、「AI向け規制フレームワーク:個人情報保護・電子文書法(PIPEDA)改革のための提言」(関連情報)を公表している。OPCは、適正なAIに関する法律は以下のようにあるべきだとしている。
- 個人情報が、責任のあるAIイノベーションに向けた、社会的便益に関する新たな目的のために、利用されることを可能にする
- 人権および他の基本的権利の行使のために必要な要素として、プライバシーを守るような、権利に基づくフレームワークの範囲内での利用を認可する
- 自動意思決定についての意味ある説明に対する権利や、意思決定が公正で正確に行われたことを保証するために争う権利を構築する
- 規制当局の要求に応じて、プライバシー順守の証明を要求することによって、説明責任を強化する
- OPCの権限を強化して、法律の順守を動機付けるために拘束命令や比例的な制裁金を発するようにする
その上で、以下のようなAI向け規制フレームワークを提示している。
- 社会的便益と正当な商業目的のためにデータを利用する
- I.研究および統計目的
- II.正当な商業利益
- 保護対策:
- プライバシー影響度評価
- 比較衡量
- 非識別化
- 人権としてのプライバシーの認識
- 自動意思決定向けの特別規定
- I.意味のある説明に対する権利
- II.コンセントに対する権利
- 実証可能な説明責任
- I.プライバシーと人権のための設計
- II.トレーサビリティー
- III.プロアクティブな調査
- IV.命令と罰則
- 結論
「コンセントに対する権利」の中で、OPCは、欧州連合(EU)の一般データ保護規則(GDPR)第22条3項のアプローチを参照しながら、個人に自動意思決定について争う権利を付与すべきであるとしている。
さらに、カナダ連邦政府は2022年6月16日、個人情報保護・電子文書法(PIPEDA)の一部を改正し、消費者プライバシー保護法(CPPA)、個人情報・データ保護審判法(PIDPTA)、人工知能・データ法(AIDA)を新設する「デジタル憲章実施法案(Bill C-27)」(関連情報)をカナダ連邦議会下院に提出している。今後、ChatGPTのような新技術の出現に対して、OPCがどのように対応していくのか注目される。
Copyright © ITmedia, Inc. All Rights Reserved.