佐々木氏は、AIにおける品質保証の考え方は、通常のプロダクト開発とは異なるものが求められていると指摘した。「仮にAIが社会を落胆させる事件や事故が起こってしまったら、第3次ブームが終わる要因となりかねない。AIを単なるプロダクトとしてではなく、『社会インフラ』の1つとして捉える必要がある。AIのシステム検証を行うことは、すなわち、社会的な責務である」(佐々木氏)。
通常の「品質保証」は、プロダクトの使用結果について製造者が消費者に対して責任を持つ、ということを主に意味する。しかしAIの場合には、使用した結果が及ぼす社会的な影響までを視野に入れた品質保証の在り方が求められる。
とはいえ、AIのアウトプットを確認し、問題を確認してから開発をやり直すのではロスタイムが大きくなる。そこで佐々木氏が提案するのが、一般的なシステム開発で参照されるV字モデルの開発プロセスの中で、AIの責務定義と学習/推論プロセスのサイクルを素早く回す「繰り返し成長モデル」を統合したAI開発アプローチである。
アプローチ自体はまだ構想段階にとどまると前置きした上で、佐々木氏は「システム検証時点でAIの責務開発を繰り返し行い、運用・評価時点ではベースとなる責務データ、学習モデルが完結していることが望ましい。それを実現し得るのが、この統合型アプローチだ」と語る。
しかし、この開発プロセスを実際の現場に適用すると、何度も繰り返しシステムの検証を行うため、そのプロセスに膨大な時間を費やさなければならなくなる。そこで効率化、精度向上のために期待されるのがAIの力である。つまり、AI4QAの取り組みが役立つ。
ベリサーブ 研究企画開発部 部長の松木晋祐氏は品質保証を支援する自動化ツールについても紹介した。
2000年代後半からいくつかの自動化ツールが登場し、少しずつ技術革新が起きている。AI技術の進展によって、単純な作業自動化だけでなく、「失敗したテスト結果」を自動的に予測、作成してくれるツールも登場した。テスト時間を短縮して効率化が図れるので、開発者としてはプロダクトの価値検討や、品質の向上に向き合う時間を確保できるようになる。これらのツールはコードのオープンソース化の動きも相まって、日々刻々と進歩を続けている。
松木氏は、AIの重要性が高まる現在の“ウィズAI時代”においては、QA4AI、そしてAI4QAという品質保証の考え方を適用していくべきだと指摘する。
「こうした技術を使える組織と使えない組織においては、新しいバージョンのAIプロダクトを世に出すリードタイムに100倍の開きが出るともいわれている。品質保証は単に個人の努力や資質によるものではなく、組織的な投資でカバーできる部分がかなりある点に気付かれたい」(松木氏)
加熱しすぎた一時のブームは去ったように思えるが、コロナ禍の最中、AIに対する社会的な期待は着実に大きくなっていることは間違いない。今後、社会インフラに関わる分野での導入が進めば、AIに対する社会的な責任は一層重くなる。
AIの社会的な価値や責務から逆算して品質保証を実現する視点も、今後のモノづくり開発では必要になる。
Copyright © ITmedia, Inc. All Rights Reserved.