「非常に難しいチャレンジ」(佐藤氏)の1つとして、@Remoteで収集したビッグデータを活用した機器の故障予測やその未然防止の仕組みも備える(遠隔診断保守サービス)。故障の予兆を未然に察知してサポートエンジニアが対処する、故障の原因を予測してサポートエンジニアが現地に到着した瞬間に修理が始められるようにするといったことに取り組んでいる。
「故障予測モデルは、故障が発生しそうな機器を発見して(データ分析)、それに応じた措置を提示すること(予兆検出時のアクション)が対となる」(佐藤氏)。過去のデータ履歴から故障発生時の固有のデータパターンを探し、そこから故障の発生を予測していく。
ただ、データパターンは発見できても、必ず故障が発生するとは限らない。そこで、予想精度に応じて、オペレーションを変えていく。予想精度の高ければ即、部品交換や訪問修理するなどコストの高いオペレーションをする、逆に低ければ電話や別件での訪問のついでに点検するといった安価なオペレーションを選択するといったコントロールをしていく。
@Remoteで収集したデータもそうだというが、IoTで収集したデータの多くが「変化のない」データであるという。「こういうデータは“ごみ”。あってもしょうがない」(佐藤氏)。膨大な量の不要なデータの中に埋もれる、小さな知見を発見するのが、いわゆるデータマイニングの技術である。佐藤氏はそれを「金鉱から良質な金を取り出すようなもの」と比喩する。また優良な情報ほど、データ量に対する密度が低い。佐藤氏はそのように、ビッグデータの技術の重要さと難しさについて述べた。
またビッグデータ分析には限界があることも佐藤氏は説明した。ビッグデータによる予測が不得意とするところは、「過去に例がない(なかった)こと」である。現状の技術でのビッグデータ分析が、そもそも過去のデータから類似パターンを探索する手法であるためだ。佐藤氏はアメリカ大統領選をその例として挙げた。
アメリカの大統領選挙では2008年以降、ビッグデータで候補の勝率を予測することがよく行われる。アメリカの統計学者 ネイト・シルバー氏は、2012年の大統領選挙の際50州全てとコロンビア特別区の選挙の勝者を的中させ、世界でも話題になった。そんなシルバー氏でも予測できなかったのが、現大統領であるドナルド・トランプ氏の当選である。しかも予測を外したのはシルバー氏だけではなく、メジャーどころの予測機関の予想もほぼ全滅だった。
トランプ大統領が戦った選挙では、次のような「異常さ」があったとして、佐藤氏は以下のように挙げた。
つまり、「過去に例がないこと」だらけだったのである。
そのように技術には限界があるため、「CPSを実践するにしても、いかに人間がしっかり判断するかというところが重要なことである」と佐藤氏は提言した。
Copyright © ITmedia, Inc. All Rights Reserved.