検索
連載

時間もお金もなくても実践できる信頼性テストの方法とは?タグチメソッドのデータを解析しよう(1)(1/2 ページ)

時間もない。お金もない。頑張って信頼性テストをやってみれば、市場に出てから製品にエラーが。ああ、苦労してこんなことやって、本当に意味あるの? 実は、“使える”方法が、ちゃんとあります。

Share
Tweet
LINE
Hatena

 本連載では3回に渡りタグチメソッドのデータ解析の考え方を解説します。タグチメソッドは、データ解析においても「なぜ、ばらつきをわざわざ大きくするのか……」などの誤解や疑問がよく出てきます。それらの背景にある基本思想を分かりやすく解説しましょう。基本的な考え方を理解すれば、多くの疑問が氷解するはずですから。

「タグチメソッドの誤解」を解消しましょう:
連載「本質から分かるタグチメソッド」

 第1回は、データ解析の目的の再確認です。データから有効な情報を取り出すことが目的なので、そのために「ばらつき」を重視するという考え方を紹介します。次回の第2回では、データから有効な情報を取り出す方法を解説します。最後の第3回では、タグチメソッドの中心思想であるSN比の狙いと考え方を説明します。

1−1.開発現場で必要とする少数精鋭データ

 「信頼性テストは不要だ」「信頼性テストは有効ではない」――開発現場で、よくこういう声を聞くようになりました。せっかく数カ月の信頼性テストを実施しても、市場で予想外の問題が発生してしまう、あるいは信頼性テストで市場品質の予測ができない場合が多いからです。

 これは、どうしてでしょうか?

 統計的手法を用いた従来の信頼性解析法は、学術的になり過ぎてしまいました。従って新製品の開発現場では「使えこなせない」という声もよく聞きます。信頼性の解析には大量のデータが必要というのが常識ですから、納期の厳しい開発現場で日常的に活用するには負担が大き過ぎるのです。

 限られた時間で実施する信頼性テストには限界があります。「投資したコストに見合う結果が得られないので役に立たない」とか「時間と金の掛かる信頼性テストは、もはや不要である」とか、過激な意見まで飛び出すようになっているのです。

大量のデータを使っても市場問題を予測できない

 確かに、製品開発期間中に長時間のテストと大量のデータで信頼性を確認したにもかかわらず、発売後に市場で想定外の問題が発生する現実があります。さらに、問題を起こした製品を回収して社内で確認テストをしても、市場問題の再現ができなかったという話は多く聞きます。

 製品の発売前に信頼性を予測することは、非常に手間が掛かる(つまりコストが掛かる)難しい技術課題です。そうは言っても、信頼性は大変に重要な項目です。どの企業も苦労しながら信頼性テストを実施しているはずです。しかし、以上のような現実に直面すると、信頼性テストは「役に立たない」「不要じゃないか」という意見が出るのも、もっともな話です。

 最近では海外から低コストの製品が供給されるようになり、信頼性確保のために多大のコストを掛けることが不可能になっている事情が一方にあります。

 もっと実践的な評価法とデータ解析法がないものか。開発現場から切実な声が聞こえてきます。

少数でありながら正しい判断ができる「少数精鋭データ」が重要

 モノづくり企業が直面しているこの難問に対して、うれしいことに既に回答があります。新製品の設計現場ですぐに役立つ、実践的な工夫を、タグチメソッドが数多く提案しています。

 中でも「少数精鋭データの考え方」は、信頼性試験の短縮に大いに役立ちます。この考え方を活用すると、今まで長時間の信頼性テストをしなければ分からなかった信頼性品質について、あまり時間をかけずに判断することが可能になります。実際、この方法を適用したことで、今まで結果を出すまで6カ月かかっていた信頼性テストが、数日で完了した例もあります。

 革新的な提案ではよくあることですが、従来の常識とは少々異なる考え方をするためには、今までの考え方にこだわってはいけません。

 一般的に「タグチメソッドは難しい」と思われてしまう理由の1つに、実はこのことがあります。こだわりを捨てて素直な気持ちで異なる考え方に接することが肝心なのです。

製品開発現場で必要なのは、少数精鋭のデータ解析法


タグチメソッドにおけるデータ解析の発想とは

 「タグチメソッドを勉強したけれど、なぜそのような手順が必要なのか、理由が分からない」「納得できないので、ちっとも頭に入らない。なぜそうする必要があるのかを説明して欲しい」――このような、タグチメソッドに対する不満をよく耳にします。

 もっともです。なぜ従来の常識を変えなければならないか、その狙いと意味が分からなければ、きちんと理解はできないでしょう。

 そこで本連載では、「信頼性を短期間で検討する」という切り口から、タグチメソッドのデータ解析に関する基本思想を解説します。学問としてフルコースの統計学を学ぶのではありません。現場ですぐに役立つエッセンスを身につけるのが狙いですから、最初は手順や数式を覚える必要はありません。

 常識にとらわれず自由な気持ちで読んでみてください。背景として語られている考え方を理解してください。今までの思い込みから解放され、新しい世界が必ずや開けるはずです。

データマイニングとの違い

 データ解析の基礎に入る前に、最近注目の「データマイニング」との違いを説明しておきましょう。

 データマイニングとは、言葉通りデータの鉱山から金鉱脈、つまり価値ある情報を探し出す手法のことです。最近注目されている理由は、ITの飛躍的な発展によって、大量のデータの収集と解析が昔より飛躍的に容易になったことが挙げられます。その結果、データの数など気にせずに解析できるようになったとか、何でもデータを集めれば有益な情報が手に入るとか、勘違いしている人も多く出てきました。

 確かに保険や金融などの分野では、華々しい成果を挙げた例もあります。しかし、2008年の世界的な金融危機(リーマンショック)に代表されるように、新たな事態、経験していなかった条件が発生すると、予測が大きく外れてしまいます。それは当然の結果です。過去のデータをいくら大量に集めても、未経験の新しい状況は予測できません。

 本連載で強調したいポイントは、「データの数が本質ではない」ということです。重要なデータとは、「取り出せる状態の情報が多数入っていること」です。重要なのはデータのであり、量ではないのです。タグチメソッドは、データマイニングとは逆の発想なのです。

データに含まれている情報しか解析できない

 データ数に関する考え方を簡単に説明すると、いろいろな状況に対応する漏れのないデータなら、その数は少なくても構わないということです。少数のデータであっても、正しい判断ができるのです。逆にいくら大量のデータがあっても、必要な状況におけるデータが入ってなければ、全く役に立ちません。情報がもともと入っていなければ、いくら解析手法を駆使しても情報を取り出すことができません。

 データ解析で重要なことは解析の方法論ではなく、データの品質です。どのようにして有効な情報を含む品質の高いデータを集めるかが重要なのです。データマイニングを活用してもこの事情は同じです。大量のデータが扱えるようになったこと自体は、問題の解決にはつながりません。

データマイニング:既に存在する大量のデータから「何か」を見つけ出すやり方

実践的データ解析:必要な情報を得るため、情報入手法の工夫から行うやり方


安易な「大数の法則」利用

 データマイニングを含めた従来のデータ解析手法では、この点が重要視されていないようです。前提条件として母集団から均一にサンプリングされたデータがあり、それをどのように解析するか、という視点で考えられている場合が多いからです。大量のデータを集めれば母集団を正しく表現しているはずだと、安易に「大数の法則」を利用していただけです。安易に「大数」つまり「大量のデータ数」に逃げ込んでしまうと、問題の現象を考察することがなくなり、思考停止状態になります。

 製品の信頼性を改善するには、「社内のテストでは問題がなかったのに、市場で問題が発生するのはなぜか」という点を追求し、技術を改善しなければなりません。そのためには、問題現象を発生させて観察した上で、それを基にして対策を検討する必要があるはずです。つまり、少数精鋭のデータを採取する戦略こそが重要なのです。

大数の法則:例えばコイン投げで表裏が出る確率は、試行回数を増やせば限りなく2分の1に近づくという考え方。しかしゆがみも偏りもない「理想的なコイン」と無限の時間が前提です。確率論・統計学における極限定理の1つであり、理想とはかけはなれた実際問題に適用する場合は注意が必要です。


 次に、もう少し具体的に少数精鋭データの考え方について説明します。データ数を飛躍的に減少させるヒントは、「ばらつきデータに対する考え方の違い」です。まずは、ばらつきについて考えていきます。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る