AIエンジンが侵害されると、OT環境に攻撃が広がる重大なリスクが生じます。攻撃者がAIエンジンを操作して、OTネットワーク内で悪意のあるコードを実行し、広範囲にわたるシステム障害やデータの流出を引き起こすおそれがあります。AIの意思決定プロセスが変更されたり、有害な推奨事項やアクションが生成されたりすることで、OT運用が意図的に中断される可能性があります。
OT環境内におけるAIの利用方法が、リスクプロファイルに大きな影響を与えます。AIに対してアドバイザリーの役割を人間の監視下で行わせる場合、リスクはある程度軽減されます。人間のオペレーターがAIの出力をクロスチェックすることで、無意味または有害な推奨事項の実装を防げるためです。
しかし、この方法は人間のオペレーターの注意力と専門知識に依存することになります。AIに対してOTシステムの直接制御を許可している場合は、重大なリスクが生じます。AIには、「AIハルシネーション」と呼ばれる不正確な出力や意味不明な出力を生成する現象があります。人間の介入なしにAIの出力に基づいて行動した場合、壊滅的な障害につながるおそれがあります。
AIシステムの信頼性は、トレーニングに使用されたデータと動作中に受信されるデータによって決まります。攻撃者によってAIシステムに虚偽のデータや破損したデータが入力されると、誤った出力が生成される可能性があります。AIに送られるセンサーデータが操作された場合、誤った評価やアクションが発生し、OTプロセスが中断される可能性があります。
さらに、トレーニングデータの品質が低かったり偏っていたりすると、現実のシナリオにおいて挙動の信頼性に課題があるAIモデルが作成されるおそれもあります。これにより、OT運用の安全性と効率性を損なう決定が下される可能性があります。
基幹産業の従来のインフラには、高度なサイバー脅威に対抗するための十分なセキュリティ機能が備わっていないケースが多く見受けられます。さらに、OTシステムとITネットワークの相互接続によって、攻撃の可能性が高まり、堅牢なセキュリティ対策が求められています。
新興技術を基幹インフラのOTシステムに組み込むには、ベストプラクティスに従って責任ある安全な実装を実現させることが極めて重要です。ベストプラクティスには次のようなものがあります。
AIが基幹インフラを直接管理するようなことがあってはなりません。人による監視は、予期せぬ事態の発生を防ぐために極めて重要です。人の判断と専門知識は、必要に応じて意思決定と介入を行うために欠かせないレイヤーとなります。
潜在的な脆弱性を徹底的に評価することは、AIシステムが基幹業務に与える影響を特定し理解するために必要不可欠です。この評価は、効果的なリスク軽減戦略の策定に役立ちます。
AIシステム導入前の段階で、広範囲にわたる試験と検証を実施し、精度、信頼性、安全性を確認する必要があります。このプロセスによって、潜在的な欠陥やエラーを特定し、修正することができます。
これは、基幹インフラへの機械学習アルゴリズムの実装において最も重要です。組織はAIシステムの透明性、説明責任、明確な説明を順守すべきです。これにより、ステークホルダー間での信頼と理解が構築されます。
差別的な結果を避けるため、AIシステムの開発と導入にはバイアス軽減技術を採用すべきです。これにより、基幹インフラの運用における公平性と平等な取り扱いが担保されます。
機密データを収集するAIシステムを運用する場合、プライバシーは重要な考慮事項です。適切な対策を講じて対象となるデータを保護し、該当するプライバシー規制を確実に順守することが不可欠です。
これらのベストプラクティスに取り組むことで、組織は基幹インフラにおけるOTシステムへの新興技術の統合を、より高い信頼性と安全性をもって実施できます。ベストプラクティスへの取り組みは、上記で述べたような、「クラウドからOT環境への直接攻撃」や「攻撃者によって操作された虚偽のデータがAIシステムに入力され、誤った判断が引き出された結果、引き起こされるデータ侵害やシステム全体の乗っ取り」「人間の介入なしに起こされたハルシネーションによる、業務の中断や安全性の低下」といったリスクをなくすためにも、強く意識すべきです。
AIの責任ある実装は、ステークホルダー間での信頼を構築し、基幹インフラの確実かつ安全な機能を保証します。
Copyright © ITmedia, Inc. All Rights Reserved.