静かなオフィスは無害に見えることがあります。光に照らされたモニターのラック、会話を覆うヘッドフォン、そして仕事の雑踏が、下に何か不吉なものが潜んでいる兆候もなく続いています。しかし、増加傾向にあるのは、偶発的な、非公認のテクノロジー — ここに個人のクラウドフォルダ、そこに非公認のAIチャットボット。やがて、組織はこれらの新たな予期せぬリスクをすべて管理する必要が出てきます。しかし、シャドーITは隠れた脅威の最初の一歩に過ぎませんでした。シャドーAIはさらに賭け金を上げました。
シャドーITの拡張として、シャドーAIは従業員が非承認のテクノロジーを使用することを含みます。シャドーITは通常、ファイル共有アプリや個人デバイスなどの消費者向けテクノロジーを指します。シャドーAIは通常、動きが速く、データを大量に消費し、その挙動が予測不能なシステムを含みます。
\ ガートナーが実施した調査によると、組織の80%がデータガバナンスにギャップを抱えています。これらのギャップにより、人々がAIが生成した行動を見逃しやすくなります。多くのチームがサイバーセキュリティの準備状況評価に失敗しています。AIに関連するリスクは、従業員がチームが適切にレビューできるよりも速く新しいツールを採用することで増加しています。データ侵害の30%がベンダーやサプライヤーから発生するため、チームがどのツールを使用しているかを知ることは、企業のデジタル資産を保護する重要な要素です。
\ シャドーAIが注目を集めているのは、従業員がAIが生成するコンテンツをコンテンツ作成、複雑な情報の要約、技術的問題のトラブルシューティングのより速い方法と見なしているからです。日常業務の摩擦を減らしますが、データ露出、コンプライアンスリスク、モデルレベルのリスクなど、シャドーITの懸念事項では以前に見られなかったリスクをもたらします。
シャドーITは長い間、未知の脆弱性の原因とされてきました。以前の侵害の高い割合は、署名されていないSaaSツールや個人ストレージによるものでした。AIツールは方程式を完全に変えます。それらが機能する規模と速度、そして不透明性により、検出と封じ込めがより困難なリスクが生じます。
\ 組織の78%が本番環境でAIを活用しており、一部の侵害は現在、管理されていないテクノロジーの露出によるものです。より大きなITモデルはまだ重要ですが、AIは攻撃対象領域を広げる新しい次元をもたらします。
シャドーAIはシャドーITと似ており、どちらも従業員がより生産的になりたいという欲求から生じていますが、リスクが存在する場所が異なります。
\ シャドーAIはまた、EU人工知能法などの今後の規制の文脈でも発生し、規制の監視が強化される可能性があります。
シャドーAIはエンジニアリング、マーケティング、財務に問題をもたらす可能性があります。AI出力に基づいて決定が行われると、専有データが漏洩し、内部ビジネスプロセスが誰にも気付かれずに操作される可能性があります。
\
\ 生成AIの出現により懸念が高まっています。ベンダーの質問に答えるチャットボットや生成AI要約は無害に見えるかもしれませんが、機密使用データや価値のある専有知的財産を明らかにするリスクがあります。カーネギーメロン大学は、大規模言語モデルがルールベースのシステムよりも敵対的プロンプトに対してはるかに脆弱であることを発見しました。従業員が監視なしでツールを使用できる場合、問題は増加します。
\ AI対応の決定木は従来の決定木よりも偏りが大きい可能性があります。シャドーAIは、第三者ツールに供給される不完全なトレーニング情報を受け取ることがよくあります。AIシステムの構造化された監視により、更新の整合性が確保されます。チームがこれを見落とすと、モデルのデータと行動がドリフトします。
シャドーAIは多くのリスクをもたらしますが、組織は可視性とポリシーおよび技術的コントロールを組み合わせることで、多くのリスクを軽減できます。これにより、時間のかかるチェックインやブロックされたサイトで従業員に負担をかけることなく、従業員の生産性を保護するバランスを取ることができます。セキュリティチームは、シャドーAIを罰則の問題ではなくガバナンスの問題として扱うことで利益を得ます。従業員が生産性を向上させるためにAIツールを使用するにつれて、緩和戦略は必然的に進化する必要があります。
ガバナンス計画では、どのAIツールを承認するか、従業員がどのタイプのデータを使用できるか、重要な決定を下す前にモデル出力をどのようにレビューするか、予測不可能なモデル動作が発生した場合にどうするかを指定する必要があります。後者の要素には、誰が行動をレビューし、誰がその原因を調査し、どのような結果があるかが含まれます。
\ 監視が整っていれば、組織はAIを他の企業資産と同様に扱い、他のレガシー企業システムと同じトレーサビリティ、監査可能性、セキュリティ、およびコンプライアンスの責任の対象とすることができます。
検証された、集中管理されたAIツールにアクセスできるチームは、ブロッカーを回避するために未承認の公開AIに頼る可能性が低くなります。仕事がより自動化されるにつれて、スタッフはさまざまなモデルにより多くの努力を注ぐでしょう。労働者はすでに週に約4.6時間をAIを使用して仕事に費やしており、週平均の個人使用時間3.6時間を超えています。適切な監視なしの第三者からのAIは、すでに検証および承認された企業ツールよりも一般的かもしれません。企業はポリシーを施行するための即時の措置を講じるべきです。
\ 管理された環境では、組織はツールを通じて使用状況を監視し、データベース内の権限を設定し、部門全体でデータガバナンスを実施できます。これにより、ビジネスのデータの整合性とコンプライアンスを保護しながら、従業員の生産性が向上します。
異常な行動にフラグを立てる可視性ツール — AIの使用量の突然の増加、異常なエンドポイントへのデータのアップロード、または機密データを含む短時間でのモデルへのアクセスなど — は、セキュリティチームが誤用とデータ漏洩を特定するのに役立つ可能性があります。レポートによると、過去1年間で、最大60%の従業員が未承認のAIツールを使用し、93%が許可なく会社のデータを入力したことを認めています。
\ これらのパターンを早期に検出することで、データ漏洩やコンプライアンス違反につながる前に、修復、再教育、権限の再構成、またはプロセスの終了が可能になる場合があります。
一般的なサイバーセキュリティトレーニングだけでは十分ではありません。AIはプロンプトの背後にある意図を誤解することで幻覚を見て、一見権威のある、虚偽の、または偏ったコンテンツを生成する可能性があります。さらに、労働者はAIの使用がソフトウェアやサービスの使用とは異なることを理解する必要があります。安全な使用には、メンタルモデルの変更、プロンプトリスクの理解、個人データの取り扱いが必要です。
\ 基本的な機械リテラシーを持つユーザーは出力を事実確認し、個人データを過剰に共有する可能性が低くなります。彼らはツールを価値あるコパイロットとして扱いますが、人間の監督の下で使用する必要があります。
シャドーAIはシャドーITよりも速く成長し、識別が難しくなっています。リスクの規模と複雑さは異なりますが、従業員の助けを借りることで両方をより効果的に特定できます。ガバナンスポリシーは企業が適切なバランスを取るのに役立ちます。セキュリティチームは自らの露出を再評価し、新たな脅威に対して警戒を怠らず、見えないAIベースのツールがビジネスアプリケーションで重要な決定を下す前に迅速に行動すべきです。


