ホーム jpn AIの脅威が加速する中、企業のクラウドセキュリティの失敗は「懸念される」

AIの脅威が加速する中、企業のクラウドセキュリティの失敗は「懸念される」

22
0


blackdovfx/ゲッティイメージズ

組織の 45% 弱が、クラウド環境のセキュリティを確保するために定期的な監査と評価を実施していますが、より多くのアプリケーションとワークロードがマルチクラウド プラットフォームに移行されているため、これは「懸念される」ことです。

クラウド インフラストラクチャ全体のリスクをどのように監視しているかという質問に対して、47.7% の企業が自動化されたセキュリティ ツールを挙げ、46.5% がプロバイダーのネイティブ セキュリティ サービスに依存していると回答しました。セキュリティ ベンダー Bitdefender のレポートによると、さらに 44.7% の企業が定期的な監査と評価を実施していると回答しました。

また: AIはサイバーセキュリティを変えており、企業は脅威に目を覚まさなければならない

調査では、シンガポール、英国、フランス、ドイツ、イタリア、米国の6つの市場で最高情報セキュリティ責任者を含む1,200人以上のITおよびセキュリティ専門家を対象に調査が行われ、約42.1%がサードパーティの専門家と連携していることが明らかになった。

ビットディフェンダーのアジア太平洋およびサイバーセキュリティサービス担当副社長ポール・ハジ氏は、ZDNETの質問に答えて、クラウド環境の監査を定期的に実施している企業がわずか45%にとどまっていることは「間違いなく憂慮すべきことだ」と述べた。

Hadjy 氏は、企業がアプリケーションやワークロードをマルチクラウド環境に移行し続けているにもかかわらず、ホストされたサービスやデータを保護するクラウド プロバイダーの能力への過度の依存が続いていると指摘しました。

“ほとんどの時間、 [cloud providers] 「クラウドはあなたが考えるほど責任を負っておらず、ほとんどの場合、クラウドに保存されるデータは大きく、機密性が高いことが多い」とハッジ氏は述べた。

クラウドセキュリティの責任保存時や移動中のデータがどのように保護されるか、アイデンティティなど [of] リソースへのアクセスを許可する人、サーバー、エンドポイントは限られており、コンプライアンスは主に顧客次第です。まず、地理、業界、サプライ チェーン パートナーなどに基づいてクラウド環境の現在のリスクと脆弱性を判断するためのベースラインを確立することが重要です。」

回答者が自社のクラウド環境を管理する上で抱くセキュリティ上の最大の懸念事項としては、38.7%がアイデンティティとアクセス管理を挙げ、38%がクラウドコンプライアンスの維持の必要性を指摘した。また、35.9%がシャドーITを懸念事項として挙げ、32%が人的ミスを心配していることが調査で分かった。

しかし、生成AI関連の脅威に関しては、回答者はチームメイトが潜在的な攻撃を特定する能力に自信を持っているようだ。過半数の74.1%が、自分の部署の同僚がディープフェイク動画や音声攻撃を見抜くことができると信じており、米国の回答者の信頼度は85.5%と最も高かった。

また: ジェネレーティブAIでコードをより速く書くが、その際にはリスクに注意する

これに対し、シンガポールでは、同僚がディープフェイクを見破れると確信している回答者はわずか48.5%で、6つの市場の中で最も低かった。実際、シンガポールでは、自分の部署の同僚がディープフェイクを見破れないと答えた回答者は35%で、これは世界全体で最も高かった。

チームメイトがディープフェイクを見抜くことができると確信しているという世界平均は 74.1% でしたが、これは間違いだったのでしょうか、それとも正解だったのでしょうか?

ハジ氏は、96.6%がGenAIを軽微から非常に重大な脅威とみなしているにもかかわらず、このような自信が示されたと指摘した。これに対する基本的な説明は、ITおよびセキュリティの専門家が、自分のチーム以外のユーザー、つまりITやセキュリティの分野に属さないユーザーがディープフェイクを見分ける能力を必ずしも信頼していないということだと同氏は述べた。

「だからこそ、私たちはテクノロジーとプロセスが [implemented] これらを一緒に行うことがこのリスクを軽減する最善の方法だ」と彼は付け加えた。

ディープフェイクなどのAI生成コンテンツを検出するのに既存のツールがどの程度効果的で正確であるかとの質問に対し、彼はそれはいくつかの要因に依存すると述べた。フィッシングメール経由で配信された場合、または悪意のあるリンクを含むテキストメッセージに埋め込まれた場合、ディープフェイクはXDR(拡張検出および対応)ツールなどのエンドポイント保護ツールによってすぐに識別されるはずだと彼は説明した。

しかし、彼は、脅威の主体は人間の自然な傾向に依存していると指摘した。 見たものを信じる そして、有名人や著名人など、信頼する人々によって支持されているもの。彼らのイメージは、メッセージを伝えるために操作されることがよくある。

また: 生成AIの実装と最適化を加速する3つの方法

また、ディープフェイク技術が進化し続ける中、視覚や聴覚だけでそのようなコンテンツを検出するのは「ほぼ不可能」になるだろうと同氏は述べた。同氏は、ディープフェイクを検出できる技術とプロセスも進化する必要があると強調した。

シンガポールの回答者はチームメイトのディープフェイクを見抜く能力に最も懐疑的だったが、48.5%というのはかなりの数字だと指摘した。

ハジ氏は、テクノロジーとプロセスの両方を導入することの重要性を改めて訴え、「ディープフェイクは今後も改良され続けるだろう。それを効果的に見分けるには、人、テクノロジー、プロセスをすべて組み合わせた継続的な取り組みが必要だ。サイバーセキュリティには『特効薬』はない。脅威が侵入する前に扉を閉じる強力な予防策から始まる多層的な戦略が常に必要だ」と語った。

ハイブリッド環境で働く従業員が増え、自宅から発生するリスクも増えているため、トレーニングもますます重要になっている。「企業はディープフェイクを検証し、高度に標的を絞ったスピアフィッシング攻撃から身を守るために、明確な手順を整備する必要がある」と同氏は述べた。「組織にとって、二重チェックの対策を確実に講じるためのプロセスが重要であり、特に多額の金銭の送金が関係する場合はそうだ」

Bitdefender の調査によると、36.1% の人が GenAI テクノロジーを、ディープフェイクなどの偽コンテンツの操作や作成に関して非常に重大な脅威と見なしています。また、45.1% がこれを中程度の脅威と評価し、15.4% が軽微な脅威と回答しています。

また: ほぼ50%の人がAIクローンにこれをやってほしいと思っている

94.3%の大多数が、現在のセキュリティ脅威に対応する組織の能力に自信を持っている。 ランサムウェアフィッシング、ゼロデイ攻撃など。

しかし、調査によると、過去1年間にデータ侵害または漏洩を経験したと認めた回答者は57%で、前年より6%増加している。この数字はシンガポールの33%で最も低く、英国の73.5%で最も高かった。

フィッシングとソーシャルエンジニアリングが38.5%で最も懸念されており、次いでランサムウェア、内部脅威、ソフトウェアの脆弱性がそれぞれ33.5%でした。





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください