上司になりすますAI動画で訓練 KnowBe4が新トレーニング発表
サイバーセキュリティ企業KnowBe4 Japanは、自社の幹部などの映像や音声を使ってディープフェイク動画を作成する新トレーニングを日本語版で発表しました。近年増加しているなりすまし攻撃への対策として、従業員がAIによる偽動画を見抜き、適切な対応ができるように訓練することを目的としています。
このトレーニングでは、管理者が自社のCEOや役員の映像と音声サンプルをアップロードすることで、模擬シナリオに基づいたディープフェイク動画を作成できます。受講者は、権威ある人物になりすましたメッセージの中に潜む不自然な兆候や挙動の違和感に着目し、適切な確認手順を学びます。
KnowBe4 Japanは、AIによるなりすまし攻撃が標準的な攻撃手法となりつつあると分析しており、経営層や従業員を直接体験型の教材に参加させることで、脅威を具体的に理解させ、行動変容につなげることが重要だと述べています。
背景
近年、AI技術の進歩によりディープフェイク技術が進化し、なりすまし攻撃が増加しています。企業を狙う詐欺や情報操作の手段として悪用されるケースも増え、従来の対策では見抜きにくい事例が増えています。
重要用語解説
ディープフェイク: AIを用いて生成された非常にリアルな偽動画や音声のことです。なりすまし攻撃などに使われることがあります。
ソーシャルエンジニアリング: 人を騙して機密情報などを取得するサイバー攻撃手法です。メールや電話などで巧妙に近づき、信頼関係を築いて情報を引き出すことが多いです。
フィッシング攻撃: 偽のウェブサイトやメールで個人情報を盗み取る攻撃手法です。銀行やオンラインショップなどの正規サイトに似せて作られた偽サイトにアクセスさせ、ログイン情報などを詐取します。
今後の影響
このトレーニングは、従業員のディープフェイク認識能力を高め、なりすまし攻撃への対策を強化する効果が期待されます。AI悪用に対する意識向上と行動変容を促し、企業のセキュリティレベル向上に貢献すると考えられます。