探求未来:人工知能とサイバーセキュリティの新たな展開

人工知能(AI)は、言語処理から画像認識まで、さまざまな分野で強力なツールとして証明されています。最近の調査によると、AI搭載ツールで使用される大規模言語モデル(LLMs)が操作され、伝統的な検出方法を回避する自己増強型マルウェアの開発に利用されている可能性があると示唆されています。

サイバーセキュリティ企業Recorded Futureによる報告によれば、生成AIは、小さなマルウェア変種のソースコードを変更することで、string-based YARAルールを回避する可能性があります。この操作により、検出率が低下し、そのような悪意のあるソフトウェアを識別して停止するのがより困難になります。この発見は、赤チーム演習から生まれたものですが、脅威行為者の手におかれたAIテクノロジーの懸念すべき可能性を浮き彫りにしています。

研究では、SAPT28ハッキンググループに関連するSTEELHOOKという一部のマルウェアを、そのYARAルールとともにLLMに提出しました。目的は、検出を回避しながら機能性を維持するようにマルウェアのソースコードを変更することでした。生成されたコードは、単純なstring-based YARAルールを回避し、AIを利用したサイバーセキュリティ対策の実用化を示しています。

しかし、この手法には制約があります。AIモデルが一度に処理できるテキストの量には限界があり、より大規模なコードベースでの操作は困難です。ただし、生成AIのサイバー脅威での利用可能性は、単なる検出回避を超えています。

マルウェアコードを操作する同じAIツールは、幹部やリーダーを模倣するディープフェイクを作成するのにも利用できます。これは、より大規模な規模での偽装や、正規のウェブサイトを模倣した影響操作の可能性について懸念を抱かせます。さらに、生成AIは、重要インフラ施設を標的とする脅威行為者による攻撃作戦において、公開画像、動画、および航空画像の解析と豊かにすることで、貴重なメタデータを抽出し、後続攻撃のための戦略情報を提供する能力を持っています。

これらのAIによる脅威によってもたらされるリスクを軽減するために、組織は機密機器を描写する公開映像や動画を慎重に調査すべきです。必要に応じて、そのようなコンテンツは十分に検討され、悪用の機会を最小限に抑えるために消毒されるべきです。

AI技術の誤用に焦点が当てられてきましたが、AIモデル自体も標的とされる可能性があることに留意する価値があります。最近の研究によると、LLM搭載ツールはジェイルブレイクされる可能性があり、有害なコンテンツが生成されます。例えば、機密フレーズを含むASCIIアートの入力を渡すことで、安全対策を回避し、LLMを望ましくないアクションを実行させることができます。この実用攻撃は、「ArtPrompt」として知られ、AIモデルを悪用や誤用から保護するための強化されたセキュリティ対策の必要性を強調しています。

これらの進展を考慮すると、AIがサイバーセキュリティの領域でますます重要な役割を果たしていることが明らかです。AIの能力が向上し続けるなか、組織や個人は新たな脅威についての情報を入手し、積極的なセキュリティ対策を採用することが極めて重要です。

よくある質問

  • 生成AIとは何ですか?
  • 生成AIとは、機械が新規かつオリジナルなコンテンツを生成するための人工知能技術の適用を指します。これは、芸術や音楽など、さまざまな産業で広く使用されており、今ではサイバーセキュリティ分野でも利用されています。

  • YARAルールとは何ですか?
  • YARAルールは、マルウェア検出に使用されるテキストパターンのセットです。これにより、セキュリティシステムは特定の特徴や指標に基づいてマルウェアを識別および分類することができます。

  • ディープフェイクとは何ですか?
  • ディープフェイクとは、人工知能アルゴリズムを使用して作成された合成メディアであり、通常はビデオを指します。これらのAI生成ビデオは、個人の容姿を操作または置き換えることができ、しばしば欺瞞的または詐欺的な表現につながります。

  • 組織はどのようにAIによる脅威のリスクを軽減できますか?
  • AIによる脅威に関連するリスクを軽減するためには、組織は機密機器を描写する公開画像や動画を定期的に調査するべきです。必要に応じて、そのようなコンテンツを注意深く検討し、悪用の機会を最小限に抑えるために消毒する必要があります。さらに、潜在的な誤用や悪用からAIモデルを保護するため、堅牢なセキュリティ対策を実施する必要があります。

The source of the article is from the blog combopop.com.br

Privacy policy
Contact