あらゆるものを AI にしようとする業界全体の取り組みには、いかがわしい側面がないわけではありません。つまり、一般的なウイルス対策保護を回避する、より高度なマルウェアの時代に急速に突入しており、攻撃者は進化する脅威をもたらす強力なラージ言語モデル (LLM) を利用していると、Google Threat Intelligence Group (GTIG) が新しいセキュリティ レポートで警告しています。
GTIG は、AI を利用した新たなマルウェアが活発に活動しているのを確認しており、AI 悪用の新たな段階を示していると述べています。この新たなマルウェアが非常に憂慮すべき点は、LLM の支援を受けてその動作をその場で変更できることです。
「GTIGは、実行中にLLMを使用するPROMPTFLUXやPROMPTSTEALなどのマルウェア ファミリを初めて特定しました。これらのツールは、悪意のあるスクリプトを動的に生成し、独自のコードを難読化して検出を回避し、AIモデルを活用して悪意のある機能をマルウェアにハードコードするのではなく、オンデマンドで作成します」とGTIGは述べています。
この種の脅威は新しいものであるため、従来のマルウェアほど一般的ではありませんが、GTIG によれば、動的に適応する機能を備えた自律型マルウェアへの大きな飛躍を示しています。
AI 主導のマルウェアは、実行中にコードや機能を変更して動作を変える可能性があるため、特に懸念されます。この機能により、静的ウイルス対策シグネチャを回避する「ジャストインタイム」の自己変更が実装されるため、AI 駆動型マルウェアの検出が困難になる可能性があります。不完全な例えで言えば、犯罪を犯しているところをカメラに撮られた人間が服を着替えたり髪を切ったりすることで、ますます捕まえるのが難しくなるようなものだと考えてください。
この新たな脅威に関連して、GTIG は、違法な AI ツールの地下市場が成熟していると指摘しています。
「私たちは、フィッシング、マルウェア開発、脆弱性研究をサポートするように設計された多機能ツールの複数の製品を特定し、それほど洗練されていない攻撃者にとっての参入障壁を下げています」と GTIG は述べています。
の 長いレポート AI を活用したマルウェアのいくつかの例と、Google がどのように敵対者の作戦を検出して妨害しているかを紹介します。その文脈では、これは少し利己的ですが、それでも憂慮すべきことです。