自動運転車を「破壊」するためのレーザーポインターの使用

9 april 2021 - Hongkong, Hongkong

AIモデルを攻撃するのはどれくらい簡単ですか?

1つのレーザーで十分です!

最近専門家が新しい研究を発表しました。単純なレーザーポインターが使用されている限り、AIモデルはもはや効果的ではありません。 この研究では、AIモデルを「攻撃」するために光線をシミュレートできるアルゴリズムを設計しました。このテスト方法は実世界でも検証されており、「攻撃」は非常に簡単に操作できます。ビジョンシステムはより多くのAIビジョンに基づく自動運転などの脅威。

異なるスペクトルの光線が同じオブジェクトに当たると、AIは、駐車標識をスムーズな通路として認識するなど、オブジェクトを誤って認識する可能性があります。

レーザービームにより、自動運転車が交通標識を誤認する可能性があります

人が目を閉じて高速自動運転車で休んでいる場合、AIが「前方に危険がある」ことを「通過」として認識し、崖に直接落ちるとは想像しがたいです:

あるいは、前方の歩行者を直接特定できない歩行者にとっては悪夢かもしれません。

また、自動運転車のカメラがレーザー光線に干渉されると、「トロリーバス」が「両生類」、「道路標識」が「ソープディスペンサー」として認識されます。

最初の状況は本当に怖いです。 自動運転車で寝ている人が突然トロリーバスに乗り込んだとします。AIはそれが単なるヒキガエルであり、明らかに動物保護の意識がなく、ヒキガエルは脅威ではないと考えています。 ..

AIを攻撃することは、敵対的なサンプルの人工的な作成を必要とするどころか、単なるレーザーポインターです。この調査を使用して、これまでAIモデルで調査されていなかった「エラー」のいくつかを明らかにし、将来そのような「攻撃」に耐えられるようにAIを「強力」にします。関連する開業医にAIモデルのセキュリティの向上に注意を向けさせる。 「AliSecurityTuringLabの責任者であるXueHui氏は語った。

深層学習画像認識のパフォーマンスは、特定の照明条件下で影響を受けます。この現象はよく知られています。しかし、深層学習へのレーザー干渉の可能性はどのようにして発見されたのでしょうか?

「主な理由は2つあります。これまでの物理的な攻撃のほとんどは、パッチに対する貼り付けによる人工的な干渉の導入によるものであり、モデルの識別エラーが発生しました。他の形態の攻撃があるかどうかを検討しています。画像認識を攻撃する可能性があります。効果(レーザー攻撃は、攻撃が必要なときにレーザーを発射することであり、パッチは必要ありません)。一方、有名な自動車の誤認識によって引き起こされた致命的な自動車事故に触発されました2016年の強い光の天候下での運転システム、極端な光の条件自体が人工知能システムに脅威を与えるかどうかを考えてみましょう。」