
このリポジトリには、紙の実験を再現するために必要なすべてのコードとデータが含まれています。
J. Vice、N。Akhtar、R。Hartley、A。Mian、「Bagm:テキストから画像への生成モデルを操作するためのバックドア攻撃」、情報法医学とセキュリティに関するIEEEトランザクション、doi:10.1109/tifs.2024.3386058。
利用可能:https://ieeexplore.ieee.org/abstract/document/10494544
このリポジトリには次のものが含まれています。
上記のノートブックを実行するには、実験の1つを除くすべてのために、Nvidia GeForce RTX 4090 GPUでPytorchを使用しました。クラウドコンピューティングサービスを悪用し、バックドアをdeepfloyd-ifパイプラインに埋め込んだ `xxl 't5-encoderに注入するためにNVIIDA RTX A6000を必要としました。使用されるベースモデルはすべて、Huggingfaceを通じて公開されています。各ベースモデルの詳細については、読者を適切なモデルカードに紹介します。
ネットワーク微調整にはクラスごとに250の画像のみが使用されていましたが、IEEEデータポートで利用できる市場性食品(MF)データセットのすべての画像(約1400)が利用できます。ハイパーリンクにアクセスできない場合は、「Marketable Food(MF)データセット」を検索するだけで、IEEE DataPortへのリンクに従います。
注:次のセクションは、安定した拡散V1モデルカードから変更されていますが、上記のノートを使用して生成画像に適用されます。注: BAGMを攻撃フレームワークとして提案すると、悪意のある意図を持って行動する敵は、次の考慮事項を取得しない可能性があることに注意してください!
私たちのコード、メトリック、または論文を使用して研究を促進する場合は、私たちの論文を引用してください。
@article { Vice2023BAGM ,
author = { Vice, Jordan and Akhtar, Naveed and Hartley, Richard and Mian, Ajmal } ,
journal = { IEEE Transactions on Information Forensics and Security } ,
title = { BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models } ,
year = { 2024 } ,
volume = { 19 } ,
number = { } ,
pages = { 4865-4880 } ,
doi = { 10.1109/TIFS.2024.3386058 }
}モデルを使用して、人々のために敵対的または疎外された環境を作成する画像を意図的に作成または普及させるべきではありません。これには、人々が邪魔、苦痛、または攻撃的であると思われる画像の生成が含まれます。または、歴史的または現在のステレオタイプを伝播するコンテンツ。
このモデルは、人やイベントの事実または真の表現であるように訓練されていなかったため、モデルを使用してそのようなコンテンツを生成することはスコープ外です。
モデルを使用して、個人にとって残酷なコンテンツを生成することは、このモデルの誤用です。これには含まれますが、以下に限定されません。
さらなる質問/クエリについて、または単に会話を攻撃したい場合は、ヨルダン副:[email protected]に連絡してください