
该存储库包含在本文中复制实验所需的所有代码和数据:
J. Vice,N。Akhtar,R。Hartley和A. Mian,“ Bagm:用于操纵文本到图像生成模型的后门攻击”,《信息法医和安全性的IEEE交易》,doi:10.1109/tifs.2024.3386058。
可用:https://ieeexplore.ieee.org/abstract/document/10494544
此存储库包含:
为了运行上述笔记本,我们在NVIDIA GEFORCE RTX 4090 GPU上使用了Pytorch,除了我们的一个实验之一外。我们利用了云计算服务,并需要NVIIDA RTX A6000将后门注入嵌入在deepfloyd-if管道中的“ XXL” T5编码器中。使用的基本模型全部通过拥抱面公开获得。有关每种基本模型的更多信息,我们将读者推荐给适当的模型卡。
虽然每类仅使用250张图像进行网络微调,但所有可销售食品(MF)数据集的所有图像(大约1400张)都在IEEE DataPort上可用。如果您无法访问超链接,只需搜索“可销售的食物(MF)数据集”,然后按照IEEE DataPort的链接即可。
注意:以下部分是从稳定的扩散V1模型卡中修改的,但适用于使用上述笔记本电脑的生成图像。注意:鉴于我们建议BAGM作为攻击框架,请注意,具有恶意意图的对手可能不会考虑以下考虑帐户!
如果我们的代码,指标或纸张用于进一步研究,请引用我们的论文:
@article { Vice2023BAGM ,
author = { Vice, Jordan and Akhtar, Naveed and Hartley, Richard and Mian, Ajmal } ,
journal = { IEEE Transactions on Information Forensics and Security } ,
title = { BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models } ,
year = { 2024 } ,
volume = { 19 } ,
number = { } ,
pages = { 4865-4880 } ,
doi = { 10.1109/TIFS.2024.3386058 }
}模型不应被用来有意创建或传播为人们创造敌对或疏远环境的图像。这包括产生人们会发现令人不安,令人痛苦或令人反感的图像;或传播历史或当前刻板印象的内容。
该模型未经训练是人类或事件的事实或真实表示,因此使用模型来生成此类内容是不大的。
使用模型生成对个人残酷的内容是对这种模型的滥用。这包括但不限于:
有关更多问题/查询或如果您想简单地进行对话,请与Jordan Vice:[email protected]联系。