
이 저장소에는 논문의 실험을 복제하는 데 필요한 모든 코드 및 데이터가 포함되어 있습니다.
J. VICE, N. AKHTAR, R. HARTLEY 및 A. MIAN, "BAGM : 정보 법의학 및 보안에 대한 IEEE 거래에서 텍스트-이미지 생성 모델 조작을위한 백도어 공격, DOI : 10.1109/tifs.2024.3386058.
사용 가능 : https://ieeexplore.ieee.org/abstract/document/10494544
이 repo에는 다음이 포함됩니다.
위의 노트북을 실행하기 위해 우리는 실험 중 하나를 제외한 Nvidia Geforce RTX 4090 GPU에서 Pytorch를 사용했습니다. 우리는 클라우드 컴퓨팅 서비스를 이용했으며 Deepfloyd-IF 파이프 라인에 내장 된 'XXL'T5-Encoder에 백도어를 주입하기 위해 NVIIDA RTX A6000이 필요했습니다. 사용 된 기본 모델은 모두 포옹을 통해 공개적으로 제공됩니다. 각 기본 모델에 대한 자세한 내용은 독자에게 적절한 모델 카드를 참조하십시오.
클래스 당 250 개의 이미지 만 네트워크 미세 조정에 사용되었지만 IEEE Dataport에서는 마케팅 가능한 식품 (MF) 데이터 세트의 모든 이미지 (약 1400)가 제공됩니다. 하이퍼 링크에 액세스 할 수없는 경우 "마케팅 가능한 식품 (MF) 데이터 세트"를 검색하고 IEEE DATAPORT에 대한 링크를 따릅니다.
참고 : 다음 섹션은 안정적인 확산 v1 모델 카드에서 수정되었지만 위의 노트북을 사용하여 이미지 생성에 적용됩니다. 참고 : Bagm을 공격 프레임 워크로 제안하면 악의적 인 의도로 작용하는 대적은 다음과 같은 고려 사항을 사용하지 않을 수 있습니다!
당사의 코드, 메트릭 또는 논문이 연구를 추가로 사용하는 데 사용되는 경우 논문을 인용하십시오.
@article { Vice2023BAGM ,
author = { Vice, Jordan and Akhtar, Naveed and Hartley, Richard and Mian, Ajmal } ,
journal = { IEEE Transactions on Information Forensics and Security } ,
title = { BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models } ,
year = { 2024 } ,
volume = { 19 } ,
number = { } ,
pages = { 4865-4880 } ,
doi = { 10.1109/TIFS.2024.3386058 }
}모델은 사람들을위한 적대적이거나 소외된 환경을 만드는 이미지를 의도적으로 만들거나 전파하는 데 사용해서는 안됩니다. 여기에는 사람들이 방해, 고통 또는 불쾌감을 발견 할 수있는 이미지를 생성하는 것이 포함됩니다. 또는 역사적 또는 현재의 고정 관념을 전파하는 내용.
이 모델은 사람이나 사건의 사실적이거나 진정한 표현으로 훈련되지 않았으므로 모델을 사용하여 그러한 컨텐츠를 생성하는 것은 범위 외입니다.
모델을 사용하여 개인에게 잔인한 콘텐츠를 생성하는 것은이 모델을 오용하는 것입니다. 여기에는 다음이 포함되지만 이에 국한되지는 않습니다.
추가 질문/쿼리 또는 단순히 대화를 치고 싶다면 Jordan Vice : [email protected]에 연락하십시오.