
Les ressources liées à la fiabilité des grands modèles (LMS) à travers plusieurs dimensions (par exemple, la sécurité, la sécurité et la confidentialité), avec un accent particulier sur les LM multi-modales (par exemple, les modèles en langue visuelle et les modèles de diffusion).
Ce repo est en cours? (actuellement collecté manuellement).
Badges:
Modèle:
Commentaire: ...
Lieu: ...
? Bienvenue pour nous recommander des ressources via des problèmes avec le format suivant ( veuillez remplir ce tableau ):
| Titre | Lien | Code | Lieu | Classification | Modèle | Commentaire |
|---|---|---|---|---|---|---|
| AA | arxiv | github | BB'23 | A1. Jailbreak | LLM | Agent |
34 articles connexes de l'ACL'24!7 articles connexes de S&P'24!3 articles connexes de NDSS'24!108 articles connexes sur ICLR'24!Organisateurs: Tianshuo Cong (丛天硕), Xinlei He (何新磊), Zhengyu Zhao (赵正宇), Yugeng Liu (刘禹更), Delong Ran (冉德龙)
Ce projet est inspiré par LLM Security, Awesome LLM Security, LLM Security & Privacy, UR2-llms, plmpapers, EvaluationPapers4Chatgpt
