jailbreakprompt
1.0.0
?探索出于学术目的的AI及时工程的限制和道德?
在这个项目中,我们深入研究了AI“越狱”提示的有趣世界 - 这个术语用于描述AI模型中内置的道德和安全机制的尝试。该计划纯粹是学术性的,旨在了解和增强AI系统的鲁棒性。这是您需要知道的:
?仅科学研究:该项目专门用于科学研究。至关重要的是要了解这些方法和发现不应在现实世界中应用。
信用原始作者:我们尊重并感谢我们探索的AI技术和方法背后的原始作者和创作者。这些创新的所有功劳都归功于他们。
?? 免费探索机器人:参与者有机会免费通过我们列出的AI机器人来测试各种提示。这是为了促进对AI响应机制的全面理解。
最新更新:2023年12月13日