jailbreakprompt
1.0.0
?探索出於學術目的的AI及時工程的限制和道德?
在這個項目中,我們深入研究了AI“越獄”提示的有趣世界 - 這個術語用於描述AI模型中內置的道德和安全機制的嘗試。該計劃純粹是學術性的,旨在了解和增強AI系統的魯棒性。這是您需要知道的:
?僅科學研究:該項目專門用於科學研究。至關重要的是要了解這些方法和發現不應在現實世界中應用。
信用原始作者:我們尊重並感謝我們探索的AI技術和方法背後的原始作者和創作者。這些創新的所有功勞都歸功於他們。
? ?免費探索機器人:參與者有機會免費通過我們列出的AI機器人來測試各種提示。這是為了促進對AI響應機制的全面理解。
最新更新:2023年12月13日