AlignLLMHumanSurvey
1.0.0
有关将大语言模型(LLM)与人类保持一致的论文和资源的集合。
在广泛的文本语料库中培训的大型语言模型(LLM)已成为广泛的自然语言处理(NLP)任务的领先解决方案。尽管表现出色,但这些模型仍容易受到某些局限性,例如误解人类的指示,产生潜在的偏见内容或事实不正确(幻觉)信息。因此,将LLM与人类期望保持一致已成为研究界的活跃领域。这项调查介绍了这些对齐技术的全面概述,包括以下方面。 (1)数据收集(2)培训方法(3)模型评估。总之,我们整理和提炼了我们的发现,阐明了该领域的几种有希望的未来研究途径。因此,这项调查是投资于理解和推进LLM的一致性以更好地适合人为面向人体的任务和期望的任何人的宝贵资源。
我们希望这个存储库可以帮助研究人员和从业人员更好地了解这一新兴领域。如果此存储库对您有帮助,请引用本文来帮助我们:
@article{aligning_llm_human,
title={Aligning Large Language Models with Human: A Survey},
author={Yufei Wang and Wanjun Zhong and Liangyou Li and Fei Mi and Xingshan Zeng and Wenyong Huang and Lifeng Shang and Xin Jiang and Qun Liu},
journal={arXiv preprint arXiv:2307.12966},
year={2023}
}?该项目正在开发中。您可以击中星星并观看以关注更新。