AlignLLMHumanSurvey
1.0.0
有關將大語言模型(LLM)與人類保持一致的論文和資源的集合。
在廣泛的文本語料庫中培訓的大型語言模型(LLM)已成為廣泛的自然語言處理(NLP)任務的領先解決方案。儘管表現出色,但這些模型仍容易受到某些局限性,例如誤解人類的指示,產生潛在的偏見內容或事實不正確(幻覺)信息。因此,將LLM與人類期望保持一致已成為研究界的活躍領域。這項調查介紹了這些對齊技術的全面概述,包括以下方面。 (1)數據收集(2)培訓方法(3)模型評估。總之,我們整理和提煉了我們的發現,闡明了該領域的幾種有希望的未來研究途徑。因此,這項調查是投資於理解和推進LLM的一致性以更好地適合人為面向人體的任務和期望的任何人的寶貴資源。
我們希望這個存儲庫可以幫助研究人員和從業人員更好地了解這一新興領域。如果此存儲庫對您有幫助,請引用本文來幫助我們:
@article{aligning_llm_human,
title={Aligning Large Language Models with Human: A Survey},
author={Yufei Wang and Wanjun Zhong and Liangyou Li and Fei Mi and Xingshan Zeng and Wenyong Huang and Lifeng Shang and Xin Jiang and Qun Liu},
journal={arXiv preprint arXiv:2307.12966},
year={2023}
}?該項目正在開發中。您可以擊中星星並觀看以關注更新。