AlignLLMHumanSurvey
1.0.0
대형 언어 모델 (LLM)을 인간과 정렬하는 것에 대한 논문 및 자원 모음.
광범위한 텍스트 코퍼라에 대한 교육을받은 대형 언어 모델 (LLM)은 광범위한 자연어 처리 (NLP) 작업을위한 주요 솔루션으로 등장했습니다. 주목할만한 성능에도 불구하고, 이러한 모델은 인간 지시 오해, 잠재적으로 편향된 콘텐츠를 생성하거나, 사실적으로 잘못된 (환각 된) 정보와 같은 특정 제한이 발생하기 쉽습니다. 따라서 LLM을 인간의 기대에 맞추는 것은 연구 커뮤니티에서 활발한 관심 분야가되었습니다. 이 설문 조사는 다음 측면을 포함하여 이러한 정렬 기술에 대한 포괄적 인 개요를 제시합니다. (1) 데이터 수집 (2) 교육 방법론 (3) 모델 평가. 결론적으로, 우리는 연구 결과를 수집하고 증류 시켜이 분야의 몇 가지 유망한 미래의 연구 길에 빛을 발합니다. 따라서이 설문 조사는 인적 지향적 인 작업과 기대에 더 잘 맞도록 LLM의 조정을 이해하고 발전시키는 데 투자 한 모든 사람에게 귀중한 자원으로 작용합니다.
우리는이 저장소가 연구원과 실무자 들이이 새로운 분야를 더 잘 이해하도록 도울 수 있기를 바랍니다. 이 저장소가 도움이된다면이 백서를 인용하여 도와주십시오.
@article{aligning_llm_human,
title={Aligning Large Language Models with Human: A Survey},
author={Yufei Wang and Wanjun Zhong and Liangyou Li and Fei Mi and Xingshan Zeng and Wenyong Huang and Lifeng Shang and Xin Jiang and Qun Liu},
journal={arXiv preprint arXiv:2307.12966},
year={2023}
}? 이 프로젝트는 개발 중입니다. 스타를 때리고 업데이트를 따라갈 수 있습니다.