AlignLLMHumanSurvey
1.0.0
大規模な言語モデル(LLM)を人間と調整することに関する論文とリソースのコレクション。
広範なテキストコーパスでトレーニングされた大規模な言語モデル(LLMS)は、幅広い自然言語処理(NLP)タスクの主要なソリューションとして浮上しています。顕著なパフォーマンスにもかかわらず、これらのモデルは、人間の指示の誤解、潜在的に偏ったコンテンツの生成、または事実上誤った(幻覚)情報の生成など、特定の制限を受けやすくなります。したがって、LLMを人間の期待に合わせることは、研究コミュニティ内で関心のある積極的な領域になりました。この調査では、以下の側面を含むこれらのアライメントテクノロジーの包括的な概要を示しています。 (1)データ収集(2)トレーニング方法論(3)モデル評価。結論として、私たちは調査結果を照合して蒸留し、現場でのいくつかの有望な将来の研究手段に光を当てています。したがって、この調査は、人間指向のタスクと期待に合わせてLLMの調整と前進に投資した人にとって貴重なリソースとして機能します。
このリポジトリが、研究者と実践者がこの新興分野をよりよく理解するのに役立つことを願っています。このリポジトリが役立つ場合は、このペーパーを引用してお手伝いしてください。
@article{aligning_llm_human,
title={Aligning Large Language Models with Human: A Survey},
author={Yufei Wang and Wanjun Zhong and Liangyou Li and Fei Mi and Xingshan Zeng and Wenyong Huang and Lifeng Shang and Xin Jiang and Qun Liu},
journal={arXiv preprint arXiv:2307.12966},
year={2023}
}?このプロジェクトは開発中です。星を叩いて、更新に従うことができます。