CogGPT
1.0.0
英语| 中文
论文的代码和数据“ Coggpt:在大语言模型上释放认知动力的力量”。
Cogbench是一种专门设计的双语基准,旨在评估中文和英语的大语模型(LLM)的认知动态。根据信息流的类型,将Cogbench分为两部分:用于文章的Cogbench A和用于简短视频的Cogbench v 。
在此基准测试中,LLM和人都被分配了相同的初始概况,并在10个迭代次数上接收相同的信息流。每次迭代后,他们都必须填写相同的认知问卷。该问卷使用五点李克特量表,允许参与者表达对当前问题的态度。
Cogbench旨在评估LLM与人类之间的认知一致性。评估指标包括:
Coggpt是LLM驱动的代理,旨在展示LLMS的认知动力学。面对不断变化的信息流,Coggpt定期更新其配置文件,并有条不紊地存储首选知识。这种独特的能力使Coggpt能够维持特定角色的认知动力,从而促进终身学习。

请按照以下步骤构建Cogbench:
cd命令输入存储库目录。dataset集目录中。cogbench_a.json和cogbench_v.json为Cogbench A和Cogbench V实现您的方法,并记录您的实验结果。eval_cogbench_a.json和eval_cogbench_v.json文件,并通过您的实验结果进行评估。 export OPENAI_API_KEY=sk-xxxxxpython coggpt/agent.py为了根据真实性和合理性指标评估您的方法,我们建议运行以下命令:
python evaluation.py --file_path < YOUR_FILE_PATH > --method < YOUR_METHOD_NAME > --authenticity --rationality例如,要评估Cogbench V上的CoT方法,请运行:
python evaluation.py --file_path dataset/english/eval_cogbench_v.json --method CoT --authenticity --rationality评估分数将显示如下:
======= CoT Authenticity =======
Average authenticity: 0.15277666156947955
5th iteration authenticity: 0.3023255813953488
10th iteration authenticity: 0.13135593220338992
======= CoT Rationality =======
Average rationality: 3.058333333333333
5th iteration rationality: 3.7666666666666666
10th iteration rationality: 3.0833333333333335有关更多详细信息,请参考Cogbench。
@misc{lv2024coggpt,
title={CogGPT: Unleashing the Power of Cognitive Dynamics on Large Language Models},
author={Yaojia Lv and Haojie Pan and Ruiji Fu and Ming Liu and Zhongyuan Wang and Bing Qin},
year={2024},
eprint={2401.08438},
archivePrefix={arXiv},
primaryClass={cs.CL}
}