Ce repo contient du code, des explications et des résultats des expériences pour déterminer la propension des modèles à grande langue pour coopérer dans les dilemmes sociaux. Les expériences sont décrites dans les articles suivants.
S. Phelps et Yi Russell, Investigation sur le comportement émergent de type objectif dans les modèles de grande langue à l'aide de l'économie expérimentale , papier de travail, mai 2023, Arxiv: 2305.07970
S. Phelps et R. Rannon, de Models and Tin Men - Une étude d'économie comportementale des problèmes d'agent principal dans l'alignement de l'IA à l'aide de modèles à grande langue , document de travail, juillet 2023, Arxiv: 2307.11137
export OPENAI_API_KEY= ' <my key> '
make install
make runPour exécuter des expériences et des combinaisons de paramètres spécifiques, suivez les instructions ci-dessous.
mkdir ~ /.llm-cooperation
cat > ~ /.llm-cooperation/llm_config.py << EOF
grid = {
"temperature": [0.1, 0.6],
"model": ["gpt-3.5-turbo", "gpt-4"],
"max_tokens": [300]
}
num_replications = 3
experiments = ["dictator", "dilemma"]
EOF EDIT $HOME/.llm-cooperation/llm_config.py avec les valeurs requises.
Dans une coquille:
export OPENAI_API_KEY= ' <key> '
make runSi vous avez une nouvelle expérience, veuillez soumettre une demande de traction. Tout le code doit subir des tests correspondants et toutes les expériences doivent être reproductibles.