Este repo contém código, explicações e resultados de experimentos para determinar a propensão de modelos de grande língua para cooperar em dilemas sociais. Os experimentos são descritos nos seguintes trabalhos.
S. Phelps e Yi Russell, investigando um comportamento emergente semelhante a objetivos em grandes modelos de idiomas usando economia experimental , trabalho de trabalho, maio de 2023, arxiv: 2305.07970
S. Phelps e R. Rannson, de modelos e homens de lata-um estudo de economia comportamental de problemas de agentes principais no alinhamento da IA usando modelos de grande língua , trabalho de trabalho, julho de 2023, arxiv: 2307.11137
export OPENAI_API_KEY= ' <my key> '
make install
make runPara executar experimentos específicos e combinações de parâmetros, siga as instruções abaixo.
mkdir ~ /.llm-cooperation
cat > ~ /.llm-cooperation/llm_config.py << EOF
grid = {
"temperature": [0.1, 0.6],
"model": ["gpt-3.5-turbo", "gpt-4"],
"max_tokens": [300]
}
num_replications = 3
experiments = ["dictator", "dilemma"]
EOF Editar $HOME/.llm-cooperation/llm_config.py com valores necessários.
Em uma concha:
export OPENAI_API_KEY= ' <key> '
make runSe você tiver um novo experimento, envie uma solicitação de tração. Todo o código deve ter testes correspondentes e todas as experiências devem ser replicáveis.