Dieses Repo enthält Code, Erklärungen und Ergebnisse von Experimenten, um die Neigung von Modellen mit großer Sprache zu ermitteln, um in sozialen Dilemmata zusammenzuarbeiten. Die Experimente werden in den folgenden Papieren beschrieben.
S. Phelps und Yi Russell, untersucht das aufstrebende zielartige Verhalten in Großsprachenmodellen mit experimenteller Ökonomie , Arbeitspapier, Mai 2023, ARXIV: 2305.07970
S. Phelps und R. Rannson, von Modellen und Tin Men-Eine Studie zur Verhaltensökonomie zu Problemen mit Hauptveranstaltungen in der AI-Ausrichtung unter Verwendung von Modellen mit großer Sprache , Arbeitspapier, Juli 2023, ARXIV: 2307.11137
export OPENAI_API_KEY= ' <my key> '
make install
make runUm spezifische Experimente und Parameterkombinationen auszuführen, folgen Sie den Anweisungen unten.
mkdir ~ /.llm-cooperation
cat > ~ /.llm-cooperation/llm_config.py << EOF
grid = {
"temperature": [0.1, 0.6],
"model": ["gpt-3.5-turbo", "gpt-4"],
"max_tokens": [300]
}
num_replications = 3
experiments = ["dictator", "dilemma"]
EOF Bearbeiten Sie $HOME/.llm-cooperation/llm_config.py mit den erforderlichen Werten.
In einer Schale:
export OPENAI_API_KEY= ' <key> '
make runWenn Sie ein neues Experiment haben, senden Sie bitte eine Pull -Anfrage. Alle Code sollten entsprechende Tests haben und alle Experimente sollten reproduzierbar sein.