O HumanPrompt é uma estrutura para um design humano-humano, gerenciar, compartilhar e usar mais fáceis de seres humanos, compartilhamento e uso de métodos rápidos e rápidos. É especialmente projetado para pesquisadores. Ainda está em andamento?, Bem -vindo a receber novas contribuições sobre métodos e módulos. Confira nossa proposta aqui.
Em primeiro lugar, clone este repo e depois execute:
pip install -e . Isso instalará o pacote HumanPrompt e adicionará o hub de link suave ao ./humanprompt/artifacts/hub .
Então você precisa definir algumas variáveis ambientais, como a chave da API OpenAI:
export OPENAI_API_KEY = " YOUR_OPENAI_API_KEY "Então, depende de como você usará este repo. Por enquanto, a missão deste repo é ajudar os pesquisadores a verificar suas idéias. Portanto, tornamos realmente flexível estender e usar.
Um exemplo mínimo para executar um método é o seguinte:
Nosso uso é bastante simples, é quase parecido se você já usou Transformers do Huggingface antes.
Por exemplo, use a cadeia de pensamento no Commonsenseqa:
from humanprompt . methods . auto . method_auto import AutoMethod
from humanprompt . tasks . dataset_loader import DatasetLoader
# Get one built-in method
method = AutoMethod . from_config ( method_name = "cot" )
# Get one dataset, select one example for demo
data = DatasetLoader . load_dataset ( dataset_name = "commonsense_qa" , dataset_split = "test" )
data_item = data [ 0 ]
# Adapt the raw data to the method's input format, (we will improve this part later)
data_item [ "context" ] = "Answer choices: {}" . format (
" " . join (
[
"({}) {}" . format ( label . lower (), text . lower ())
for label , text in zip (
data_item [ "choices" ][ "label" ], data_item [ "choices" ][ "text" ]
)
]
)
)
# Run the method
result = method . run ( data_item )
print ( result )
print ( data_item )Zero-shot text2sql:
import os
from humanprompt . methods . auto . method_auto import AutoMethod
from humanprompt . tasks . dataset_loader import DatasetLoader
method = AutoMethod . from_config ( "db_text2sql" )
data = DatasetLoader . load_dataset ( dataset_name = "spider" , dataset_split = "validation" )
data_item = data [ 0 ]
data_item [ "db" ] = os . path . join (
data_item [ "db_path" ], data_item [ "db_id" ], data_item [ "db_id" ] + ".sqlite"
)
result = method . run ( data_item )
print ( result )
print ( data_item ) Adotamos o paradigma "uma configuração, um experimento" para facilitar a pesquisa, especialmente ao agradar diferentes métodos de solicitação. No arquivo de configuração de cada experimento (.yaml) em examples/configs/ , você pode configurar o conjunto de dados, método de solicitação e métricas.
A seguir, é apresentado um exemplo de arquivo de configuração para o método da cadeia de pensamentos no GSM8K:
---
dataset :
dataset_name : " gsm8k " # dataset name, aligned with huggingface dataset if loaded from it
dataset_split : " test " # dataset split
dataset_subset_name : " main " # dataset subset name, null if not used
dataset_key_map : # mapping original dataset keys to humanprompt task keys to unify the interface
question : " question "
answer : " answer "
method :
method_name : " cot " # method name to initialize the prompting method class
method_config_file_path : null # method config file path, null if not used(will be overriden by method_args).
method_args :
client_name : " openai " # LLM API client name, adopted from github.com/HazyResearch/manifest
transform : " cot.gsm8k.transform_cot_gsm8k.CoTGSM8KTransform " # user-defined transform class to build the prompts
extract : " cot.gsm8k.extract_cot_gsm8k.CoTGSM8KExtract " # user-defined extract class to extract the answers from output
extraction_regex : " .*The answer is (.*). n ? " # user-defined regex to extract the answer from output
prompt_file_path : " cot/gsm8k/prompt.txt " # prompt file path
max_tokens : 512 # max generated tokens
temperature : 0 # temperature for generated tokens
engine : code-davinci-002 # LLM engine
stop_sequence : " nn " # stop sequence for generation
metrics :
- " exact_match " # metrics to evaluate the results Os usuários podem criar as classes transform e extract para personalizar o processo de geração imediata e responder a extração. O arquivo prompt pode ser substituído ou especificado de acordo com a necessidade do usuário.
Para executar experimentos, você pode especificar o nome do experimento e outras meta -configurações na linha de comando sob examples/ diretório.
Por exemplo, execute o seguinte comando para executar a cadeia de pensamento no GSM8K:
python run_experiment.py
--exp_name cot-gsm8k
--num_test_samples 300 Para uma nova combinação de métodos e tarefas, você pode simplesmente adicionar um novo arquivo de configuração em examples/configs/ e executar o comando.
.
├── examples
│ ├── configs # config files for experiments
│ ├── main.py # one sample demo script
│ └── run_experiment.py # experiment script
├── hub # hub contains static files for methods and tasks
│ ├── cot # method Chain-of-Thought
│ │ ├── gsm8k # task GSM8K, containing prompt file and transform/extract classes, etc.
│ │ └── ...
│ ├── ama_prompting # method Ask Me Anything
│ ├── binder # method Binder
│ ├── db_text2sql # method text2sql
│ ├── react # method ReAct
│ ├── standard # method standard prompting
│ └── zero_shot_cot # method zero-shot Chain-of-Thought
├── humanprompt # humanprompt package, containing building blocks for the complete prompting pipeline
│ ├── artifacts
│ │ ├── artifact.py
│ │ └── hub
│ ├── components # key components for the prompting pipeline
│ │ ├── aggregate # aggregate classes to aggregate the answers
│ │ ├── extract # extract classes to extract the answers from output
│ │ ├── post_hoc.py # post-hoc processing
│ │ ├── prompt.py # prompt classes to build the prompts
│ │ ├── retrieve # retrieve classes to retrieve in-context examples
│ │ └── transform # transform classes to transform the raw data to the method's input format
│ ├── evaluators # evaluators
│ │ └── evaluator.py # evaluator class to evaluate the dataset results
│ ├── methods # prompting methods, usually one method is related to one paper
│ │ ├── ama_prompting # Ask Me Anything(https://arxiv.org/pdf/2210.02441.pdf)
│ │ ├── binder # Binder(https://arxiv.org/pdf/2210.02875.pdf)
│ │ └── ...
│ ├── tasks # dataset loading and preprocessing
│ │ ├── add_sub.py # AddSub dataset
│ │ ├── wikitq.py # WikiTableQuestions dataset
│ │ └── ...
│ ├── third_party # third party packages
│ └── utils # utils
│ ├── config_utils.py
│ └── integrations.py
└── tests # test scripts
├── conftest.py
├── test_datasetloader.py
└── test_method.py
Este repositório foi projetado para os pesquisadores fornecerem usos rápidos e manipulação fácil de diferentes métodos rápidos. Passamos muito tempo para facilitar a extensão e o uso, portanto, esperamos que você possa contribuir com este repositório.
Se você estiver interessado em contribuir com seu método para esta estrutura, pode:
humanprompt/methods Yourself. Para fazer isso, você deve seguir as seguintes etapas:main , nomeado métodos../humanprompt/methods e adicione seu método na pasta ./humanprompt/methods/your_method_name , pasta,./hub/your_method_name ,./examples em ./hub/your_method_name para configurar o uso básico deste método,./examples para executar e testar seu método.main .Usamos pré-compromisso para controlar a qualidade do código. Antes de se comprometer, execute o código abaixo para analisar seu código e corrigir os problemas.
pip install pre-commit
pre-commit install # install all hooks
pre-commit run --all-files # trigger all hooks
Você pode usar git commit --no-verify para pular e permitir que lidar com isso mais tarde.
Se você achar esse repositório útil, cite nosso projeto e manifeste:
@software { humanprompt ,
author = { Tianbao Xie and
Zhoujun Cheng and
Yiheng Xu and
Peng Shi and
Tao Yu } ,
title = { A framework for human-readable prompt-based method with large language models } ,
howpublished = { url{https://github.com/hkunlp/humanprompt} } ,
year = 2022 ,
month = October
} @misc { orr2022manifest ,
author = { Orr, Laurel } ,
title = { Manifest } ,
year = { 2022 } ,
publisher = { GitHub } ,
howpublished = { url{https://github.com/HazyResearch/manifest} } ,
}