
O GPBoost é uma biblioteca de software para combinar o aumento de árvores com o processo gaussiano e os modelos de efeitos aleatórios agrupados (também conhecidos como modelos de efeitos mistos ou modelos latentes gaussianos). Ele também permite aplicar independentemente o aumento de árvores, bem como o processo gaussiano e modelos de efeitos mistos lineares (generalizados) (LMMs e GlmMs). A biblioteca GPBoost está predominantemente escrita em C ++, possui uma interface C e existe um pacote Python e um pacote R.
Para mais informações, você pode querer dar uma olhada:
As postagens seguintes do blog :
O guia de instalação da CLI explicando como instalar a versão da interface da linha de comando (CLI)
Comentários sobre eficiência computacional e dados grandes
A documentação em https://gpboost.readthedocs.io
O algoritmo GPBoost combina o aumento de árvores com modelos gaussianos latentes, como o processo gaussiano (GP) e os modelos de efeitos aleatórios agrupados. Isso permite alavancar as vantagens e remediar desvantagens dos modelos gaussianos e latentes; Veja abaixo uma lista de força e fraquezas dessas duas abordagens de modelagem. O algoritmo GPBoost pode ser visto como uma generalização dos efeitos mistos lineares tradicionais (generalizados) e dos modelos de processos gaussianos e o aumento de árvores independentes clássicas (que geralmente têm a maior previsão para dados tabulares).
Comparado aos efeitos mistos lineares (generalizados) e modelos de processos gaussianos, o algoritmo GPBoost permite
Comparado ao aumento independente clássico, o algoritmo GPBoost permite
Para as probabilidades gaussianas (algoritmo GPBoost) , supõe-se que a variável de resposta (também conhecida como rótulo) y é a soma de uma função média potencialmente não linear F (x) e efeitos aleatórios ZB:
y = F(X) + Zb + xi
onde f (x) é uma soma (= "conjunto") de árvores, xi é um termo de erro independente e x são variáveis preditores (também conhecidas como covariáveis ou recursos). Os efeitos aleatórios ZB podem consistir atualmente em:
Para probabilidades não gaussianas (algoritmo de lagaboost) , supõe-se que a variável de resposta y segue uma distribuição p (y | m) e que um parâmetro (potencialmente multivariado) M desta distribuição está relacionado a uma função não linear F (x) e efeitos aleatórios zb:
y ~ p(y|m)
m = G(F(X) + Zb)
onde g () é a chamada função de link. Veja aqui uma lista de probabilidades atualmente suportadas P (y | m).
Estimando ou treinando os modelos acima mencionados significa aprender os parâmetros de covariância (também conhecidos como hiperparâmetros) dos efeitos aleatórios e da função preditora F (x). Os algoritmos GPBoost e o Lagaboost aprendem iterativamente os parâmetros de covariância e adicionam uma árvore ao conjunto de árvores f (x) usando um gradiente funcional e/ou uma etapa de reforço de Newton. Veja Sigrist (2022, JMLR) e Sigrist (2023, TPAMI) para obter mais detalhes.
| Pontos fortes | Fraquezas |
|---|---|
| -Precisão de previsão de última geração | - assume a independência condicional de amostras |
| -Modelagem automática de não linearidades, descontinuidades e interações complexas de alta ordem | - produz previsões descontínuas para, por exemplo, dados espaciais |
| - robustos para outliers e multicolinearidade entre variáveis preditivas | - pode ter dificuldade com variáveis categóricas de alta cardinalidade |
| - Transformações invariantes para escala para monótono de variáveis preditivas | |
| - Manipulação automática de valores ausentes em variáveis preditivas |
| Pontos fortes | Fraquezas |
|---|---|
| - Previsões probabilísticas que permitem quantificação de incerteza | - zero ou uma média anterior (preditora, efeitos fixos) função |
| - Incorporação de conhecimento prévio razoável. Por exemplo, para dados espaciais: "As amostras próximas são mais semelhantes entre si do que as amostras distantes" e uma função deve variar continuamente / suavemente sobre o espaço | |
| - Modelagem de dependência que, entre outras coisas, pode permitir uma aprendizagem mais eficiente da função de efeitos fixos (preditor) | |
| - Efeitos aleatórios agrupados podem ser usados para modelar variáveis categóricas de alta cardinalidade |
Este projeto está licenciado nos termos da licença Apache 2.0. Consulte a licença para obter mais informações.