
Neuralforecast는 성능, 유용성 및 견고성에 중점을 둔 다양한 신경 예측 모델을 제공합니다. 이 모델은 RNNS와 같은 클래식 네트워크에서 MLP , LSTM , GRU , RNN , TCN , TimesNet , BiTCN , DeepAR , NBEATSx , NBEATS , NHITS , TiDE , DeepNPTS , TSMixer , TSMixerx , MLPMultivariate , DINEAR, DINIAR, DLinear , TFT , NLinear , Informer , AutoFormer , FedFormer , PatchTST , iTransformer , StemGNN 및 TimeLLM .
다음과 함께 NeuralForecast 설치할 수 있습니다.
pip install neuralforecast또는
conda install - c conda - forge neuralforecast자세한 내용은 설치 안내서를 vist하십시오.
최소한의 예
from neuralforecast import NeuralForecast
from neuralforecast . models import NBEATS
from neuralforecast . utils import AirPassengersDF
nf = NeuralForecast (
models = [ NBEATS ( input_size = 24 , h = 12 , max_steps = 100 )],
freq = 'M'
)
nf . fit ( df = AirPassengersDF )
nf . predict ()이 빠른 가이드로 시작하십시오.
예측 파이프 라인의 정확성과 효율성을 향상시키는 신경 예측 방법의 용량에 대한 공유 된 신념이 있습니다.
불행히도, 이용 가능한 구현과 출판 된 연구는 아직 신경망의 잠재력을 인식하지 못했습니다. 그것들은 사용하기 어렵고 계산적으로 금지되는 동안 통계적 방법에 비해 지속적으로 개선하지 못합니다. 이러한 이유로, 우리는 유용성에 중점을 둔 정확하고 효율적인 모델을 선호하는 라이브러리 인 NeuralForecast 만들었습니다.
.fit and .predict . NHITS 구현. 종이 및 실험을 참조하십시오.NBEATSx 구현. 종이를 참조하십시오.StatsForecast , MLForecast 및 HierarchicalForecast 인터페이스 NeuralForecast().fit(Y_df).predict() , 입력 및 출력으로 통합.utilsforecast 및 coreforecast 와의 내장 통합.Ray 및 Optuna 와의 통합.뭔가 빠졌나요? 문제를 열거나 우리를 쓰십시오
문서 페이지에는 모든 예제 및 튜토리얼이 포함되어 있습니다.
? 자동 하이퍼 파라미터 최적화 : Ray 또는 Optuna 의 Auto 모델을 사용한 쉽고 확장 가능한 자동 하이퍼 파라미터 최적화.
? ️ 외인성 회귀 자 : 날씨 나 가격과 같은 정적 또는 시간적 외인성 공변량을 통합하는 방법.
? 변압기 모델 : 많은 최첨단 변압기 모델로 예측하는 방법을 배우십시오.
? 계층 적 예측 : 0이 아닌 관측치가 거의없는 예측 시리즈.
? ? 나만의 모델 추가 : 라이브러리에 새 모델을 추가하는 방법을 알아보십시오.
여기에서 전체 컬렉션을 참조하십시오.
모델이 없습니까? 문제를 열거나 우리를 쓰십시오
프로젝트에 기여하려면 기여 가이드 라인을 참조하십시오.
이 작업은 여기에 제시된 신경 예측 방법에 대한 이전 기고자 및 다른 학자의 환상적인 작업에 크게 영향을받습니다. 우리는 Boris Oreshkin, Slawek Smyl, Bryan Lim 및 David Salinas의 작품을 강조하고 싶습니다. 우리는 Benidis et al. 신경 예측 방법에 대한 포괄적 인 조사.
이 멋진 사람들에게 감사합니다 (이모티콘 키) :
아잘 ? | 크리스티안 challu ? | 호세 모랄레스 ? | Mergenthaler | 혈연 ? ? | Greg Devos ? | 알레한드로 |
Stefanialvs ? | 이코 아시민 ? | vglaucus ? | 피에트로 몬티콘 ? |
이 프로젝트는 All-Contritors 사양을 따릅니다. 모든 종류의 공헌을 환영합니다!