Deep Learning for Time Series Prognose, Klassifizierung und Anomalie -Erkennung
| Dokumentation | |
| Codecov | |
| Codefaktor | |
Erste Schritte
Verwenden der Bibliothek
- Führen Sie
pip install flood-forecast - Detaillierte Informationen zu Trainingsmodellen finden Sie im Wiki.
- Schauen Sie sich unsere Confluence -Dokumentation an
Modelle derzeit unterstützt
- Vanilla LSTM (LSTM): Ein grundlegendes LSTM, das für multivariate Zeitreihenprognosen und Übertragungslernen geeignet ist.
- Vollständiger Transformator (Simplansformer in model_dict): Der vollständige Originaltransformator mit allen 8 Encoder- und Decoderblöcken. Erfordert das Ziel in Folgerung.
- Einfache Aufmerksamkeit mit mehreren Kopf (MultiheadSimple): Ein einfacher Aufmerksamkeitsblock mit mehreren Kopf und linearen Einbettungsschichten. Geeignet für das Transferlernen.
- Transformator mit einem linearen Decoder (CustomTransformerDeCoder in model_dict): Ein Transformator mit N-Ccoder-Blöcken (das ist einstellbar) und einem linearen Decoder. Geeignet für die Prognose, Klassifizierung oder Anomalieerkennung.
- DA-RNN: (Darnn) Ein gut abgerundetes Modell, mit dem eine LSTM + Aufmerksamkeit verwendet wird.
- Verbesserung der Lokalität und Brechen des Speicher Engpass des Transformators in der Zeitreihenprognose (Decodertransformer in Model_Dict genannt):
- Transformator XL: Porting Transformator XL für Zeitreihen.
- Informant: Über den effizienten Transformator hinaus für lange Sequenz-Zeitreihen-Prognosen (Informant)
- Deepar
- DSANET: Modell aus dem DSANET -Papier mit zusätzlichen optionalen Parametern.
- Einfaches lineares Modell (SimpleLineArmodel): Im Wesentlichen ein lineares Regressionsmodell mit einigen weiteren Ebenen. Ideal für schnelle Prototypen von Merkmalen und Interpretierbarkeit.
- Vanille -Gru mit optionaler wahrscheinlicher Ausgangsschicht. Gut für multivariate Zeitreihenprognosen und Klassifizierung.
- Dlinear und Nlinear aus dem AAAI -Papier sind Transformatoren, die für die Zeitreihenprognose wirksam sind
- Crossformer von ICLR 2023
- Anomalie -Transformator
- Tsmixer
- Umgekehrter Transformator + verschiedene Aufmerksamkeitsmechanismen
Bevorstehende Modelle
Wir haben eine Reihe von Modellen, die wir bald veröffentlichen möchten. Bitte überprüfen Sie unser Projektboard, um weitere Informationen zu erhalten
Integrationen
Google Cloud -Plattform
Gewichte und Vorurteile
Beitragen
Anweisungen zum Beitrag zur Beiträge finden Sie auf unserer Beiträge Seite und unserem Projektausschuss.
Historische Flussflussdaten
Aufgabe 1 Stream Flow Prognosen
Diese Aufgabe konzentriert sich auf die Vorhersage des zukünftigen Flusses/der Höhe eines Streams (entweder in CFS bzw. Füßen), angegebene Faktoren wie Stromfluss, Temperatur und Niederschlag. In Zukunft planen wir, weitere Variablen hinzuzufügen, die bei der Vorhersage des Stromflusses wie Schneepackdaten und dem umgebenden Bodenfeuchtigkeitsindex helfen.
Aufgabe 2 Hochwasserschweregegitation Vorhersage
Aufgabe zwei konzentriert sich auf die Vorhersage der Schwere der Überschwemmung aufgrund der Hochwasserprognose, der Bevölkerungsinformationen und der Topographie. Der Schweregrad der Überschwemmung wird auf der Grundlage mehrerer Faktoren definiert, einschließlich der Anzahl der Verletzungen, Sachschäden und Ernteschäden.
Wenn Sie entweder die Daten oder den Code aus diesem Repository verwenden, verwenden Sie bitte das folgende Zitat. Bitte zitieren Sie die ursprünglichen Autoren der Modelle.
@misc{godfried2020flowdb,
title={FlowDB a large scale precipitation, river, and flash flood dataset},
author={Isaac Godfried and Kriti Mahajan and Maggie Wang and Kevin Li and Pranjalya Tiwari},
year={2020},
eprint={2012.11154},
archivePrefix={arXiv},
primaryClass={cs.AI}
}