Eine Python-Toolbox für maschinelles Lernen auf teilweise beobachteten Zeitreihen
⦿ Motivation : Aus allen möglichen Gründen wie dem Versagen von Sammlungssensoren, Kommunikationsfehlern und unerwarteten Fehlfunktionen können fehlende Werte in Zeitreihen aus der realen Umgebung häufig angezeigt werden. Dies macht teilweise beobachtete Zeitreihen (POTs) zu einem allgegenwärtigen Problem bei der Modellierung von Open-World und verhindert die erweiterte Datenanalyse. Obwohl dieses Problem wichtig ist, fehlt dem Bereich des maschinellen Lernens auf Töpfen immer noch ein spezielles Toolkit. PYPOTS wird erstellt, um diese Rohlage auszufüllen.
⦿ Mission : Pypots (ausgesprochen "Torten -Töpfe") wird geboren, um eine praktische Toolbox zu werden, die das maschinelle Lernen auf Töpfen eher leicht als mühsam macht, um Ingenieuren und Forschern zu helfen, sich mehr auf die Kernprobleme in ihren Händen zu konzentrieren als auf die Umgang mit den fehlenden Teilen in ihren Daten. Pypots werden weiterhin klassische und neueste moderne Lernalgorithmen für teilweise beobachtete multivariate Zeitreihen integrieren. Neben verschiedenen Algorithmen wird Pypots einheitlich mit detaillierten Dokumentationen und interaktiven Beispielen über Algorithmen als Tutorials einheitlich sein.
? Bitte spielen Sie dieses Repo mit, um anderen Pypots zu bemerken, wenn Sie der Meinung sind, dass es sich um ein nützliches Toolkit handelt. Bitte zitieren Sie Pypots in Ihren Veröffentlichungen, wenn dies bei Ihrer Forschung hilft. Dies bedeutet wirklich viel für unsere Open-Source-Forschung. Danke schön!
Der Rest dieser Readme -Datei ist wie folgt organisiert: ❖ Verfügbare Algorithmen , ❖ Pypots -Ökosystem , ❖ Installation , ❖ Verwendung , ❖ Zitieren von Pypots , ❖ Beitrag , ❖ Community .
PYPOTS unterstützt die Aufgaben der Aufhebung, Klassifizierung, Clusterbildung, Prognose und Anomalie zu multivariaten teilweise beobachteten Zeitreihen mit fehlenden Werten. Die folgende Tabelle zeigt die Verfügbarkeit jedes Algorithmus (sortiert nach Jahr) in Pypots für verschiedene Aufgaben. Das Symbol ✅ gibt an, dass der Algorithmus für die entsprechende Aufgabe verfügbar ist (beachten Sie, dass Modelle in Zukunft kontinuierlich aktualisiert werden, um Aufgaben zu erledigen, die derzeit nicht unterstützt werden.
? Seit V0.2 erhalten alle Neural-Network-Modelle in Pypots eine hyperparameteroptimierende Unterstützung. Diese Funktionalität wird mit dem Microsoft NNI -Framework implementiert. Möglicherweise möchten Sie auf unsere Time-Serie Imputation Repo Repo Awesome_Imputation verweisen, um zu sehen, wie die Hyperparameter konfiguriert und eingestellt werden können.
Beachten Sie, dass alle Modelle mit ?? In der Tabelle (EG -Transformator, Itransformer, Informant usw.) werden ursprünglich nicht als Algorithmen für POT -Daten in ihren Papieren vorgeschlagen, und sie können Zeitreihen mit fehlenden Werten als Eingabe nicht direkt akzeptieren, geschweige denn die Imputation. Um sie auf POT -Daten anwendbar zu machen, wenden wir speziell den Einbettungsstrategie- und Schulungsansatz (ORT+MIT) an wie in der Saits Paper 1 .
Die Task -Typen werden wie folgt abgekürzt: IMPU : Imput; FORE : Vorhersage; CLAS : Klassifizierung; CLUS : Clustering; ANOD : Anomalieerkennung. Die Papierreferenzen und -Links sind alle unten in dieser Datei aufgeführt.
| Typ | Algo | ImpU | VORDERGRUND | Clas | Clus | Anod | Jahr - Veranstaltungsort |
|---|---|---|---|---|---|---|---|
| Llm | Zeitreihen.ai 2 | ✅ | ✅ | ✅ | ✅ | ✅ | Later in 2024 |
| Neuronales Netz | Tefn? ? 3 | ✅ | 2024 - arXiv | ||||
| Neuronales Netz | Passt? ? 4 | ✅ | 2024 - ICLR | ||||
| Neuronales Netz | Timemixer 5 | ✅ | 2024 - ICLR | ||||
| Neuronales Netz | Itransformer? ? 6 | ✅ | 2024 - ICLR | ||||
| Neuronales Netz | Moderntcn 7 | ✅ | 2024 - ICLR | ||||
| Neuronales Netz | Imputeformer? ? 8 | ✅ | 2024 - KDD | ||||
| Neuronales Netz | Saits 1 | ✅ | 2023 - ESWA | ||||
| Neuronales Netz | Bünde? ? 9 | ✅ | 2023 - NeurIPS | ||||
| Neuronales Netz | Koopa? ? 10 | ✅ | 2023 - NeurIPS | ||||
| Neuronales Netz | Crossformer? ? 11 | ✅ | 2023 - ICLR | ||||
| Neuronales Netz | Timesnet 12 | ✅ | 2023 - ICLR | ||||
| Neuronales Netz | Patchtst? ? 13 | ✅ | 2023 - ICLR | ||||
| Neuronales Netz | Etsformer? ? 14 | ✅ | 2023 - ICLR | ||||
| Neuronales Netz | Micn? ? 15 | ✅ | 2023 - ICLR | ||||
| Neuronales Netz | Dlinear? ? 16 | ✅ | 2023 - AAAI | ||||
| Neuronales Netz | Tide? 17 | ✅ | 2023 - TMLR | ||||
| Neuronales Netz | CSAI 18 | ✅ | ✅ | 2023 - arXiv | |||
| Neuronales Netz | Segrnn? ? 19 | ✅ | 2023 - arXiv | ||||
| Neuronales Netz | Scinet? ? 20 | ✅ | 2022 - NeurIPS | ||||
| Neuronales Netz | Nonstationary Tr.?? 21 | ✅ | 2022 - NeurIPS | ||||
| Neuronales Netz | Film? 22 | ✅ | 2022 - NeurIPS | ||||
| Neuronales Netz | Revin_Scinet? ? 23 | ✅ | 2022 - ICLR | ||||
| Neuronales Netz | Pyraformer? ? 24 | ✅ | 2022 - ICLR | ||||
| Neuronales Netz | Regentropfen 25 | ✅ | 2022 - ICLR | ||||
| Neuronales Netz | Fedformer? ? 26 | ✅ | 2022 - ICML | ||||
| Neuronales Netz | AutoFormer? ? 27 | ✅ | 2021 - NeurIPS | ||||
| Neuronales Netz | CSDI 28 | ✅ | ✅ | 2021 - NeurIPS | |||
| Neuronales Netz | Informant? 29 | ✅ | 2021 - AAAI | ||||
| Neuronales Netz | US-Gan 30 | ✅ | 2021 - AAAI | ||||
| Neuronales Netz | CRLI 31 | ✅ | 2021 - AAAI | ||||
| Probabilistisch | BTTF 32 | ✅ | 2021 - TPAMI | ||||
| Neuronales Netz | Stemgnn? ? 33 | ✅ | 2020 - NeurIPS | ||||
| Neuronales Netz | Reformer? 34 | ✅ | 2020 - ICLR | ||||
| Neuronales Netz | GP-vae 35 | ✅ | 2020 - AISTATS | ||||
| Neuronales Netz | Vader 36 | ✅ | 2019 - GigaSci. | ||||
| Neuronales Netz | M-RNN 37 | ✅ | 2019 - TBME | ||||
| Neuronales Netz | Briten 38 | ✅ | ✅ | 2018 - NeurIPS | |||
| Neuronales Netz | GRU-D 39 | ✅ | ✅ | 2018 - Sci. Rep. | |||
| Neuronales Netz | Tcn? ? 40 | ✅ | 2018 - arXiv | ||||
| Neuronales Netz | Transformator? 41 | ✅ | 2017 - NeurIPS | ||||
| Naiv | LERP 42 | ✅ | |||||
| Naiv | Locf/nocb | ✅ | |||||
| Naiv | Bedeuten | ✅ | |||||
| Naiv | Mittlere | ✅ |
? Tragen Sie jetzt Ihr Modell bei, um Ihre Forschungsauswirkungen zu erhöhen! PYPOTS -Downloads nehmen schnell zu ( 300K+ insgesamt und bisher täglich 1k+ täglich ), und Ihre Arbeit wird von der Community weit verbreitet und zitiert. Weitere Informationen finden Sie im Beitragsanleitung, um Ihr Modell in Pypots einzubeziehen.
Bei Pypots hängen die Dinge mit Kaffee zusammen, mit denen wir vertraut sind. Ja, das ist ein Kaffeeuniversum! Wie Sie sehen können, gibt es eine Kaffeekanne im Pypots -Logo. Und was noch? Bitte lesen Sie weiter ;-)
? Zeitreihendatensätze werden als Kaffeebohnen bei Pypots genommen, und Pots -Datensätze sind unvollständige Kaffeebohnen mit fehlenden Teilen, die ihre eigenen Bedeutungen haben. Um den Benutzern verschiedene öffentliche Zeitreihendatensätze zur Verfügung zu stellen, wird Time Series Data Beans (TSDB) erstellt, um das Laden von Zeitreinigendatensätzen super einfach zu machen! Besuchen Sie jetzt TSDB, um mehr über dieses handliche Tool zu erfahren? Und jetzt unterstützt es insgesamt 172 Open-Source-Datensätze!
Um die realen Datenbohnen mit Fehlenden zu simulieren, wird der Pygrinder der Ökosystembibliothek, ein Toolkit, das Ihre Kaffeebohnen in unvollständige Schleifbeer in unvollständige Weise mahlt. Fehlende Muster fallen in drei Kategorien nach Robins Theorie 43 : MCAR (vollständig zufällig fehlen), Mar (zufällig fehlen) und MNAR (nicht zufällig fehlen). Pygrinder unterstützt alle und zusätzliche Funktionen im Zusammenhang mit Fehlern. Mit Pygrinder können Sie synthetische fehlende Werte in Ihre Datensätze mit einer einzigen Codezeile einführen.
? Um die Leistung von PYPOTS-Algorithmen fair zu bewerten, entsteht die Benchmarking Suite-Benchpots, die Standard- und einheitliche Datenpublikumspipelines zur Herstellung von Datensätzen zur Messung der Leistung verschiedener POTS-Algorithmen bei verschiedenen Aufgaben bieten.
Jetzt sind die Bohnen, Mühle und Topf bereit, bitte haben Sie einen Sitz auf der Bank und überlegen Sie, wie wir uns eine Tasse Kaffee brauen können. Tutorials sind notwendig! In Anbetracht der zukünftigen Arbeitsbelastung werden PYPOTS -Tutorials in einem einzigen Repo veröffentlicht, und Sie finden sie in Brewpots. Schauen Sie es sich jetzt an und lernen Sie, wie Sie Ihre Pots -Datensätze brauen!
☕️ Willkommen im Universum von Pypots. Genieße es und hab Spaß!
Sie können die Installationsanweisung in der PYPOTS -Dokumentation für eine Richtlinie mit weiteren Details finden.
PYPOTS ist sowohl für PYPI als auch für Anaconda erhältlich. Sie können Pypots wie unten sowie TSDB, Pygrinder, Benchpots und AI4Ts installieren:
# via pip
pip install pypots # the first time installation
pip install pypots --upgrade # update pypots to the latest version
# install from the latest source code with the latest features but may be not officially released yet
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip
# via conda
conda install conda-forge::pypots # the first time installation
conda update conda-forge::pypots # update pypots to the latest version Neben Brewpots finden Sie auch ein einfaches und schnelles Tutorial-Notebook in Google Colab. Wenn Sie weitere Fragen haben, lesen Sie bitte die PYPOTS -Dokumentation docs.pypots.com. Sie können auch ein Problem aufwerfen oder in unserer Community fragen.
Wir präsentieren Ihnen ein Nutzungsbeispiel, um fehlende Werte in Zeitreihen mit pypots unten zu initutieren. Sie können darauf klicken, um sie anzuzeigen.
# Data preprocessing. Tedious, but PyPOTS can help.
import numpy as np
from sklearn . preprocessing import StandardScaler
from pygrinder import mcar
from pypots . data import load_specific_dataset
data = load_specific_dataset ( 'physionet_2012' ) # PyPOTS will automatically download and extract it.
X = data [ 'X' ]
num_samples = len ( X [ 'RecordID' ]. unique ())
X = X . drop ([ 'RecordID' , 'Time' ], axis = 1 )
X = StandardScaler (). fit_transform ( X . to_numpy ())
X = X . reshape ( num_samples , 48 , - 1 )
X_ori = X # keep X_ori for validation
X = mcar ( X , 0.1 ) # randomly hold out 10% observed values as ground truth
dataset = { "X" : X } # X for model input
print ( X . shape ) # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features
# Model training. This is PyPOTS showtime.
from pypots . imputation import SAITS
from pypots . utils . metrics import calc_mae
saits = SAITS ( n_steps = 48 , n_features = 37 , n_layers = 2 , d_model = 256 , n_heads = 4 , d_k = 64 , d_v = 64 , d_ffn = 128 , dropout = 0.1 , epochs = 10 )
# Here I use the whole dataset as the training set because ground truth is not visible to the model, you can also split it into train/val/test sets
saits . fit ( dataset ) # train the model on the dataset
imputation = saits . impute ( dataset ) # impute the originally-missing values and artificially-missing values
indicating_mask = np . isnan ( X ) ^ np . isnan ( X_ori ) # indicating mask for imputation error calculation
mae = calc_mae ( imputation , np . nan_to_num ( X_ori ), indicating_mask ) # calculate mean absolute error on the ground truth (artificially-missing values)
saits . save ( "save_it_here/saits_physionet2012.pypots" ) # save the model for future use
saits . load ( "save_it_here/saits_physionet2012.pypots" ) # reload the serialized model file for following imputation or training Tipp
[Updates in Jun 2024] ? Die erste umfassende Zeitserie Imputation Benchmark Paper TSI-Bench: Benchmarking Time Series Imputation ist jetzt öffentlich verfügbar. Der Code ist Open Source in der Repo Awesome_Imputation. Mit fast 35.000 Experimenten bieten wir eine umfassende Benchmarking-Studie zu 28 Imputationsmethoden, 3 fehlenden Mustern (Punkte, Sequenzen, Blöcken), verschiedenen fehlenden Raten und 8 realen Datensätzen.
[Updates im Februar 2024] ? Unser Umfragepapier Deep Learning for Multivariate Time Series Imputation: Eine Umfrage wurde auf Arxiv veröffentlicht. Wir überprüfen umfassend die Literatur der hochmodernen Tiefenpatschenmethoden für Zeitreihen, bieten ihnen eine Taxonomie und diskutieren die Herausforderungen und zukünftigen Richtungen in diesem Bereich.
Das Papier zur Einführung von Pypots ist auf Arxiv erhältlich, und eine kurze Version davon wird vom 9. Sigkdd International Workshop zum Bergbau und Lernen aus der Zeitreihe (Milets'23) angenommen. Zusätzlich wurde Pypots als Pytorch -Ökosystemprojekt aufgenommen. Wir veröffentlichen es an prestigeträchtigen akademischen Orten, z. B. JMLR (Track für Open -Source -Software für maschinelles Lernen). Wenn Sie Pypots in Ihrer Arbeit verwenden, zitieren Sie es bitte wie unten und stieren Sie dieses Repository an, damit andere diese Bibliothek bemerken. ?
Es gibt wissenschaftliche Forschungsprojekte, die Pypots und Referenzieren in ihren Papieren verwenden. Hier ist eine unvollständige Liste von ihnen.
@article { du2023pypots ,
title = { {PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series} } ,
author = { Wenjie Du } ,
journal = { arXiv preprint arXiv:2305.18811 } ,
year = { 2023 } ,
}oder
Wenjie du. Pypots: Eine Python-Toolbox für Data Mining in teilweise beobachteten Zeitreihen. Arxiv, ABS/2305.18811, 2023.
Sie sind sehr willkommen, um zu diesem aufregenden Projekt beizutragen!
Wenn Sie Ihren Code begehen, werden Sie
template in jedem Task -Paket (z. B. Pypots/Imputation/Vorlage) verwenden, um schnell zu starten.Sie können auch zu Pypots beitragen, indem Sie einfach starren? Dieses Repo, um mehr Menschen zu helfen, es zu bemerken. Ihr Stern ist Ihre Anerkennung für Pypots und es ist wichtig!
? Schauen Sie sich hier eine vollständige Liste der Zugehörigkeiten unserer Benutzer auf der PYPOTS -Website an!
Wir kümmern uns um das Feedback unserer Benutzer, also bauen wir die PYPOTS -Community auf
Wenn Sie Vorschläge haben oder Ideen beitragen oder zeitreizbezogene Papiere teilen möchten, schließen Sie sich uns an und erzählen Sie. Die Pypots -Community ist offen, transparent und sicher freundlich. Lassen Sie uns zusammenarbeiten, um Pypots zu bauen und zu verbessern!
Du, W., Cote, D. & Liu, Y. (2023). Saits: Selbstbekämpfungsbasierte Imputation für Zeitreihen. Expertensysteme mit Anwendungen . ↩ ↩ 2
Project Gungnir, der World 1st LLM für Multitask-Modellierung von Zeitreihen, wird Sie bald treffen. Fehlende Werte und variable Längen in Ihren Datensätzen? Mit Ihrer Zeitreihe kaum ein Multitasking -Lernen durchzuführen? Keine Probleme nicht mehr. Wir werden kürzlich die Bewerbung für den öffentlichen Beta-Test eröffnen ;-) Folgen Sie uns und bleiben dran! Zeitreins.ai ↩
Zhan, T., He, Y., Y. Deng, Li, Z., Du, W. & Wen, Q. (2024). Time Evidence Fusion Network: Multi-Source-Ansicht in der langfristigen Zeitreihenprognose. Arxiv 2024 . ↩
Xu, Z., Zeng, A. & Xu, Q. (2024). Anpassungen: Modellierungszeitreihen mit 10K -Parametern. ICLR 2024 . ↩
Wang, S., Wu, H., Shi, X., Hu, T., Luo, H., Ma, L., ... & Zhou, J. (2024). Timemixer: Zerledigbares Multiskale -Mischung für Zeitreihenprognosen. ICLR 2024 . ↩
Liu, Y., Hu, T., Zhang, H., Wu, H., Wang, S., Ma, L. & Long, M. (2024). ITRANSFORMER: Inverted -Transformatoren sind für die Zeitreihenprognose wirksam. ICLR 2024 . ↩
Luo, D. & Wang X. (2024). ModernTCN: Eine moderne strenge Faltungsstruktur für die allgemeine Zeitreihenanalyse. ICLR 2024 . ↩
Nie, T., Qin, G., Mei, Y. & Sun, J. (2024). Imputeformer: Niedrigrangig induzierte Transformatoren für verallgemeinerbare räumlich-zeitliche Imputation. KDD 2024 . ↩
Yi, K., Zhang, Q., Fan, W., Wang, S., Wang, P., He, H., AN, N., Lian, D., Cao, L., & Niu, Z. (2023). Frequenz-Domänen-MLPs sind effektivere Lernende in der Zeitreihenprognose. Neurips 2023 . ↩
Liu, Y., Li, C., Wang, J. & Long, M. (2023). Koopa: Lernen nicht stationärer Zeitreihendynamik mit Koopman-Prädiktoren. Neurips 2023 . ↩
Zhang, Y. & Yan, J. (2023). Crossformer: Transformator unter Verwendung einer interdimensionalen Abhängigkeit für die multivariate Zeitreihenprognose. ICLR 2023 . ↩
Wu, H., Hu, T., Liu, Y., Zhou, H., Wang, J. & Long, M. (2023). TimesNet: Temporale 2D-Variationsmodellierung für die allgemeine Zeitreihenanalyse. ICLR 2023 ↩
Nie, Y., Nguyen, NH, Sinthong, P. & Kalagnanam, J. (2023). Eine Zeitreihe ist 64 Wörter wert: langfristige Prognose mit Transformatoren. ICLR 2023 ↩
Woo, G., Liu, C., Sahoo, D., Kumar, A. & Hoi, S. (2023). ETSFORMER: Exponentielle Glättungstransformatoren für die Vorhersage von Zeitreihen. ICLR 2023 ↩
H. Wang, J. Peng, F. Huang, J. Wang, J. Chen & Y. Xiao (2023). MICN: Multi-Skale-lokale und globale Kontextmodellierung für Langzeitserienprognosen. ICLR 2023 . ↩
Zeng, A., Chen, M., Zhang, L. & Xu, Q. (2023). Sind Transformatoren für die Zeitreihenprognose wirksam? AAAI 2023 ↩
Das, A. Das, W. Kong, A. Leach, S. Mathur, R. Sen & R. Yu (2023). Langfristige Prognose mit Tide: Zeitreihen-dichtes Encoder. TMLR 2023 . ↩
Qian, L., Ibrahim, Z., Ellis, HL, Zhang, A., Zhang, Y., Wang, T. & Dobson, R. (2023). Wissen verbesserte die bedingte Imputation für die Zeitreihen im Gesundheitswesen. Arxiv 2023 . ↩
Lin, S. Lin, W. Lin, W. Wu, F. Zhao, R. Mo & H. Zhang (2023). Segrnn: Segment rezidivierendes neuronales Netzwerk für die langfristige Zeitreihenprognose. Arxiv 2023 . ↩
Liu, M., Zeng, A., Chen, M., Xu, Z., Lai, Q., Ma, L. & Xu, Q. (2022). Scinet: Zeitreihenmodellierung und Prognose mit Stichprobenverarbeitung und Interaktion. Neurips 2022 . ↩
Liu, Y., Wu, H., Wang, J. & Long, M. (2022). Nicht-stationäre Transformatoren: Erforschung der Stationarität der Zeitreihenprognose. Neurips 2022 . ↩
Zhou, T., Ma, Z., Wen, Q., Sun, L., Yao, T., Yin, W. & Jin, R. (2022). Film: Frequenz verbessertes Legendre-Speichermodell für die Prognose für Langzeitzeitreihen. Neurips 2022 . ↩
Kim, T., Kim, J., Tae, Y., Park, C., Choi, JH & Choo, J. (2022). Reversible Instanznormalisierung für genaue Zeitreihenprognose gegen Verteilungsverschiebung. ICLR 2022 . ↩
Liu, S., Yu, H., Liao, C., Li, J., Lin, W., Liu, AX & Dustdar, S. (2022). Pyraformer: Pyramidale Aufmerksamkeit mit niedriger Komplexität für die Modellierung und Prognose von Zeitreihen mit langfristiger Zeitreihen. ICLR 2022 . ↩
Zhang, X., Zeman, M., Tsiligkaridis, T. & Zitnik, M. (2022). Graph gestaltetes Netzwerk für unregelmäßig abgetastete multivariate Zeitreihen. ICLR 2022 . ↩
Zhou, T., Ma, Z., Wen, Q., Wang, X., Sun, L. & Jin, R. (2022). FEDFORMERER: Frequenzverstärkter zersetzter Transformator für die Prognose der langfristigen Serien. ICML 2022 . ↩
Wu, H., Xu, J., Wang, J. & Long, M. (2021). AutoFormer: Zersetzungstransformatoren mit Autokorrelation für die Prognose der langfristigen Serien. Neurips 2021 . ↩
Tashiro, Y., Song, J., Song, Y. & Ermon, S. (2021). CSDI: Konditionelle Score-basierte Diffusionsmodelle für die Wahrscheinlichkeit der Zeitreihen Imputation. Neurips 2021 . ↩
H. Zhou, S. Zhang, J. Peng, S. Zhang, J. Li, H. Xiong & W. Zhang (2021). Informant: Über den effizienten Transformator hinaus für lange Sequenz-Zeitreihen-Prognosen. AAAI 2021 . ↩
Miao, X., Wu, Y., Wang, J., Gao, Y., Mao, X. & Yin, J. (2021). Generatives halbübergreifendes Lernen für multivariate Zeitreihen Imputation. AAAI 2021 . ↩
Ma, Q., Chen, C., Li, S. & Cottrell, GW (2021). Lerndarstellungen für unvollständige Zeitreihenclustering. AAAI 2021 . ↩
Chen, X. & Sun, L. (2021). Bayesianische zeitliche Faktorisierung für die mehrdimensionale Zeitreihenvorhersage. IEEE -Transaktionen zur Musteranalyse und der maschinellen Intelligenz . ↩
Cao, D., Wang, Y., Duan, J., Zhang, C., Zhu, X., Huang, C., Tong, Y., Xu, B., Bai, J., Tong, J., & Zhang, Q. (2020). Spektrales temporales Diagramm Neurales Netzwerk für die multivariate Zeitreihenprognose. Neurips 2020 . ↩
N. Kitaev, Kaiser, ł. & Levskaya, A. (2020). Reformer: Der effiziente Transformator. ICLR 2020 . ↩
Fortuin, V., Baranchuk, D., Raetsch, G. & Mandt, S. (2020). GP-vae: Tiefe probabilistische Zeitreihen Imputation. Aistats 2020 . ↩
Jong, JD, Emon, MA, Wu, P., Karki, R., Sood, M., Godard, P., Ahmad, A., Vrooman, HA, Hofmann-Apitius, M. & Fröhlich, H. (2019). Tiefes Lernen für die Clusterbildung multivariater klinischer Patienten -Trajektorien mit fehlenden Werten. Gigascience . ↩
Yoon, J., Zame, WR & Van der Schaar, M. (2019). Schätzung fehlender Daten in zeitlichen Datenströmen mit multidirektionaler wiederkehrender neuronaler Netzwerke. IEEE -Transaktionen zur biomedizinischen Technik . ↩
Cao, W., Wang, D., Li, J., Zhou, H., Li, L. & Li, Y. (2018). Briten: Bidirektionale wiederkehrende Imputation für Zeitreihen. Neurips 2018 . ↩
Che, Z., Purushotham, S., Cho, K., Sonontag, DA & Liu, Y. (2018). Wiederkehrende neuronale Netzwerke für multivariate Zeitreihen mit fehlenden Werten. Wissenschaftliche Berichte . ↩
Bai, S., Kolter, JZ & Koltun, V. (2018). Eine empirische Bewertung generischer Faltungs- und wiederkehrender Netzwerke für die Sequenzmodellierung. Arxiv 2018 . ↩
Vaswani, A., SHAZEER, NM, PARMAR, N., Uszkoreit, J., Jones, L., Gomez, AN, Kaiser, L. & Polosukhin, I. (2017). Aufmerksamkeit ist alles, was Sie brauchen. Neurips 2017 . ↩
Wikipedia: Lineare Interpolation ↩
Rubin, DB (1976). Inferenz und fehlende Daten. Biometrika . ↩