kotak alat python untuk pembelajaran mesin pada seri waktu yang teramati sebagian
⦿ Motivation : Karena semua jenis alasan seperti kegagalan sensor pengumpulan, kesalahan komunikasi, dan kerusakan yang tidak terduga, nilai-nilai yang hilang adalah umum untuk dilihat dalam deret waktu dari lingkungan dunia nyata. Hal ini membuat sebagian seri waktu teramati (POTS) menjadi masalah yang meresap dalam pemodelan dunia terbuka dan mencegah analisis data lanjutan. Meskipun masalah ini penting, bidang pembelajaran mesin pada pot masih tidak memiliki toolkit khusus. Pypots dibuat untuk mengisi kosong ini.
⦿ Mission : PYPOTS (diucapkan "pot pie") dilahirkan untuk menjadi kotak alat praktis yang akan membuat pembelajaran mesin pada pot mudah daripada membosankan, untuk membantu para insinyur dan peneliti lebih fokus pada masalah inti di tangan mereka daripada bagaimana menangani bagian yang hilang dalam data mereka. PYPOTS akan terus mengintegrasikan algoritma pembelajaran mesin klasik dan canggih terbaru untuk seri waktu multivariat yang teramati sebagian. Yang pasti, selain berbagai algoritma, Pypots akan memiliki API yang bersatu bersama dengan dokumentasi terperinci dan contoh interaktif di seluruh algoritma sebagai tutorial.
? Silakan bintangi repo ini untuk membantu orang lain melihat PYPOTS jika Anda pikir itu adalah toolkit yang berguna. Harap silakan mengutip Pypots dalam publikasi Anda jika membantu penelitian Anda. Ini sangat berarti bagi penelitian sumber terbuka kami. Terima kasih!
Sisa file readme ini disusun sebagai berikut: ❖ Algoritma yang tersedia , ❖ Ekosistem Pypots , ❖ Instalasi , ❖ Penggunaan , ❖ Mengutip Pypots , ❖ Kontribusi , ❖ Komunitas .
Pypots mendukung imputasi, klasifikasi, pengelompokan, peramalan, dan tugas deteksi anomali pada deret waktu multivariat yang teramati sebagian dengan nilai yang hilang. Tabel di bawah ini menunjukkan ketersediaan masing -masing algoritma (diurutkan berdasarkan tahun) di Pypots untuk tugas yang berbeda. Simbol ✅ menunjukkan algoritma tersedia untuk tugas yang sesuai (perhatikan bahwa model akan terus diperbarui di masa mendatang untuk menangani tugas yang saat ini tidak didukung. Tetap disetel❗️).
? Sejak v0.2 , semua model jaringan saraf di PYPOTS memiliki dukungan hyperparameter-optimization. Fungsionalitas ini diimplementasikan dengan kerangka kerja Microsoft NNI. Anda mungkin ingin merujuk pada Survei Imputasi Seri-Waktu kami repo AWARGE_IMPUTASI untuk melihat cara mengonfigurasi dan menyetel hyperparameters.
Perhatikan bahwa semua model dengan nama yang dengan ?? Dalam tabel (misalnya transformator, itransformer, informan dll.) Awalnya tidak diusulkan sebagai algoritma untuk data POTS dalam makalah mereka, dan mereka tidak dapat secara langsung menerima rangkaian waktu dengan nilai yang hilang sebagai input, apalagi imputasi. Untuk membuatnya berlaku untuk data POTS, kami secara khusus menerapkan strategi embedding dan pendekatan pelatihan (ORT+MIT) sama seperti yang kami lakukan di Saits Paper 1 .
Jenis tugas disingkat sebagai berikut: IMPU : Imputasi; FORE : peramalan; CLAS : Klasifikasi; CLUS : clustering; ANOD : Deteksi Anomali. Referensi dan tautan makalah semuanya terdaftar di bagian bawah file ini.
| Jenis | Algo | Impu | DEPAN | CLAS | Klus | Anod | Tahun - Tempat |
|---|---|---|---|---|---|---|---|
| Llm | Time-Series.ai 2 | ✅ | ✅ | ✅ | ✅ | ✅ | Later in 2024 |
| Jaring saraf | Tefn? ? 3 | ✅ | 2024 - arXiv | ||||
| Jaring saraf | Cocok? ? 4 | ✅ | 2024 - ICLR | ||||
| Jaring saraf | Timemixer 5 | ✅ | 2024 - ICLR | ||||
| Jaring saraf | itransformer? ? 6 | ✅ | 2024 - ICLR | ||||
| Jaring saraf | Moderntcn 7 | ✅ | 2024 - ICLR | ||||
| Jaring saraf | Imputeformer? ? 8 | ✅ | 2024 - KDD | ||||
| Jaring saraf | Saits 1 | ✅ | 2023 - ESWA | ||||
| Jaring saraf | Fret? ? 9 | ✅ | 2023 - NeurIPS | ||||
| Jaring saraf | Koopa? ? 10 | ✅ | 2023 - NeurIPS | ||||
| Jaring saraf | Crossformer? ? 11 | ✅ | 2023 - ICLR | ||||
| Jaring saraf | Timesnet 12 | ✅ | 2023 - ICLR | ||||
| Jaring saraf | Patchtst? ? 13 | ✅ | 2023 - ICLR | ||||
| Jaring saraf | ETSformer? ? 14 | ✅ | 2023 - ICLR | ||||
| Jaring saraf | Micn? ? 15 | ✅ | 2023 - ICLR | ||||
| Jaring saraf | Dlinier? ? 16 | ✅ | 2023 - AAAI | ||||
| Jaring saraf | Gelombang pasang? 17 | ✅ | 2023 - TMLR | ||||
| Jaring saraf | CSAI 18 | ✅ | ✅ | 2023 - arXiv | |||
| Jaring saraf | Segnn? ? 19 | ✅ | 2023 - arXiv | ||||
| Jaring saraf | Scinet? ? 20 | ✅ | 2022 - NeurIPS | ||||
| Jaring saraf | Tr. ? Nonstasioner? 21 | ✅ | 2022 - NeurIPS | ||||
| Jaring saraf | Film? 22 | ✅ | 2022 - NeurIPS | ||||
| Jaring saraf | Revin_scinet? ? 23 | ✅ | 2022 - ICLR | ||||
| Jaring saraf | Pyraformer? ? 24 | ✅ | 2022 - ICLR | ||||
| Jaring saraf | Raindrop 25 | ✅ | 2022 - ICLR | ||||
| Jaring saraf | Fedformer? ? 26 | ✅ | 2022 - ICML | ||||
| Jaring saraf | Autoformer? ? 27 | ✅ | 2021 - NeurIPS | ||||
| Jaring saraf | CSDI 28 | ✅ | ✅ | 2021 - NeurIPS | |||
| Jaring saraf | Pelapor? 29 | ✅ | 2021 - AAAI | ||||
| Jaring saraf | US-GAN 30 | ✅ | 2021 - AAAI | ||||
| Jaring saraf | CRLI 31 | ✅ | 2021 - AAAI | ||||
| Probabilistik | BTTF 32 | ✅ | 2021 - TPAMI | ||||
| Jaring saraf | STEMGNN? ? 33 | ✅ | 2020 - NeurIPS | ||||
| Jaring saraf | Pembaru? 34 | ✅ | 2020 - ICLR | ||||
| Jaring saraf | GP-VAE 35 | ✅ | 2020 - AISTATS | ||||
| Jaring saraf | Vader 36 | ✅ | 2019 - GigaSci. | ||||
| Jaring saraf | M-RNN 37 | ✅ | 2019 - TBME | ||||
| Jaring saraf | Brits 38 | ✅ | ✅ | 2018 - NeurIPS | |||
| Jaring saraf | Gru-d 39 | ✅ | ✅ | 2018 - Sci. Rep. | |||
| Jaring saraf | Tcn? ? 40 | ✅ | 2018 - arXiv | ||||
| Jaring saraf | Transformator? 41 | ✅ | 2017 - NeurIPS | ||||
| Naif | Lerp 42 | ✅ | |||||
| Naif | LOCF/NOCB | ✅ | |||||
| Naif | Berarti | ✅ | |||||
| Naif | Median | ✅ |
? Kontribusi model Anda sekarang untuk meningkatkan dampak penelitian Anda! Unduhan Pypots meningkat dengan cepat ( total 300k+ dan 1k+ setiap hari di PYPI sejauh ini ), dan pekerjaan Anda akan banyak digunakan dan dikutip oleh masyarakat. Lihat panduan kontribusi untuk melihat cara memasukkan model Anda dalam pypots.
Di Pypots, hal -hal terkait dengan kopi, yang kami kenal. Ya, ini alam semesta kopi! Seperti yang Anda lihat, ada teko kopi di logo Pypots. Dan apa lagi? Harap baca terus ;-)
? Dataset Time Series diambil sebagai biji kopi di Pypots, dan dataset POTS adalah biji kopi yang tidak lengkap dengan bagian yang hilang yang memiliki makna sendiri. Untuk membuat berbagai dataset seri waktu publik tersedia untuk pengguna, Time Series Data Beans (TSDB) dibuat untuk membuat kumpulan data seri-time memuat sangat mudah! Kunjungi TSDB sekarang untuk mengetahui lebih banyak tentang alat praktis ini ?, Dan sekarang mendukung total 172 dataset sumber terbuka!
Untuk mensimulasikan biji data dunia nyata dengan kehabisan tenaga, pigrinder perpustakaan ekosistem, sebuah toolkit yang membantu menggiling biji kopi Anda menjadi yang tidak lengkap, dibuat. Pola yang hilang termasuk dalam tiga kategori menurut teori Robin 43 : MCAR (hilang sepenuhnya secara acak), mar (hilang secara acak), dan MNAR (hilang tidak secara acak). Pygrinder mendukung semuanya dan fungsi tambahan yang terkait dengan kehilangan. Dengan Pygrinder, Anda dapat memperkenalkan nilai -nilai yang hilang sintetis ke dalam dataset Anda dengan satu baris kode.
? Untuk mengevaluasi kinerja algoritma PYPOTS secara adil, benchpot benchmarking suite dibuat, yang menyediakan jaringan pipa yang menyatukan data yang disatukan untuk menyiapkan set data untuk mengukur kinerja algoritma POTS yang berbeda pada berbagai tugas.
Sekarang kacang, penggiling, dan pot sudah siap, silakan duduk di bangku dan mari kita pikirkan tentang cara membuat kami minum secangkir kopi. Tutorial diperlukan! Mempertimbangkan beban kerja di masa depan, tutorial PYPOTS dirilis dalam satu repo, dan Anda dapat menemukannya di brewpots. Lihatlah sekarang, dan pelajari cara menyeduh kumpulan data pot Anda!
☕️ Selamat datang di alam semesta Pypots. Nikmati dan bersenang -senang!
Anda dapat merujuk pada instruksi instalasi dalam dokumentasi PYPOTS untuk pedoman dengan detail lebih lanjut.
PYPOTS tersedia di PYPI dan Anaconda. Anda dapat menginstal PYPOTS seperti di bawah ini serta TSDB, Pygrinder, Benchpots, dan AI4TS:
# via pip
pip install pypots # the first time installation
pip install pypots --upgrade # update pypots to the latest version
# install from the latest source code with the latest features but may be not officially released yet
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip
# via conda
conda install conda-forge::pypots # the first time installation
conda update conda-forge::pypots # update pypots to the latest version Selain brewpots, Anda juga dapat menemukan buku catatan tutorial yang sederhana dan cepat di Google Colab. Jika Anda memiliki pertanyaan lebih lanjut, silakan merujuk ke dokumentasi PYPOTS docs.pypots.com. Anda juga dapat mengangkat masalah atau bertanya di komunitas kami.
Kami menyajikan kepada Anda contoh penggunaan yang menghambat nilai yang hilang dalam deret waktu dengan PYPOTS di bawah ini, Anda dapat mengkliknya untuk dilihat.
# Data preprocessing. Tedious, but PyPOTS can help.
import numpy as np
from sklearn . preprocessing import StandardScaler
from pygrinder import mcar
from pypots . data import load_specific_dataset
data = load_specific_dataset ( 'physionet_2012' ) # PyPOTS will automatically download and extract it.
X = data [ 'X' ]
num_samples = len ( X [ 'RecordID' ]. unique ())
X = X . drop ([ 'RecordID' , 'Time' ], axis = 1 )
X = StandardScaler (). fit_transform ( X . to_numpy ())
X = X . reshape ( num_samples , 48 , - 1 )
X_ori = X # keep X_ori for validation
X = mcar ( X , 0.1 ) # randomly hold out 10% observed values as ground truth
dataset = { "X" : X } # X for model input
print ( X . shape ) # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features
# Model training. This is PyPOTS showtime.
from pypots . imputation import SAITS
from pypots . utils . metrics import calc_mae
saits = SAITS ( n_steps = 48 , n_features = 37 , n_layers = 2 , d_model = 256 , n_heads = 4 , d_k = 64 , d_v = 64 , d_ffn = 128 , dropout = 0.1 , epochs = 10 )
# Here I use the whole dataset as the training set because ground truth is not visible to the model, you can also split it into train/val/test sets
saits . fit ( dataset ) # train the model on the dataset
imputation = saits . impute ( dataset ) # impute the originally-missing values and artificially-missing values
indicating_mask = np . isnan ( X ) ^ np . isnan ( X_ori ) # indicating mask for imputation error calculation
mae = calc_mae ( imputation , np . nan_to_num ( X_ori ), indicating_mask ) # calculate mean absolute error on the ground truth (artificially-missing values)
saits . save ( "save_it_here/saits_physionet2012.pypots" ) # save the model for future use
saits . load ( "save_it_here/saits_physionet2012.pypots" ) # reload the serialized model file for following imputation or training Tip
[Pembaruan di Juni 2024] ? Kertas Benchmark Imputasi Seri-Komprehensif Pertama Kertas TSI-Bench: Imputasi Seri Waktu Benchmarking Sekarang Tersedia Publik. Kode ini open source di repo AWAREGE_IMPUTASI. Dengan hampir 35.000 percobaan, kami menyediakan studi pembandingan komprehensif pada 28 metode imputasi, 3 pola yang hilang (poin, urutan, blok), berbagai tingkat yang hilang, dan 8 set data dunia nyata.
[Pembaruan di Februari 2024] ? Makalah Survei kami Pembelajaran mendalam untuk Imputasi Seri Waktu Multivariat: Sebuah Survei telah dirilis di ARXIV. Kami secara komprehensif meninjau literatur metode imputasi pembelajaran mendalam yang canggih untuk rangkaian waktu, memberikan taksonomi untuk mereka, dan mendiskusikan tantangan dan arah masa depan dalam bidang ini.
Makalah yang memperkenalkan PYPOTS tersedia di ARXIV, dan versi singkatnya diterima oleh Lokakarya Internasional Sigkdd ke -9 tentang Penambangan dan Pembelajaran dari Waktu (Milets'23)). Selain itu , PYPOTS telah dimasukkan sebagai proyek ekosistem Pytorch. Kami sedang mengejar untuk menerbitkannya di tempat -tempat akademik yang bergengsi, misalnya JMLR (Track for Machine Learning Open Source Software). Jika Anda menggunakan PYPOTS dalam pekerjaan Anda, silakan kutip seperti di bawah ini dan? Bintang repositori ini untuk membuat orang lain memperhatikan perpustakaan ini. ?
Ada proyek penelitian ilmiah menggunakan PYPOTS dan referensi dalam makalah mereka. Berikut adalah daftar mereka yang tidak lengkap.
@article { du2023pypots ,
title = { {PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series} } ,
author = { Wenjie Du } ,
journal = { arXiv preprint arXiv:2305.18811 } ,
year = { 2023 } ,
}atau
Wenjie du. PYPOTS: Kotak alat Python untuk penambangan data pada deret waktu yang teramati sebagian. Arxiv, ABS/2305.18811, 2023.
Anda sangat dipersilakan untuk berkontribusi pada proyek yang menarik ini!
Dengan melakukan kode Anda, Anda akan
template di setiap paket tugas (misalnya Pypots/Imputasi/Templat) untuk memulai dengan cepat;Anda juga dapat berkontribusi pada PYPOTS dengan hanya menatap? Repo ini untuk membantu lebih banyak orang menyadarinya. Bintang Anda adalah pengakuan Anda untuk Pypots, dan itu penting!
? Lihatlah daftar lengkap afiliasi pengguna kami di situs web PYPOTS di sini!
Kami peduli dengan umpan balik dari pengguna kami, jadi kami sedang membangun komunitas Pypots
Jika Anda memiliki saran atau ingin menyumbangkan ide atau berbagi makalah terkait seri waktu, bergabunglah dengan kami dan katakan. Komunitas Pypots terbuka, transparan, dan pasti ramah. Mari kita bekerja sama untuk membangun dan meningkatkan Pypots!
Du, W., Cote, D., & Liu, Y. (2023). Saits: Imputasi Berbasis Sendiri untuk Rangkaian Waktu. Sistem ahli dengan aplikasi . ↩ ↩ 2
Project Gungnir, The World 1st LLM untuk pemodelan multitask series-series, akan segera bertemu dengan Anda. Nilai yang hilang dan panjang variabel dalam kumpulan data Anda? Sulit melakukan pembelajaran multitask dengan seri waktu Anda? Bukan masalah lagi. Kami akan membuka aplikasi untuk tes beta publik baru-baru ini ;-) Ikuti kami, dan tetaplah disini! Time-Series.ai ↩
Zhan, T., He, Y., Deng, Y., Li, Z., Du, W., & Wen, Q. (2024). Jaringan Fusi Bukti Waktu: Pandangan multi-sumber dalam peramalan deret waktu jangka panjang. ARXIV 2024 . ↩
Xu, Z., Zeng, A., & Xu, Q. (2024). Cocok: Rangkaian waktu pemodelan dengan parameter 10K. ICLR 2024 . ↩
Wang, S., Wu, H., Shi, X., Hu, T., Luo, H., Ma, L., ... & Zhou, J. (2024). Timemixer: Pencampuran multiskala yang dapat diuraikan untuk peramalan deret waktu. ICLR 2024 . ↩
Liu, Y., Hu, T., Zhang, H., Wu, H., Wang, S., Ma, L., & Long, M. (2024). ITRANSFORMER: Transformator terbalik efektif untuk peramalan deret waktu. ICLR 2024 . ↩
Luo, D., & Wang X. (2024). Moderntcn: Struktur konvolusi murni modern untuk analisis deret waktu umum. ICLR 2024 . ↩
Nie, T., Qin, G., Mei, Y., & Sun, J. (2024). Imputeformer: Transformator yang diinduksi peringkat rendah untuk imputasi spatiotemporal yang dapat digeneralisasikan. KDD 2024 . ↩
Yi, K., Zhang, Q., Fan, W., Wang, S., Wang, P., He, H., An, N., Lian, D., Cao, L., & Niu, Z. (2023). MLP frekuensi-domain adalah pelajar yang lebih efektif dalam peramalan deret waktu. Neurips 2023 . ↩
Liu, Y., Li, C., Wang, J., & Long, M. (2023). Koopa: Belajar dinamika seri waktu non-stasioner dengan prediktor Koopman. Neurips 2023 . ↩
Zhang, Y., & Yan, J. (2023). Crossformer: Transformer menggunakan ketergantungan silang untuk peramalan seri waktu multivariat. ICLR 2023 . ↩
Wu, H., Hu, T., Liu, Y., Zhou, H., Wang, J., & Long, M. (2023). Timesnet: Pemodelan variasi 2D temporal untuk analisis deret waktu umum. ICLR 2023 ↩
Nie, Y., Nguyen, NH, Sinthong, P., & Kalagnanam, J. (2023). Rangkaian waktu bernilai 64 kata: peramalan jangka panjang dengan transformer. ICLR 2023 ↩
Woo, G., Liu, C., Sahoo, D., Kumar, A., & Hoi, S. (2023). ETSFORMER: Transformator perataan eksponensial untuk peramalan seri-waktu. ICLR 2023 ↩
Wang, H., Peng, J., Huang, F., Wang, J., Chen, J., & Xiao, Y. (2023). MICN: Pemodelan konteks lokal dan global multi-skala untuk peramalan seri jangka panjang. ICLR 2023 . ↩
Zeng, A., Chen, M., Zhang, L., & Xu, Q. (2023). Apakah transformer efektif untuk peramalan seri waktu? Aaai 2023 ↩
Das, A., Kong, W., Leach, A., Mathur, S., Sen, R., & Yu, R. (2023). Peramalan jangka panjang dengan Tide: Encoder padat seri-time. TMLR 2023 . ↩
Qian, L., Ibrahim, Z., Ellis, HL, Zhang, A., Zhang, Y., Wang, T., & Dobson, R. (2023). Pengetahuan Meningkatkan Imputasi Bersyarat untuk Seri Waktu Kesehatan. ARXIV 2023 . ↩
Lin, S., Lin, W., Wu, W., Zhao, F., Mo, R., & Zhang, H. (2023). SEGRNN: Segmen jaringan saraf berulang untuk peramalan seri waktu jangka panjang. ARXIV 2023 . ↩
Liu, M., Zeng, A., Chen, M., Xu, Z., Lai, Q., Ma, L., & Xu, Q. (2022). SCINET: Pemodelan waktu dan peramalan dengan konvolusi dan interaksi sampel. Neurips 2022 . ↩
Liu, Y., Wu, H., Wang, J., & Long, M. (2022). Transformator non-stasioner: Menjelajahi stasioneritas dalam peramalan deret waktu. Neurips 2022 . ↩
Zhou, T., Ma, Z., Wen, Q., Sun, L., Yao, T., Yin, W., & Jin, R. (2022). Film: Model memori Legendre yang ditingkatkan frekuensi untuk peramalan seri waktu jangka panjang. Neurips 2022 . ↩
Kim, T., Kim, J., Tae, Y., Park, C., Choi, JH, & Choo, J. (2022). Normalisasi instance reversibel untuk peramalan seri waktu yang akurat terhadap pergeseran distribusi. ICLR 2022 . ↩
Liu, S., Yu, H., Liao, C., Li, J., Lin, W., Liu, Axe, & Dustdar, S. (2022). Pyraformer: Perhatian piramidal kompleksitas rendah untuk pemodelan dan peramalan seri waktu jarak jauh. ICLR 2022 . ↩
Zhang, X., Zeman, M., Tsiligkaridis, T., & Zitnik, M. (2022). Jaringan yang dipandu grafik untuk seri waktu multivariat sampel yang tidak teratur. ICLR 2022 . ↩
Zhou, T., Ma, Z., Wen, Q., Wang, X., Sun, L., & Jin, R. (2022). Fedformer: Frekuensi meningkatkan transformator terurai untuk peramalan seri jangka panjang. ICML 2022 . ↩
Wu, H., Xu, J., Wang, J., & Long, M. (2021). Autoformer: Transformator dekomposisi dengan korelasi otomatis untuk peramalan seri jangka panjang. Neurips 2021 . ↩
Tashiro, Y., Song, J., Song, Y., & Ermon, S. (2021). CSDI: Model difusi berbasis skor bersyarat untuk imputasi deret waktu probabilistik. Neurips 2021 . ↩
Zhou, H., Zhang, S., Peng, J., Zhang, S., Li, J., Xiong, H., & Zhang, W. (2021). Informan: Di luar transformator yang efisien untuk peramalan waktu-seri urutan panjang. Aaai 2021 . ↩
Miao, X., Wu, Y., Wang, J., Gao, Y., Mao, X., & Yin, J. (2021). Pembelajaran semi-diawasi generatif untuk imputasi seri waktu multivariat. Aaai 2021 . ↩
Ma, Q., Chen, C., Li, S., & Cottrell, GW (2021). Representasi pembelajaran untuk pengelompokan seri waktu yang tidak lengkap. Aaai 2021 . ↩
Chen, X., & Sun, L. (2021). Faktorisasi temporal Bayesian untuk prediksi seri waktu multidimensi. Transaksi IEEE tentang analisis pola dan kecerdasan mesin . ↩
Cao, D., Wang, Y., Duan, J., Zhang, C., Zhu, X., Huang, C., Tong, Y., Xu, B., Bai, J., Tong, J., & Zhang, Q. (2020). Jaringan saraf grafik temporal spektral untuk peramalan seri waktu multivariat. Neurips 2020 . ↩
Kitaev, N., Kaiser, ł., & Levskaya, A. (2020). Reformator: Transformator yang efisien. ICLR 2020 . ↩
Fortuin, V., Baranchuk, D., Raetsch, G. & Mandt, S. (2020). GP-VAE: Imputasi deret waktu probabilistik mendalam. Aistats 2020 . ↩
Jong, JD, Emon, MA, Wu, P., Karki, R., Sood, M., Godard, P., Ahmad, A., Vrooman, Ha, Hofmann-Apitius, M., & Fröhlich, H. (2019). Pembelajaran mendalam untuk pengelompokan lintasan pasien klinis multivariat dengan nilai yang hilang. Gigascience . ↩
Yoon, J., Zame, WR, & van der Schaar, M. (2019). Memperkirakan data yang hilang dalam aliran data temporal menggunakan jaringan saraf berulang multi-arah. Transaksi IEEE tentang Teknik Biomedis . ↩
Cao, W., Wang, D., Li, J., Zhou, H., Li, L., & Li, Y. (2018). Brits: Imputasi berulang dua arah untuk seri waktu. Neurips 2018 . ↩
Che, Z., Purushotham, S., Cho, K., Sontag, Da, & Liu, Y. (2018). Jaringan saraf berulang untuk seri waktu multivariat dengan nilai yang hilang. Laporan Ilmiah . ↩
Bai, S., Kolter, JZ, & Koltun, V. (2018). Evaluasi empiris jaringan konvolusional dan berulang generik untuk pemodelan urutan. ARXIV 2018 . ↩
Vaswani, A., Shazeer, NM, Parmar, N., Uszkoreit, J., Jones, L., Gomez, AN, Kaiser, L., & Polosukhin, I. (2017). Perhatian adalah semua yang Anda butuhkan. Neurips 2017 . ↩
Wikipedia: Interpolasi linier ↩
Rubin, DB (1976). Inferensi dan data yang hilang. Biometrika . ↩