부분적으로 관찰 된 시계열에서 기계 학습을위한 파이썬 도구 상자
⦿ Motivation : 수집 센서 실패, 통신 오류 및 예기치 않은 오작동과 같은 모든 종류의 이유로 인해 실제 환경에서 시계열에서 사장 값을 볼 수 있습니다. 이로 인해 부분적으로 관찰 된 시계열 (POTS)은 오픈 월드 모델링에서 광범위한 문제가되고 고급 데이터 분석을 방지합니다. 이 문제는 중요하지만 냄비에 대한 기계 학습 영역에는 여전히 전용 툴킷이 부족합니다. 이 빈을 채우기 위해 pypots가 만들어졌습니다.
Mission : Pypots ( "파이 포트"로 발음)는 지루하지 않고 냄비에 대한 머신 러닝을 쉽게 만들 수있는 편리한 도구 상자가되기 위해 태어 났으며 엔지니어와 연구원은 데이터의 누락 된 부분을 다루는 방법보다는 핵심 문제에 더 집중할 수 있도록 도와줍니다. PYPOTS는 부분적으로 관찰 된 다변량 시계열에 대한 클래식 및 최신 최신 기계 학습 알고리즘을 계속 통합 할 것입니다. 확실히, 다양한 알고리즘 외에도 PYPOTS는 튜토리얼로서 알고리즘에 걸쳐 자세한 문서 및 대화식 예제와 함께 API를 통합 할 것입니다.
? 유용한 툴킷이라고 생각되면 다른 사람들이 pypots를 알아 차릴 수 있도록이 repo를 스타스트 하십시오 . 연구에 도움이되면 간행물에서 친절하게 인용 하십시오 . 이것은 실제로 우리의 오픈 소스 연구에 많은 것을 의미합니다. 감사합니다!
이 README 파일의 나머지 부분은 다음과 같이 구성됩니다. ❖ 사용 가능한 알고리즘 , ❖ PYPOTS 생태계 , ❖ 설치 , ❖ 사용법 , ❖ PYPOTS 인용 , ❖ 기여 , ❖ 커뮤니티 .
PYPOTS는 결 측값을 갖춘 다변량 부분 관찰 된 시계열에 대한 대치, 분류, 클러스터링, 예측 및 이상 탐지 작업을 지원합니다. 아래 표는 다른 작업에 대해 각 알고리즘 (연도별로 정렬)의 가용성을 보여줍니다. 기호 ✅ 해당 작업에 알고리즘을 사용할 수 있음을 나타냅니다 (현재 지원되지 않는 작업을 처리하기 위해 미래에 모델이 지속적으로 업데이트됩니다.
? v0.2 이후, Pypots의 모든 신경 네트워크 모델은 초 파라미터 최적화 지원을 받았습니다. 이 기능은 Microsoft NNI 프레임 워크와 함께 구현됩니다. 당사의 시계열의 대치 설문 조사 repo awesome_imputation을 참조하여 하이퍼 파라 미터를 구성하고 조정하는 방법을 확인할 수 있습니다.
이름이있는 모든 모델은 ?? 테이블 (예 : 변압기, Itransformer, Informer 등)에서 논문의 POTS 데이터에 대한 알고리즘으로 원래 제안되지 않으며, 입력으로 결 측값의 시계열을 직접 허용 할 수는 없지만 대치는 물론. POTS 데이터에 적용 할 수 있도록 SAITS 논문 1 에서와 마찬가지로 임베딩 전략 및 교육 접근법 (ORT+MIT)을 구체적으로 적용합니다.
작업 유형은 다음과 같이 IMPU 됩니다. FORE : 예측; CLAS : 분류; CLUS : 클러스터링; ANOD : 이상 탐지. 논문 참조 및 링크는 모두이 파일의 맨 아래에 나열되어 있습니다.
| 유형 | 알고 | 부과 | 전부 | 클래스 | CLUS | anod | 연도 - 장소 |
|---|---|---|---|---|---|---|---|
| LLM | 시계열 .ai 2 | ✅ | ✅ | ✅ | ✅ | ✅ | Later in 2024 |
| 신경 그물 | tefn? ? 3 | ✅ | 2024 - arXiv | ||||
| 신경 그물 | 적합? ? 4 | ✅ | 2024 - ICLR | ||||
| 신경 그물 | 타임 믹서 5 | ✅ | 2024 - ICLR | ||||
| 신경 그물 | Itransformer? form? 6 | ✅ | 2024 - ICLR | ||||
| 신경 그물 | Moderntcn 7 | ✅ | 2024 - ICLR | ||||
| 신경 그물 | ImputeFormer??? 8 | ✅ | 2024 - KDD | ||||
| 신경 그물 | saits 1 | ✅ | 2023 - ESWA | ||||
| 신경 그물 | 프렛? ? 9 | ✅ | 2023 - NeurIPS | ||||
| 신경 그물 | koopa? ? 10 | ✅ | 2023 - NeurIPS | ||||
| 신경 그물 | CrossFormer? ? 11 | ✅ | 2023 - ICLR | ||||
| 신경 그물 | Timesnet 12 | ✅ | 2023 - ICLR | ||||
| 신경 그물 | Patchtst? ? 13 | ✅ | 2023 - ICLR | ||||
| 신경 그물 | etsformer??? 14 | ✅ | 2023 - ICLR | ||||
| 신경 그물 | micn? ? 15 | ✅ | 2023 - ICLR | ||||
| 신경 그물 | dlinear? ? 16 | ✅ | 2023 - AAAI | ||||
| 신경 그물 | 조류? 17 | ✅ | 2023 - TMLR | ||||
| 신경 그물 | CSAI 18 | ✅ | ✅ | 2023 - arXiv | |||
| 신경 그물 | segrnn??? 19 | ✅ | 2023 - arXiv | ||||
| 신경 그물 | Scinet? ? 20 | ✅ | 2022 - NeurIPS | ||||
| 신경 그물 | 비정규 적으로? ary? 21 | ✅ | 2022 - NeurIPS | ||||
| 신경 그물 | 영화? 22 | ✅ | 2022 - NeurIPS | ||||
| 신경 그물 | revin_scinet? ? 23 | ✅ | 2022 - ICLR | ||||
| 신경 그물 | Pyraformer? form? 24 | ✅ | 2022 - ICLR | ||||
| 신경 그물 | 빗방울 25 | ✅ | 2022 - ICLR | ||||
| 신경 그물 | Fedformer? ? 26 | ✅ | 2022 - ICML | ||||
| 신경 그물 | 자동 개발자??? 27 | ✅ | 2021 - NeurIPS | ||||
| 신경 그물 | CSDI 28 | ✅ | ✅ | 2021 - NeurIPS | |||
| 신경 그물 | 정보원? ? 29 | ✅ | 2021 - AAAI | ||||
| 신경 그물 | us-gan 30 | ✅ | 2021 - AAAI | ||||
| 신경 그물 | CRLI 31 | ✅ | 2021 - AAAI | ||||
| 확률 론적 | BTTF 32 | ✅ | 2021 - TPAMI | ||||
| 신경 그물 | stemgnn??? 33 | ✅ | 2020 - NeurIPS | ||||
| 신경 그물 | 개혁가? 34 | ✅ | 2020 - ICLR | ||||
| 신경 그물 | GP-VAE 35 | ✅ | 2020 - AISTATS | ||||
| 신경 그물 | 베이더 36 | ✅ | 2019 - GigaSci. | ||||
| 신경 그물 | M-RNN 37 | ✅ | 2019 - TBME | ||||
| 신경 그물 | 영국 38 | ✅ | ✅ | 2018 - NeurIPS | |||
| 신경 그물 | GRU-D 39 | ✅ | ✅ | 2018 - Sci. Rep. | |||
| 신경 그물 | TCN? ? 40 | ✅ | 2018 - arXiv | ||||
| 신경 그물 | 변신 로봇? 41 | ✅ | 2017 - NeurIPS | ||||
| 순진한 | LERP 42 | ✅ | |||||
| 순진한 | locf/nocb | ✅ | |||||
| 순진한 | 평균 | ✅ | |||||
| 순진한 | 중앙값 | ✅ |
? 연구 영향을 높이기 위해 지금 모델에 기여하십시오! PYPOTS 다운로드가 빠르게 증가하고 있습니다 ( 지금까지 총 300K+, PYPI에서는 매일 1k++ ), 커뮤니티에서 작업이 널리 사용되고 인용됩니다. PYPOT에 모델을 포함시키는 방법을 보려면 기여 가이드를 참조하십시오.
Pypots에서는 우리가 익숙한 커피와 관련이 있습니다. 예, 커피 우주입니다! 보시다시피, Pypots 로고에는 커피 포트가 있습니다. 그리고 또 무엇입니까? 읽어주세요 ;-)
? 시계열 데이터 세트는 Pypots에서 커피 원두로 가져오고 Pots 데이터 세트는 자체 의미가있는 부품이없는 커피 원두가 불완전합니다. 사용자가 다양한 공개 시계열 데이터 세트를 쉽게 이용할 수 있도록하기 위해 시계열 데이터 빈 (TSDB)은 로딩 시계열 데이터 세트를 매우 쉽게 만들기 위해 만들어졌습니다! 이 편리한 도구에 대해 자세히 알아 보려면 지금 TSDB를 방문하십시오. 이제 총 172 개의 오픈 소스 데이터 세트를 지원합니다!
실제 데이터 빈을 누락으로 시뮬레이션하기 위해, 커피 원두를 불완전한 것으로 연마하는 툴킷 인 Ecosystem Library Pygrinder가 만들어집니다. Robin 's Theory 43 : MCAR (무작위로 완전히 누락), Mar (무작위로 누락) 및 MNAR (무작위로 없음)에 따라 누락 된 패턴은 세 가지 범주에 속합니다. Pygrinder는 실종과 관련된 모든 기능과 추가 기능을 지원합니다. Pygrinder를 사용하면 단일 한 줄의 코드로 데이터 세트에 합성 결 측값을 도입 할 수 있습니다.
? PYPOTS 알고리즘의 성능을 공정하게 평가하기 위해 벤치마킹 스위트 벤치 포트가 생성되며, 이는 다양한 작업에서 다양한 POTS 알고리즘의 성능을 측정하기위한 데이터 세트를 준비하기 위해 표준 및 통합 데이터 처리 파이프 라인을 제공합니다.
이제 콩, 분쇄기 및 냄비가 준비되어 있습니다. 벤치에 자리를 잡고 커피 한 잔을 양조하는 방법에 대해 생각해 봅시다. 튜토리얼이 필요합니다! 향후 워크로드를 고려할 때 Pypots 튜토리얼은 단일 저장소로 출시되며 양조장에서 찾을 수 있습니다. 지금 살펴보고 냄비 데이터 세트를 양조하는 방법을 배우십시오!
pypots의 우주에 오신 것을 환영합니다. 그것을 즐기고 재미있게 보내십시오!
자세한 내용이 포함 된 가이드 라인은 Pypots 문서의 설치 명령어를 참조 할 수 있습니다.
PYPOTS는 PYPI와 Anaconda에서 사용할 수 있습니다. TSDB, Pygrinder, Benchpots 및 AI4TS뿐만 아니라 아래와 같은 파형을 설치할 수 있습니다.
# via pip
pip install pypots # the first time installation
pip install pypots --upgrade # update pypots to the latest version
# install from the latest source code with the latest features but may be not officially released yet
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip
# via conda
conda install conda-forge::pypots # the first time installation
conda update conda-forge::pypots # update pypots to the latest version Brewpots 외에도 Google Colab에서 간단하고 빠른 스타트 튜토리얼 노트북을 찾을 수도 있습니다. 추가 질문이 있으시면 Pypots Documentation Docs.pypots.com을 참조하십시오. 또한 지역 사회에서 문제를 제기하거나 물어볼 수도 있습니다.
아래의 pypots와 시계열에서 결 측값을 전가하는 사용 예를 제시하면 클릭하여 볼 수 있습니다.
# Data preprocessing. Tedious, but PyPOTS can help.
import numpy as np
from sklearn . preprocessing import StandardScaler
from pygrinder import mcar
from pypots . data import load_specific_dataset
data = load_specific_dataset ( 'physionet_2012' ) # PyPOTS will automatically download and extract it.
X = data [ 'X' ]
num_samples = len ( X [ 'RecordID' ]. unique ())
X = X . drop ([ 'RecordID' , 'Time' ], axis = 1 )
X = StandardScaler (). fit_transform ( X . to_numpy ())
X = X . reshape ( num_samples , 48 , - 1 )
X_ori = X # keep X_ori for validation
X = mcar ( X , 0.1 ) # randomly hold out 10% observed values as ground truth
dataset = { "X" : X } # X for model input
print ( X . shape ) # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features
# Model training. This is PyPOTS showtime.
from pypots . imputation import SAITS
from pypots . utils . metrics import calc_mae
saits = SAITS ( n_steps = 48 , n_features = 37 , n_layers = 2 , d_model = 256 , n_heads = 4 , d_k = 64 , d_v = 64 , d_ffn = 128 , dropout = 0.1 , epochs = 10 )
# Here I use the whole dataset as the training set because ground truth is not visible to the model, you can also split it into train/val/test sets
saits . fit ( dataset ) # train the model on the dataset
imputation = saits . impute ( dataset ) # impute the originally-missing values and artificially-missing values
indicating_mask = np . isnan ( X ) ^ np . isnan ( X_ori ) # indicating mask for imputation error calculation
mae = calc_mae ( imputation , np . nan_to_num ( X_ori ), indicating_mask ) # calculate mean absolute error on the ground truth (artificially-missing values)
saits . save ( "save_it_here/saits_physionet2012.pypots" ) # save the model for future use
saits . load ( "save_it_here/saits_physionet2012.pypots" ) # reload the serialized model file for following imputation or training 팁
[2024 년 6 월 업데이트] ? 첫 번째 포괄적 인 시간-서식의 대치 벤치 마크 종이 TSI-Bench : 벤치마킹 시계열 대치는 현재 공개됩니다. 코드는 Repo Awesome_imputation의 오픈 소스입니다. 거의 35,000 개의 실험을 통해 28 개의 대치 방법, 3 개의 누락 된 패턴 (포인트, 시퀀스, 블록), 다양한 누락 요금 및 8 개의 실제 데이터 세트에 대한 포괄적 인 벤치마킹 연구를 제공합니다.
[2024 년 2 월 업데이트] ? 다변량 시계열의 대치에 대한 설문 조사 논문 딥 러닝 : ARXIV에서 설문 조사가 발표되었습니다. 우리는 시계열에 대한 최첨단 딥 러닝 대치 방법의 문헌을 종합적으로 검토하고, 분류법을 제공하며,이 분야의 도전과 미래 방향에 대해 논의합니다.
Pypots를 소개하는 논문은 Arxiv에서 구입할 수 있으며, 짧은 버전은 제 9 회 Sigkdd International Workshop에 대한 광업 및 학습에서 시계열 (Milets'23)에 의해 받아 들여집니다). 또한 Pypots는 Pytorch Ecosystem 프로젝트로 포함되었습니다. 우리는 JMLR (기계 학습 오픈 소스 소프트웨어를위한 트랙) (예 : JMLR) (예 : JMLR)에 게시하려고합니다. 작업에서 pypot을 사용하는 경우 아래로 인용 하고이 저장소를 별표로 표현하여 다른 사람들 이이 라이브러리를 알아 차리게하십시오. ?
Pypots를 사용하고 논문에 참조를 사용하는 과학 연구 프로젝트가 있습니다. 다음은 불완전한 목록입니다.
@article { du2023pypots ,
title = { {PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series} } ,
author = { Wenjie Du } ,
journal = { arXiv preprint arXiv:2305.18811 } ,
year = { 2023 } ,
}또는
Wenjie du. PYPOTS : 부분적으로 관찰 된 시계열의 데이터 마이닝을위한 Python 도구 상자. ARXIV, ABS/2305.18811, 2023.
이 흥미 진진한 프로젝트에 기여할 수 있습니다!
코드를 커밋함으로써
template 폴더를 활용하여 빠르게 시작할 수 있습니다.단순히 쳐다 보면 pypot에 기여할 수 있습니까? 더 많은 사람들이 그것을 알아 차리는 데 도움이되는이 저장소. 당신의 별은 pypots에 대한 당신의 인정이며, 그것은 중요합니다!
? PYPOTS 웹 사이트에서 사용자의 제휴사 전체 목록을 확인하십시오!
우리는 사용자의 피드백에 관심이 있으므로 Pypots 커뮤니티를 구축합니다.
제안이 있거나 아이디어를 제공하거나 시계열 관련 논문을 공유하려면 저희와 함께하고 말하십시오. Pypots 커뮤니티는 개방적이고 투명하며 친절합니다. Pypots를 구축하고 개선하기 위해 함께 노력합시다!
Du, W., Cote, D., & Liu, Y. (2023). SAITS : 시계열에 대한 자체 변환 기반의 대치. 응용 프로그램이있는 전문가 시스템 . ↩ 2
시계열 멀티 태스킹 모델링을위한 세계 1st LLM 인 Project Gungnir가 곧 만날 것입니다. 데이터 세트의 결 측값 및 가변 길이? 시계열로 멀티 태스킹 학습을 수행하기가 어렵습니까? 더 이상 문제가되지 않습니다. 우리는 최근 공개 베타 테스트 신청서를 열겠습니다. ;-) 우리를 따르고 계속 지켜봐 주시기 바랍니다! 시계열 .ai ies
Zhan, T., He, Y., Deng, Y., Li, Z., Du, W., & Wen, Q. (2024). 시간 증거 퓨전 네트워크 : 장기 시계열 예측의 다중 소스보기. Arxiv 2024 . ↩
Xu, Z., Zeng, A., & Xu, Q. (2024). 적합 : 10K 매개 변수로 모델링 시계열. ICLR 2024 . ↩
Wang, S., Wu, H., Shi, X., Hu, T., Luo, H., Ma, L., ... & Zhou, J. (2024). Timemixer : 시계열 예측을위한 분해성 멀티 스케일 믹싱. ICLR 2024 . ↩
Liu, Y., Hu, T., Zhang, H., Wu, H., Wang, S., Ma, L., & Long, M. (2024). Itransformer : 역 변압기는 시계열 예측에 효과적입니다. ICLR 2024 . ↩
Luo, D., & Wang X. (2024). ModernTCN : 일반적인 시계열 분석을위한 현대적인 순수 컨볼 루션 구조. ICLR 2024 . ↩
Nie, T., Qin, G., Mei, Y., & Sun, J. (2024). ImputeFormer : 일반화 가능한 시공간적 대치를위한 낮은 순위로 인한 변압기. KDD 2024 . ↩
Yi, K., Zhang, Q., Fan, W., Wang, S., Wang, P., He, H., An, N., Lian, D., Cao, L., & Niu, Z. (2023). 주파수 도메인 MLP는 시계열 예측에서 더 효과적인 학습자입니다. Neurips 2023 . ↩
Liu, Y., Li, C., Wang, J., & Long, M. (2023). KOOPA : Koopman Predictors를 사용하여 비 정지 시계열 역학 학습. Neurips 2023 . ↩
Zhang, Y., & Yan, J. (2023). CrossFormer : 다변량 시계열 예측을위한 교차 차원 의존성을 사용하는 변압기. ICLR 2023 . ↩
Wu, H., Hu, T., Liu, Y., Zhou, H., Wang, J., & Long, M. (2023). TimesNet : 일반 시계열 분석을위한 시간 2D 변수 모델링. ICLR 2023 20
Nie, Y., Nguyen, NH, Sinthong, P., & Kalagnanam, J. (2023). 시계열은 64 단어의 가치가 있습니다 : 변압기와 장기 예측. ICLR 2023 20
Woo, G., Liu, C., Sahoo, D., Kumar, A., & Hoi, S. (2023). Etsformer : 시계열 예측을위한 지수 스무딩 변압기. ICLR 2023 20
Wang, H., Peng, J., Huang, F., Wang, J., Chen, J., & Xiao, Y. (2023). MICN : 장기 시리즈 예측을위한 다중 규모 로컬 및 글로벌 컨텍스트 모델링. ICLR 2023 . ↩
Zeng, A., Chen, M., Zhang, L., & Xu, Q. (2023). 트랜스포머는 시계열 예측에 효과적입니까?. AAAI 2023 20
Das, A., Kong, W., Leach, A., Mathur, S., Sen, R., & Yu, R. (2023). 조수를 사용한 장기 예측 : 시계열 밀집 인코더. TMLR 2023 . ↩
Qian, L., Ibrahim, Z., Ellis, HL, Zhang, A., Zhang, Y., Wang, T., & Dobson, R. (2023). 의료 시간 시리즈에 대한 지식 향상된 조건부 대치. ARXIV 2023 . ↩
Lin, S., Lin, W., Wu, W., Zhao, F., Mo, R., & Zhang, H. (2023). SEGRNN : 장기 시계열 예측을위한 세그먼트 반복 신경망. ARXIV 2023 . ↩
Liu, M., Zeng, A., Chen, M., Xu, Z., Lai, Q., Ma, L., & Xu, Q. (2022). SCINET : 샘플 컨볼 루션 및 상호 작용으로 시계열 모델링 및 예측. Neurips 2022 . ↩
Liu, Y., Wu, H., Wang, J., & Long, M. (2022). 비 정지 변압기 : 시계열 예측의 정지 성 탐색. Neurips 2022 . ↩
Zhou, T., Ma, Z., Wen, Q., Sun, L., Yao, T., Yin, W., & Jin, R. (2022). 필름 : 장기 시계열 예측을위한 주파수 향상 LEGENDRE 메모리 모델. Neurips 2022 . ↩
Kim, T., Kim, J., Tae, Y., Park, C., Choi, JH, & Choo, J. (2022). 분포 이동에 대한 정확한 시계열 예측을위한 가역 인스턴스 정규화. ICLR 2022 . ↩
Liu, S., Yu, H., Liao, C., Li, J., Lin, W., Liu, Ax, & Dustdar, S. (2022). Pyraformer : 장거리 시계열 모델링 및 예측을위한 저 복잡성 피라미드주의. ICLR 2022 . ↩
Zhang, X., Zeman, M., Tsiligkaridis, T., & Zitnik, M. (2022). 불규칙적으로 샘플링 된 다변량 시계열을위한 그래프 유도 네트워크. ICLR 2022 . ↩
Zhou, T., Ma, Z., Wen, Q., Wang, X., Sun, L., & Jin, R. (2022). Fedformer : 장기 시리즈 예측을위한 주파수 향상 분해 변압기. ICML 2022 . ↩
Wu, H., Xu, J., Wang, J., & Long, M. (2021). 자동 개발자 : 장기 시리즈 예측을위한 자동 상관이있는 분해 변압기. Neurips 2021 . ↩
Tashiro, Y., Song, J., Song, Y., & Ermon, S. (2021). CSDI : 확률 시계열의 대치를위한 조건부 점수 기반 확산 모델. Neurips 2021 . ↩
Zhou, H., Zhang, S., Peng, J., Zhang, S., Li, J., Xiong, H., & Zhang, W. (2021). 정보 제공자 : 긴 시퀀스 시계 시리즈 예측을위한 효율적인 변압기를 넘어서. AAAI 2021 . ↩
Miao, X., Wu, Y., Wang, J., Gao, Y., Mao, X., & Yin, J. (2021). 다변량 시계열 대치를위한 생성 반 감독 학습. AAAI 2021 . ↩
Ma, Q., Chen, C., Li, S. 및 Cottrell, GW (2021). 불완전한 시계열 클러스터링에 대한 학습 표현. AAAI 2021 . ↩
Chen, X., & Sun, L. (2021). 다차원 시계열 예측을위한 베이지안 측두율. 패턴 분석 및 기계 인텔리전스에 대한 IEEE 트랜잭션 . ↩
Cao, D., Wang, Y., Duan, J., Zhang, C., Zhu, X., Huang, C., Tong, Y., Xu, B., Bai, J., Tong, J., & Zhang, Q. (2020). 다변량 시계열 예측을위한 스펙트럼 시간 그래프 신경망. Neurips 2020 . ↩
Kitaev, N., Kaiser, w. & Levskaya, A. (2020). 개혁자 : 효율적인 변압기. ICLR 2020 . ↩
Fortuin, V., Baranchuk, D., Raetsch, G. & Mandt, S. (2020). GP-VAE : 깊은 확률 시계열의 대치. Aistats 2020 . ↩
Jong, JD, Emon, MA, Wu, P., Karki, R., Sood, M., Godard, P., Ahmad, A., Vrooman, Ha, Hofmann-Apitius, M., & Fröhlich, H. (2019). 다변량 임상 환자 궤적의 클러스터링을위한 딥 러닝. 기민 . ↩
Yoon, J., Zame, WR, & van der Schaar, M. (2019). 다 방향 재발 신경 네트워크를 사용하여 시간 데이터 스트림에서 누락 된 데이터 추정. 생물 의학 공학에 대한 IEEE 거래 . ↩
Cao, W., Wang, D., Li, J., Zhou, H., Li, L., & Li, Y. (2018). 영국인 : 시계열에 대한 양방향 반복 대치. Neurips 2018 . ↩
Che, Z., Purushotham, S., Cho, K., Sontag, DA, & Liu, Y. (2018). 결 측값이있는 다변량 시계열을위한 반복 신경 네트워크. 과학적 보고서 . ↩
Bai, S., Kolter, JZ, & Koltun, V. (2018). 서열 모델링을위한 일반적인 컨볼 루션 및 재발 네트워크의 경험적 평가. ARXIV 2018 . ↩
Vaswani, A., Shazeer, NM, Parmar, N., Uszkoreit, J., Jones, L., Gomez, An, Kaiser, L., & Polosukhin, I. (2017). 주의를 기울이기 만하면됩니다. Neurips 2017 . ↩
Wikipedia : 선형 보간 ↩
루빈, DB (1976). 추론 및 누락 된 데이터. 바이오 메트 리카 . ↩