กล่องเครื่องมือ Python สำหรับการเรียนรู้ของเครื่องในอนุกรมเวลาที่สังเกตได้บางส่วน
⦿ Motivation : เนื่องจากเหตุผลทุกประเภทเช่นความล้มเหลวของเซ็นเซอร์การรวบรวมข้อผิดพลาดการสื่อสารและความผิดปกติที่ไม่คาดคิดค่าที่ขาดหายไปจึงเป็นเรื่องปกติที่จะเห็นในอนุกรมเวลาจากสภาพแวดล้อมในโลกแห่งความเป็นจริง สิ่งนี้ทำให้อนุกรมเวลาที่สังเกตได้บางส่วน (POTs) เป็นปัญหาที่แพร่หลายในการสร้างแบบจำลองแบบเปิดโล่งและป้องกันการวิเคราะห์ข้อมูลขั้นสูง แม้ว่าปัญหานี้จะมีความสำคัญ แต่พื้นที่ของการเรียนรู้ของเครื่องบนหม้อก็ยังขาดชุดเครื่องมือเฉพาะ PYPOTS ถูกสร้างขึ้นเพื่อเติมเต็มช่องว่างนี้
⦿ Mission : PYPOTS (ออกเสียงว่า "หม้อพาย") เกิดมาเพื่อเป็นกล่องเครื่องมือที่มีประโยชน์ที่จะทำให้การเรียนรู้ของเครื่องบนหม้อง่ายกว่าที่น่าเบื่อเพื่อช่วยวิศวกรและนักวิจัยให้ความสำคัญกับปัญหาหลักในมือมากกว่าวิธีจัดการกับชิ้นส่วนที่หายไปในข้อมูลของพวกเขา PYPOTS จะรวมอัลกอริทึมการเรียนรู้ของเครื่องจักรแบบคลาสสิกและล่าสุดสำหรับชุดเวลาหลายตัวแปรที่มีการสังเกตบางส่วน แน่นอนว่านอกจากอัลกอริทึมต่างๆแล้ว PYPOTS จะมี API แบบครบวงจรพร้อมกับเอกสารรายละเอียดและตัวอย่างแบบโต้ตอบข้ามอัลกอริทึมเป็นแบบฝึกหัด
- โปรด แสดง repo นี้เพื่อช่วยให้ผู้อื่นสังเกตเห็น pypots หากคุณคิดว่ามันเป็นชุดเครื่องมือที่มีประโยชน์ โปรด กรุณาอ้างถึง PYPOTS ในสิ่งพิมพ์ของคุณหากช่วยในการวิจัยของคุณ สิ่งนี้มีความหมายมากสำหรับการวิจัยโอเพนซอร์ซของเรา ขอบคุณ!
ส่วนที่เหลือของไฟล์ readme นี้ถูกจัดระเบียบดังนี้: ❖อัลกอริทึมที่มีอยู่ , ❖ระบบนิเวศ Pypots , ❖การติดตั้ง , การใช้งาน , ❖การอ้างถึง pypots , ❖การบริจาค , ❖ชุมชน
PYPOTS รองรับการใส่ร้ายการจำแนกการจัดกลุ่มการพยากรณ์และงานตรวจจับความผิดปกติในชุดเวลาที่มีหลายตัวแปรที่มีหลายตัวแปรที่มีค่าหายไป ตารางด้านล่างแสดงความพร้อมใช้งานของอัลกอริทึมแต่ละตัว (เรียงลำดับตามปี) ใน PYPOTS สำหรับงานที่แตกต่างกัน สัญลักษณ์ ✅ บ่งชี้ว่าอัลกอริทึมนั้นมีให้สำหรับงานที่เกี่ยวข้อง (โปรดทราบว่าโมเดลจะได้รับการปรับปรุงอย่างต่อเนื่องในอนาคตเพื่อจัดการงานที่ไม่ได้รับการสนับสนุนในปัจจุบันคอยติดตามความคืบหน้า❗)
- ตั้งแต่ V0.2 รุ่นเครือข่ายประสาททั้งหมดใน PYPOTS ได้รับการสนับสนุนการเพิ่มประสิทธิภาพสูง ฟังก์ชั่นนี้ถูกนำไปใช้กับ Microsoft NNI Framework คุณอาจต้องการอ้างถึงการสำรวจอนุกรมเวลาของเรา repo repo womeed_imputation เพื่อดูวิธีการกำหนดค่าและปรับแต่งพารามิเตอร์ hyperparameters
โปรดทราบว่าทุกรุ่นที่มีชื่ออยู่ ?? ในตาราง (เช่น Transformer, Itransformer, Informer ฯลฯ ) ไม่ได้รับการเสนอเดิมเป็นอัลกอริทึมสำหรับข้อมูล POTS ในเอกสารของพวกเขาและพวกเขาไม่สามารถยอมรับอนุกรมเวลาที่ขาดหายไปได้โดยตรง เพื่อให้ใช้งานได้กับข้อมูล POTS เราใช้กลยุทธ์การฝังและวิธีการฝึกอบรม (ORT+MIT) โดยเฉพาะเช่นเดียวกับที่เราทำในกระดาษ SAITS 1
ประเภทงานมีตัวย่อดังนี้: IMPU : การใส่ร้าย; FORE : การพยากรณ์; CLAS : การจำแนกประเภท; CLUS : การจัดกลุ่ม; ANOD : การตรวจจับความผิดปกติ การอ้างอิงกระดาษและลิงก์ทั้งหมดอยู่ในรายการที่ด้านล่างของไฟล์นี้
| พิมพ์ | อัลโก้ | impu | ก่อน | Clas | clus | อสัณฐาน | ปี - สถานที่ |
|---|---|---|---|---|---|---|---|
| llm | Timeseries.ai 2 | Later in 2024 | |||||
| ตาข่ายประสาท | tefn? ? 3 | 2024 - arXiv | |||||
| ตาข่ายประสาท | เหมาะกับ? ? 4 | 2024 - ICLR | |||||
| ตาข่ายประสาท | Timemixer 5 | 2024 - ICLR | |||||
| ตาข่ายประสาท | itransformer? ? 6 | 2024 - ICLR | |||||
| ตาข่ายประสาท | Moderntcn 7 | 2024 - ICLR | |||||
| ตาข่ายประสาท | imputeformer? ? 8 | 2024 - KDD | |||||
| ตาข่ายประสาท | SAITS 1 | 2023 - ESWA | |||||
| ตาข่ายประสาท | Frets? ? 9 | 2023 - NeurIPS | |||||
| ตาข่ายประสาท | Koopa? ? 10 | 2023 - NeurIPS | |||||
| ตาข่ายประสาท | Crossformer? ? 11 | 2023 - ICLR | |||||
| ตาข่ายประสาท | Timesnet 12 | 2023 - ICLR | |||||
| ตาข่ายประสาท | patchtst? ? 13 | 2023 - ICLR | |||||
| ตาข่ายประสาท | etsformer? ? 14 | 2023 - ICLR | |||||
| ตาข่ายประสาท | micn? ? 15 | 2023 - ICLR | |||||
| ตาข่ายประสาท | dlinear? ? 16 | 2023 - AAAI | |||||
| ตาข่ายประสาท | กระแสน้ำ? ? 17 | 2023 - TMLR | |||||
| ตาข่ายประสาท | CSAI 18 | 2023 - arXiv | |||||
| ตาข่ายประสาท | segrnn? ? 19 | 2023 - arXiv | |||||
| ตาข่ายประสาท | Scinet? ? 20 | 2022 - NeurIPS | |||||
| ตาข่ายประสาท | nonstationary tr.?? 21 | 2022 - NeurIPS | |||||
| ตาข่ายประสาท | ฟิล์ม? 22 | 2022 - NeurIPS | |||||
| ตาข่ายประสาท | revin_scinet? ? 23 | 2022 - ICLR | |||||
| ตาข่ายประสาท | pyraformer? ? 24 | 2022 - ICLR | |||||
| ตาข่ายประสาท | Raindrop 25 | 2022 - ICLR | |||||
| ตาข่ายประสาท | fedformer? ? 26 | 2022 - ICML | |||||
| ตาข่ายประสาท | Autoformer? ? 27 | 2021 - NeurIPS | |||||
| ตาข่ายประสาท | CSDI 28 | 2021 - NeurIPS | |||||
| ตาข่ายประสาท | ผู้แจ้ง? ? 29 | 2021 - AAAI | |||||
| ตาข่ายประสาท | US-GAN 30 | 2021 - AAAI | |||||
| ตาข่ายประสาท | Crli 31 | 2021 - AAAI | |||||
| ความน่าจะเป็น | BTTF 32 | 2021 - TPAMI | |||||
| ตาข่ายประสาท | Stemgnn? ? 33 | 2020 - NeurIPS | |||||
| ตาข่ายประสาท | นักปฏิรูป? ? 34 | 2020 - ICLR | |||||
| ตาข่ายประสาท | GP-VAE 35 | 2020 - AISTATS | |||||
| ตาข่ายประสาท | เวเดอร์ 36 | 2019 - GigaSci. | |||||
| ตาข่ายประสาท | M-RNN 37 | 2019 - TBME | |||||
| ตาข่ายประสาท | Brits 38 | 2018 - NeurIPS | |||||
| ตาข่ายประสาท | GRU-D 39 | 2018 - Sci. Rep. | |||||
| ตาข่ายประสาท | tcn? ? 40 | 2018 - arXiv | |||||
| ตาข่ายประสาท | หม้อแปลง? ? 41 | 2017 - NeurIPS | |||||
| ไร้เดียงสา | lerp 42 | ||||||
| ไร้เดียงสา | locf/nocb | ||||||
| ไร้เดียงสา | หมายถึง | ||||||
| ไร้เดียงสา | ค่ามัธยฐาน |
- มีส่วนร่วมในรูปแบบของคุณในขณะนี้เพื่อเพิ่มผลกระทบการวิจัยของคุณ! การดาวน์โหลด PYPOTS เพิ่มขึ้นอย่างรวดเร็ว ( 300K+ ทั้งหมดและ 1K+ ทุกวันบน PYPI จนถึงตอนนี้ ) และงานของคุณจะถูกใช้อย่างกว้างขวางและอ้างถึงโดยชุมชน อ้างถึงคู่มือการบริจาคเพื่อดูวิธีการรวมโมเดลของคุณใน PYPOTS
ที่ PYPOTS สิ่งต่าง ๆ เกี่ยวข้องกับกาแฟซึ่งเราคุ้นเคย ใช่นี่คือจักรวาลกาแฟ! อย่างที่คุณเห็นมีหม้อกาแฟในโลโก้ Pypots และอะไรอีก? โปรดอ่านต่อ ;-)
- ชุดข้อมูลอนุกรมเวลาถูกนำมาเป็นเมล็ดกาแฟที่ PYPOTS และชุดข้อมูลหม้อเป็นเมล็ดกาแฟที่ไม่สมบูรณ์พร้อมชิ้นส่วนที่หายไปซึ่งมีความหมายของตัวเอง ในการจัดทำชุดข้อมูลอนุกรมเวลาสาธารณะที่หลากหลายให้กับผู้ใช้ได้อย่างง่ายดาย ชุดข้อมูลอนุกรมเวลา (TSDB) ถูกสร้างขึ้นเพื่อสร้างชุดข้อมูลอนุกรมเวลาการโหลดง่ายสุด ๆ ! เยี่ยมชม TSDB ตอนนี้เพื่อทราบข้อมูลเพิ่มเติมเกี่ยวกับเครื่องมือที่มีประโยชน์นี้หรือไม่และตอนนี้รองรับชุดข้อมูลโอเพ่นซอร์ส 172 ชุด!
ในการจำลองถั่วข้อมูลในโลกแห่งความเป็นจริงด้วยความหายไปห้องสมุดระบบนิเวศ Pygrinder ซึ่งเป็นชุดเครื่องมือช่วยบดเมล็ดกาแฟของคุณให้กลายเป็นสิ่งที่ไม่สมบูรณ์ถูกสร้างขึ้น รูปแบบที่ขาดหายไปแบ่งออกเป็นสามประเภทตามทฤษฎีของโรบิน 43 : MCAR (หายไปอย่างสมบูรณ์โดยสุ่ม), มี.ค. (หายไปโดยสุ่ม) และ MNAR (หายไปโดยสุ่ม) Pygrinder สนับสนุนพวกเขาทั้งหมดและฟังก์ชั่นเพิ่มเติมที่เกี่ยวข้องกับความหายไป ด้วย Pygrinder คุณสามารถแนะนำค่าที่ขาดหายไปสังเคราะห์ลงในชุดข้อมูลของคุณด้วยรหัสบรรทัดเดียว
- ในการประเมินประสิทธิภาพของอัลกอริทึม PYPOTS อย่างเป็นธรรมได้ทำการสร้างเบนช็อตชุดการเปรียบเทียบซึ่งให้บริการท่อส่งข้อมูลมาตรฐานและรวมกันเพื่อเตรียมชุดข้อมูลสำหรับการวัดประสิทธิภาพของอัลกอริทึม POTS ที่แตกต่างกันในงานต่างๆ
ตอนนี้ถั่วเครื่องบดและหม้อพร้อมโปรดมีที่นั่งบนม้านั่งและลองคิดดูวิธีการชงกาแฟให้เราสักถ้วย บทเรียนมีความจำเป็น! เมื่อพิจารณาถึงภาระงานในอนาคตบทเรียน PYPOTS จะถูกปล่อยออกมาใน repo ครั้งเดียวและคุณสามารถค้นหาได้ใน Brewpots ลองดูตอนนี้และเรียนรู้วิธีการชงชุดข้อมูลหม้อของคุณ!
☕ยินดีต้อนรับสู่จักรวาลของ PYPOTS สนุกและสนุก!
คุณสามารถอ้างถึงคำสั่งการติดตั้งในเอกสาร PYPOTS สำหรับแนวทางที่มีรายละเอียดเพิ่มเติม
PYPOTS มีให้ทั้ง PYPI และ Anaconda คุณสามารถติดตั้ง PYPOTS ได้เช่นเดียวกับ TSDB, Pygrinder, Benchpots และ AI4TS:
# via pip
pip install pypots # the first time installation
pip install pypots --upgrade # update pypots to the latest version
# install from the latest source code with the latest features but may be not officially released yet
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip
# via conda
conda install conda-forge::pypots # the first time installation
conda update conda-forge::pypots # update pypots to the latest version นอกจาก BrewPots แล้วคุณยังสามารถค้นหาสมุดบันทึกการสอนที่เรียบง่ายและเริ่มต้นได้อย่างรวดเร็วบน Google Colab หากคุณมีคำถามเพิ่มเติมโปรดดูเอกสารเอกสาร PYPOTS Docs.pypots.com นอกจากนี้คุณยังสามารถยกปัญหาหรือถามในชุมชนของเรา
เรานำเสนอตัวอย่างการใช้งานของการใส่ค่าที่หายไปในอนุกรมเวลาด้วย PYPOTS ด้านล่างคุณสามารถคลิกเพื่อดู
# Data preprocessing. Tedious, but PyPOTS can help.
import numpy as np
from sklearn . preprocessing import StandardScaler
from pygrinder import mcar
from pypots . data import load_specific_dataset
data = load_specific_dataset ( 'physionet_2012' ) # PyPOTS will automatically download and extract it.
X = data [ 'X' ]
num_samples = len ( X [ 'RecordID' ]. unique ())
X = X . drop ([ 'RecordID' , 'Time' ], axis = 1 )
X = StandardScaler (). fit_transform ( X . to_numpy ())
X = X . reshape ( num_samples , 48 , - 1 )
X_ori = X # keep X_ori for validation
X = mcar ( X , 0.1 ) # randomly hold out 10% observed values as ground truth
dataset = { "X" : X } # X for model input
print ( X . shape ) # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features
# Model training. This is PyPOTS showtime.
from pypots . imputation import SAITS
from pypots . utils . metrics import calc_mae
saits = SAITS ( n_steps = 48 , n_features = 37 , n_layers = 2 , d_model = 256 , n_heads = 4 , d_k = 64 , d_v = 64 , d_ffn = 128 , dropout = 0.1 , epochs = 10 )
# Here I use the whole dataset as the training set because ground truth is not visible to the model, you can also split it into train/val/test sets
saits . fit ( dataset ) # train the model on the dataset
imputation = saits . impute ( dataset ) # impute the originally-missing values and artificially-missing values
indicating_mask = np . isnan ( X ) ^ np . isnan ( X_ori ) # indicating mask for imputation error calculation
mae = calc_mae ( imputation , np . nan_to_num ( X_ori ), indicating_mask ) # calculate mean absolute error on the ground truth (artificially-missing values)
saits . save ( "save_it_here/saits_physionet2012.pypots" ) # save the model for future use
saits . load ( "save_it_here/saits_physionet2012.pypots" ) # reload the serialized model file for following imputation or training เคล็ดลับ
[อัปเดตใน มิ.ย. 2024] ? การกำหนดเวลาการกำหนดเวลาที่ครอบคลุมครั้งที่ 1 กระดาษ TSI-bench: การเปรียบเทียบเวลาการเปรียบเทียบเวลาในขณะนี้เป็นที่สาธารณะ รหัสเป็นโอเพ่นซอร์สใน repo wimeed_imputation ด้วยการทดลองเกือบ 35,000 ครั้งเราให้การศึกษาเปรียบเทียบที่ครอบคลุมเกี่ยวกับ 28 วิธีการใส่ข้อมูล, 3 รูปแบบที่ขาดหายไป (คะแนน, ลำดับ, บล็อก), อัตราที่หายไปต่าง ๆ และชุดข้อมูลในโลกแห่งความจริง 8 ชุด
[อัปเดตในเดือนกุมภาพันธ์ 2024] ? กระดาษสำรวจของเราการเรียนรู้อย่างลึกซึ้งสำหรับการใส่ชุดเวลาหลายตัวแปร: การสำรวจได้รับการเผยแพร่บน arxiv เราทบทวนวรรณกรรมเกี่ยวกับวิธีการใส่ความลึกที่ล้ำสมัยสำหรับอนุกรมเวลาให้อนุกรมวิธานสำหรับพวกเขาและหารือเกี่ยวกับความท้าทายและทิศทางในอนาคตในสาขานี้
กระดาษแนะนำ PYPOTS มีอยู่ใน arxiv และรุ่นสั้น ๆ ของมันได้รับการยอมรับจากการประชุมเชิงปฏิบัติการนานาชาติ Sigkdd ครั้งที่ 9 เกี่ยวกับการขุดและการเรียนรู้จากอนุกรมเวลา (milets'23)) นอกจากนี้ PYPOTS ยังรวมอยู่ในโครงการระบบนิเวศ Pytorch เรากำลังดำเนินการเผยแพร่ในสถานที่ทางวิชาการอันทรงเกียรติเช่น JMLR (ติดตามสำหรับการเรียนรู้ของเครื่องซอฟต์แวร์โอเพ่นซอร์ส) หากคุณใช้ PYPOTS ในงานของคุณโปรดอ้างถึงด้านล่างและแสดงที่เก็บนี้เพื่อให้คนอื่นสังเกตเห็นห้องสมุดนี้ -
มีโครงการวิจัยทางวิทยาศาสตร์โดยใช้ PYPOTS และการอ้างอิงในเอกสารของพวกเขา นี่คือรายการที่ไม่สมบูรณ์ของพวกเขา
@article { du2023pypots ,
title = { {PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series} } ,
author = { Wenjie Du } ,
journal = { arXiv preprint arXiv:2305.18811 } ,
year = { 2023 } ,
}หรือ
Wenjie du PYPOTS: กล่องเครื่องมือ Python สำหรับการขุดข้อมูลในอนุกรมเวลาที่สังเกตได้บางส่วน Arxiv, ABS/2305.18811, 2023
คุณยินดีเป็นอย่างยิ่งที่จะมีส่วนร่วมในโครงการที่น่าตื่นเต้นนี้!
โดยการกำหนดรหัสของคุณคุณจะ
template ในแต่ละแพ็คเกจงาน (เช่น pypots/imputation/template) เพื่อเริ่มต้นอย่างรวดเร็ว;นอกจากนี้คุณยังสามารถมีส่วนร่วมใน PYPOTS โดยเพียงแค่จ้องมอง? repo นี้เพื่อช่วยให้ผู้คนสังเกตเห็นได้มากขึ้น ดาวของคุณคือการรับรู้ของคุณต่อ PYPOTS และมันก็สำคัญ!
- ตรวจสอบรายการทั้งหมดของผู้ใช้ของเราในเว็บไซต์ PYPOTS ที่นี่!
เราใส่ใจเกี่ยวกับข้อเสนอแนะจากผู้ใช้ของเราดังนั้นเราจึงสร้างชุมชน PYPOTS
หากคุณมีข้อเสนอแนะหรือต้องการมีส่วนร่วมในความคิดหรือแบ่งปันเอกสารที่เกี่ยวข้องกับอนุกรมเวลาให้เข้าร่วมกับเราและบอก ชุมชน Pypots เปิดกว้างโปร่งใสและเป็นมิตรอย่างแน่นอน มาทำงานร่วมกันเพื่อสร้างและปรับปรุง PYPOTS!
Du, W. , Cote, D. , & Liu, Y. (2023) SAITS: การใส่ตัวเองตามตัวเองสำหรับอนุกรมเวลา ระบบผู้เชี่ยวชาญพร้อมแอพพลิเคชั่น ↩ 2
Project Gungnir โลกที่ 1 LLM สำหรับการสร้างแบบจำลองมัลติทาสก์แบบอนุกรมเวลาจะพบคุณเร็ว ๆ นี้ ค่าที่ขาดหายไปและความยาวตัวแปรในชุดข้อมูลของคุณ? ยากที่จะทำการเรียนรู้มัลติทาสก์กับอนุกรมเวลาของคุณ? ไม่มีปัญหาอีกต่อไป เราจะเปิดแอปพลิเคชันสำหรับการทดสอบเบต้าสาธารณะเมื่อเร็ว ๆ นี้ ;-) ติดตามเราและติดตามความคืบหน้า! Timeseries.ai ↩
Zhan, T. , He, Y. , Deng, Y. , Li, Z. , Du, W. , & Wen, Q. (2024) หลักฐานเวลาเครือข่ายฟิวชั่น: มุมมองหลายแหล่งในการพยากรณ์อนุกรมเวลาระยะยาว Arxiv 2024
Xu, Z. , Zeng, A. , & Xu, Q. (2024) พอดี: อนุกรมเวลาการสร้างแบบจำลองด้วยพารามิเตอร์ 10K ICLR 2024
Wang, S. , Wu, H. , Shi, X. , Hu, T. , Luo, H. , Ma, L. , ... & Zhou, J. (2024) Timemixer: การผสม multiscale decomposale สำหรับการพยากรณ์อนุกรมเวลา ICLR 2024
Liu, Y. , Hu, T. , Zhang, H. , Wu, H. , Wang, S. , Ma, L. , & Long, M. (2024) Itransformer: หม้อแปลงคว่ำมีประสิทธิภาพสำหรับการพยากรณ์อนุกรมเวลา ICLR 2024
Luo, D. , & Wang X. (2024) Moderntcn: โครงสร้างการยึดมั่นบริสุทธิ์ที่ทันสมัยสำหรับการวิเคราะห์อนุกรมเวลาทั่วไป ICLR 2024
Nie, T. , Qin, G. , Mei, Y. , & Sun, J. (2024) imputeformer: หม้อแปลงที่เกิดจากอันดับต่ำสำหรับการใส่ patiotemporal ทั่วไป KDD 2024
Yi, K. , Zhang, Q. , Fan, W. , Wang, S. , Wang, P. , He, H. , An, N. , Lian, D. , Cao, L. , & Niu, Z. (2023) MLPs ความถี่โดเมนเป็นผู้เรียนที่มีประสิทธิภาพมากขึ้นในการพยากรณ์อนุกรมเวลา Neurips 2023
Liu, Y. , Li, C. , Wang, J. , & Long, M. (2023) Koopa: การเรียนรู้การเปลี่ยนแปลงอนุกรมเวลาที่ไม่คงที่ด้วยตัวทำนาย Koopman Neurips 2023
Zhang, Y. , & Yan, J. (2023) Crossformer: Transformer ใช้การพึ่งพามิติข้ามมิติสำหรับการพยากรณ์อนุกรมเวลาหลายตัวแปร ICLR 2023
Wu, H. , Hu, T. , Liu, Y. , Zhou, H. , Wang, J. , & Long, M. (2023) TimesNet: การสร้างแบบจำลองการแปรผัน 2D ชั่วคราวสำหรับการวิเคราะห์อนุกรมเวลาทั่วไป ICLR 2023 ↩
Nie, Y. , Nguyen, NH, Sinthong, P. , & Kalagnanam, J. (2023) อนุกรมเวลามีค่า 64 คำ: การพยากรณ์ระยะยาวกับหม้อแปลง ICLR 2023 ↩
Woo, G. , Liu, C. , Sahoo, D. , Kumar, A. , & Hoi, S. (2023) Etsformer: Transformers ปรับให้เรียบแบบเอ็กซ์โปเนนเชียลสำหรับการพยากรณ์อนุกรมเวลา ICLR 2023 ↩
Wang, H. , Peng, J. , Huang, F. , Wang, J. , Chen, J. , & Xiao, Y. (2023) MICN: การสร้างแบบจำลองบริบทในระดับท้องถิ่นและระดับโลกสำหรับการพยากรณ์ซีรีย์ระยะยาว ICLR 2023
Zeng, A. , Chen, M. , Zhang, L. , & Xu, Q. (2023) หม้อแปลงมีผลบังคับใช้สำหรับการพยากรณ์อนุกรมเวลาหรือไม่? Aaai 2023 ↩
Das, A. , Kong, W. , Leach, A. , Mathur, S. , Sen, R. , & Yu, R. (2023) การพยากรณ์ระยะยาวกับ Tide: Series Encoder หนาแน่น TMLR 2023
Qian, L. , Ibrahim, Z. , Ellis, HL, Zhang, A. , Zhang, Y. , Wang, T. , & Dobson, R. (2023) ความรู้เพิ่มความรู้ตามเงื่อนไขสำหรับอนุกรมเวลาการดูแลสุขภาพ Arxiv 2023
Lin, S. , Lin, W. , Wu, W. , Zhao, F. , Mo, R. , & Zhang, H. (2023) SEGRNN: เซ็กเมนต์เครือข่ายประสาทกำเริบสำหรับการพยากรณ์อนุกรมเวลาระยะยาว Arxiv 2023
Liu, M. , Zeng, A. , Chen, M. , Xu, Z. , Lai, Q. , Ma, L. , & Xu, Q. (2022) Scinet: การสร้างแบบจำลองอนุกรมเวลาและการพยากรณ์ด้วยตัวอย่างและการโต้ตอบ Neurips 2022
Liu, Y. , Wu, H. , Wang, J. , & Long, M. (2022) Transformers ที่ไม่คงที่: สำรวจความคงที่ในการพยากรณ์อนุกรมเวลา Neurips 2022
Zhou, T. , Ma, Z. , Wen, Q. , Sun, L. , Yao, T. , Yin, W. , & Jin, R. (2022) ฟิล์ม: ความถี่ปรับปรุงโมเดลหน่วยความจำ Legendre สำหรับการพยากรณ์อนุกรมเวลาระยะยาว Neurips 2022
Kim, T. , Kim, J. , Tae, Y. , Park, C. , Choi, JH, & Choo, J. (2022) อินสแตนซ์แบบย้อนกลับได้สำหรับการพยากรณ์อนุกรมเวลาที่แม่นยำกับการเปลี่ยนการกระจาย ICLR 2022
Liu, S. , Yu, H. , Liao, C. , Li, J. , Lin, W. , Liu, Axe, & Dustdar, S. (2022) Pyraformer: ความสนใจของเสี้ยมที่มีความซับซ้อนต่ำสำหรับการสร้างแบบจำลองอนุกรมเวลาระยะยาวและการพยากรณ์ ICLR 2022
จาง, X. , Zeman, M. , Tsiligkaridis, T. , & Zitnik, M. (2022) เครือข่ายที่นำด้วยกราฟสำหรับอนุกรมเวลาหลายตัวแปรที่สุ่มตัวอย่างผิดปกติ ICLR 2022
Zhou, T. , Ma, Z. , Wen, Q. , Wang, X. , Sun, L. , & Jin, R. (2022) FedFormer: หม้อแปลงที่สลายตัวที่เพิ่มขึ้นสำหรับการพยากรณ์ซีรีย์ระยะยาว ICML 2022
Wu, H. , Xu, J. , Wang, J. , & Long, M. (2021) Autoformer: หม้อแปลงการสลายตัวที่มีความสัมพันธ์อัตโนมัติสำหรับการพยากรณ์ซีรีย์ระยะยาว Neurips 2021
Tashiro, Y. , Song, J. , Song, Y. , & Ermon, S. (2021) CSDI: แบบจำลองการแพร่กระจายตามเงื่อนไขสำหรับการใส่ชุดเวลาที่น่าจะเป็น Neurips 2021
Zhou, H. , Zhang, S. , Peng, J. , Zhang, S. , Li, J. , Xiong, H. , & Zhang, W. (2021) ผู้แจ้ง: เกินหม้อแปลงที่มีประสิทธิภาพสำหรับการพยากรณ์อนุกรมเวลาลำดับที่ยาวนาน Aaai 2021
Miao, X. , Wu, Y. , Wang, J. , Gao, Y. , Mao, X. , & Yin, J. (2021) การเรียนรู้แบบกึ่งผู้ดูแลกึ่งทั่วไปสำหรับการใส่ชุดเวลาหลายตัวแปร Aaai 2021
Ma, Q. , Chen, C. , Li, S. , & Cottrell, GW (2021) การเป็นตัวแทนการเรียนรู้สำหรับการจัดกลุ่มอนุกรมเวลาที่ไม่สมบูรณ์ Aaai 2021
Chen, X. , & Sun, L. (2021) การแยกตัวประกอบชั่วคราวแบบเบย์สำหรับการทำนายอนุกรมเวลาหลายมิติ ธุรกรรม IEEE เกี่ยวกับการวิเคราะห์รูปแบบและความฉลาดของเครื่องจักร
Cao, D. , Wang, Y. , Duan, J. , Zhang, C. , Zhu, X. , Huang, C. , Tong, Y. , Xu, B. , Bai, J. , Tong, J. , & Zhang, Q. (2020) เครือข่ายนิวรัลกราฟชั่วคราวสำหรับการพยากรณ์อนุกรมเวลาหลายตัวแปร Neurips 2020
Kitaev, N. , Kaiser, ł., & Levskaya, A. (2020) นักปฏิรูป: หม้อแปลงที่มีประสิทธิภาพ ICLR 2020
Fortuin, V. , Baranchuk, D. , Raetsch, G. & Mandt, S. (2020) GP-VAE: การใส่ชุดเวลาที่น่าจะเป็น Aistats 2020
Jong, JD, Emon, Ma, Wu, P. , Karki, R. , Sood, M. , Godard, P. , Ahmad, A. , Vrooman, HA, Hofmann-Apitius, M. , & Fröhlich, H. (2019) การเรียนรู้อย่างลึกซึ้งสำหรับการจัดกลุ่มของวิถีผู้ป่วยทางคลินิกหลายตัวแปรที่มีค่าที่ขาดหายไป Gigascience
Yoon, J. , Zame, WR, & Van der Schaar, M. (2019) การประมาณข้อมูลที่ขาดหายไปในสตรีมข้อมูลชั่วคราวโดยใช้เครือข่ายประสาทหลายทิศทาง การทำธุรกรรม IEEE เกี่ยวกับวิศวกรรมชีวการแพทย์
Cao, W. , Wang, D. , Li, J. , Zhou, H. , Li, L. , & Li, Y. (2018) Brits: การใส่ซ้ำแบบสองทิศทางสำหรับอนุกรมเวลา Neurips 2018
Che, Z. , Purushotham, S. , Cho, K. , Sontag, DA, & Liu, Y. (2018) เครือข่ายประสาทที่เกิดขึ้นอีกสำหรับอนุกรมเวลาหลายตัวแปรที่มีค่าที่หายไป รายงานทางวิทยาศาสตร์
Bai, S. , Kolter, JZ, & Koltun, V. (2018) การประเมินเชิงประจักษ์ของเครือข่าย convolutional และกำเริบทั่วไปสำหรับการสร้างแบบจำลองลำดับ Arxiv 2018
Vaswani, A. , Shazeer, NM, Parmar, N. , Uszkoreit, J. , Jones, L. , Gomez, An, Kaiser, L. , & Polosukhin, I. (2017) ความสนใจคือสิ่งที่คุณต้องการ Neurips 2017
Wikipedia: การแก้ไขเชิงเส้น↩
Rubin, DB (1976) การอนุมานและข้อมูลที่ขาดหายไป Biometrika