صندوق أدوات Python للتعلم الآلي على سلسلة زمنية محسوسة جزئيًا
⦿ Motivation : نظرًا لجميع أنواع الأسباب مثل فشل أجهزة استشعار التجميع ، وخطأ في الاتصال ، وخلط غير متوقع ، فإن القيم المفقودة شائعة في السلسلة الزمنية من البيئة في العالم الحقيقي. وهذا يجعل السلسلة الزمنية المحروقة جزئيًا (POTS) مشكلة منتشرة في نمذجة العالم المفتوح ويمنع تحليل البيانات المتقدمة. على الرغم من أن هذه المشكلة مهمة ، إلا أن مجال التعلم الآلي على الأواني لا يزال يفتقر إلى مجموعة أدوات مخصصة. يتم إنشاء Pypots لملء هذا الفراغ.
⦿ Mission : وُلدت Pypots (المعلنة "أواني فطيرة") لتصبح صندوق أدوات مفيد ستجعل التعلم الآلي على الأواني سهلة وليس مملة ، لمساعدة المهندسين والباحثين على التركيز أكثر على المشكلات الأساسية في أيديهم بدلاً من كيفية التعامل مع الأجزاء المفقودة في بياناتهم. سوف تستمر Pypots في دمج خوارزميات التعلم الآلي الكلاسيكية وأحدث أحدث خوارزميات التعلم الآلي لسلسلة زمنية متعددة المتغيرات محسوبة جزئيًا. بالتأكيد ، إلى جانب مختلف الخوارزميات ، ستحصل Pypots على واجهات برمجة التطبيقات الموحدة مع وثائق مفصلة وأمثلة تفاعلية عبر الخوارزميات كدروس تعليمية.
؟ يرجى توجيه هذا الريبو لمساعدة الآخرين على ملاحظة بدائل إذا كنت تعتقد أنها مجموعة أدوات مفيدة. يرجى التكرار استشهاد بدلات في منشوراتك إذا كان ذلك يساعد في البحث. هذا يعني حقًا الكثير لأبحاثنا مفتوحة المصدر. شكرًا لك!
يتم تنظيم بقية ملف readme على النحو التالي: ❖ الخوارزميات المتاحة ، ❖ pypots ecosystem ، ❖ التثبيت ، ❖ الاستخدام ، ❖ نقلاً عن pypots ، ❖ المساهمة ، ❖ المجتمع .
يدعم Pypots المهام ، والتصنيف ، والتجميع ، والتنبؤ ، والكشف عن الشذوذ على السلسلة الزمنية متعددة المتغيرات التي تمت ملاحظتها جزئيًا مع القيم المفقودة. يوضح الجدول أدناه توفر كل خوارزمية (مرتبة حسب السنة) في بدات لمهام مختلفة. يشير الرمز ✅ إلى أن الخوارزمية متاحة للمهمة المقابلة (لاحظ أنه سيتم تحديث النماذج بشكل مستمر في المستقبل للتعامل مع المهام غير المدعومة حاليًا. ترقبوا).
؟ منذ V0.2 ، حصلت جميع نماذج الشبكات العصبية في Pypots على دعم تحسين الفائقة. يتم تنفيذ هذه الوظيفة مع إطار عمل Microsoft NNI. قد ترغب في الرجوع إلى استطلاع التثبيت في السلسلة الزمنية REPO Awesome_Iptation لمعرفة كيفية تكوين وضبط المقاييس المفرطة.
لاحظ أن جميع النماذج التي اسمها ?? في الجدول (على سبيل المثال المحول ، لا يمكن اقتراح Itransformer ، المخبر وما إلى ذلك) كخوارزميات لبيانات الأواني في أوراقهم ، ولا يمكنهم قبول السلاسل الزمنية مباشرة مع القيم المفقودة كمدخلات ، ناهيك عن التضمين. لجعلها قابلة للتطبيق على بيانات الأواني ، نطبق على وجه التحديد استراتيجية التضمين ونهج التدريب (ORT+MIT) كما فعلنا في ورقة سايتس 1 .
يتم اختصار أنواع المهام على النحو التالي: IMPU : Impustry ؛ FORE : التنبؤ CLAS : التصنيف ؛ CLUS : التجميع. ANOD : اكتشاف الشذوذ. يتم سرد جميع المراجع والروابط الورقية في أسفل هذا الملف.
| يكتب | Algo | Impu | الصدارة | كلاس | كلوس | أنود | سنة - مكان |
|---|---|---|---|---|---|---|---|
| LLM | الوقت الزمني | ✅ | ✅ | ✅ | ✅ | ✅ | Later in 2024 |
| الشبكة العصبية | Tefn؟ ؟ 3 | ✅ | 2024 - arXiv | ||||
| الشبكة العصبية | يناسب؟ ؟ 4 | ✅ | 2024 - ICLR | ||||
| الشبكة العصبية | Timemixer 5 | ✅ | 2024 - ICLR | ||||
| الشبكة العصبية | Itransformer؟ ؟ 6 | ✅ | 2024 - ICLR | ||||
| الشبكة العصبية | Moderntcn 7 | ✅ | 2024 - ICLR | ||||
| الشبكة العصبية | Imputeformer؟ ؟ 8 | ✅ | 2024 - KDD | ||||
| الشبكة العصبية | سايتس 1 | ✅ | 2023 - ESWA | ||||
| الشبكة العصبية | الحنق؟ ؟ 9 | ✅ | 2023 - NeurIPS | ||||
| الشبكة العصبية | Koopa؟ ؟ 10 | ✅ | 2023 - NeurIPS | ||||
| الشبكة العصبية | crossformer؟ ؟ 11 | ✅ | 2023 - ICLR | ||||
| الشبكة العصبية | الشبكة الزمنية 12 | ✅ | 2023 - ICLR | ||||
| الشبكة العصبية | patchtst؟ ؟ 13 | ✅ | 2023 - ICLR | ||||
| الشبكة العصبية | etsformer؟ ؟ 14 | ✅ | 2023 - ICLR | ||||
| الشبكة العصبية | ميكان؟ ؟ 15 | ✅ | 2023 - ICLR | ||||
| الشبكة العصبية | dlinear؟ ؟ 16 | ✅ | 2023 - AAAI | ||||
| الشبكة العصبية | المد؟ ؟ 17 | ✅ | 2023 - TMLR | ||||
| الشبكة العصبية | CSAI 18 | ✅ | ✅ | 2023 - arXiv | |||
| الشبكة العصبية | segrnn؟ ؟ 19 | ✅ | 2023 - arXiv | ||||
| الشبكة العصبية | Scinet؟ ؟ 20 | ✅ | 2022 - NeurIPS | ||||
| الشبكة العصبية | TR. ؟؟؟ 21 | ✅ | 2022 - NeurIPS | ||||
| الشبكة العصبية | فيلم؟ 22 | ✅ | 2022 - NeurIPS | ||||
| الشبكة العصبية | revin_scinet؟ ؟ 23 | ✅ | 2022 - ICLR | ||||
| الشبكة العصبية | pyraformer؟ ؟ 24 | ✅ | 2022 - ICLR | ||||
| الشبكة العصبية | Raindrop 25 | ✅ | 2022 - ICLR | ||||
| الشبكة العصبية | FedFormer؟ ؟ 26 | ✅ | 2022 - ICML | ||||
| الشبكة العصبية | مؤلف تلقائي؟ ؟ 27 | ✅ | 2021 - NeurIPS | ||||
| الشبكة العصبية | CSDI 28 | ✅ | ✅ | 2021 - NeurIPS | |||
| الشبكة العصبية | مخبر؟ 29 | ✅ | 2021 - AAAI | ||||
| الشبكة العصبية | الولايات المتحدة 30 | ✅ | 2021 - AAAI | ||||
| الشبكة العصبية | CRLI 31 | ✅ | 2021 - AAAI | ||||
| احتمالية | BTTF 32 | ✅ | 2021 - TPAMI | ||||
| الشبكة العصبية | STEMGNN؟ ؟ 33 | ✅ | 2020 - NeurIPS | ||||
| الشبكة العصبية | مصلح؟ ؟ 34 | ✅ | 2020 - ICLR | ||||
| الشبكة العصبية | GP-VAE 35 | ✅ | 2020 - AISTATS | ||||
| الشبكة العصبية | Vader 36 | ✅ | 2019 - GigaSci. | ||||
| الشبكة العصبية | M-RNN 37 | ✅ | 2019 - TBME | ||||
| الشبكة العصبية | البريطانيين 38 | ✅ | ✅ | 2018 - NeurIPS | |||
| الشبكة العصبية | GRU-D 39 | ✅ | ✅ | 2018 - Sci. Rep. | |||
| الشبكة العصبية | TCN؟ ؟ 40 | ✅ | 2018 - arXiv | ||||
| الشبكة العصبية | محول؟ 41 | ✅ | 2017 - NeurIPS | ||||
| ساذج | LERP 42 | ✅ | |||||
| ساذج | LOCF/NOCB | ✅ | |||||
| ساذج | يقصد | ✅ | |||||
| ساذج | متوسط | ✅ |
؟ المساهمة في النموذج الخاص بك الآن لزيادة تأثير البحث الخاص بك! تتزايد تنزيلات Pypots بسرعة ( 300K+ في المجموع و 1K+ يوميًا على PYPI حتى الآن ) ، وسيتم استخدام عملك على نطاق واسع من قبل المجتمع. ارجع إلى دليل المساهمة لمعرفة كيفية تضمين النموذج الخاص بك في Pypots.
في Pypots ، ترتبط الأشياء بالقهوة ، التي نعرفها. نعم ، هذا عالم القهوة! كما ترون ، هناك وعاء القهوة في شعار Pypots. وماذا؟ يرجى القراءة على ؛-)
؟ يتم أخذ مجموعات بيانات السلاسل الزمنية كحبوب القهوة في Pypots ، ومجموعات بيانات الأواني هي حبوب البن غير المكتملة مع الأجزاء المفقودة التي لها معاني خاصة بها. لجعل مختلف مجموعات بيانات السلاسل العامة المتاحة بسهولة للمستخدمين ، يتم إنشاء Beans لبيانات السلاسل الزمنية (TSDB) لجعل تحميل مجموعات بيانات السلسلة الزمنية سهلة للغاية! قم بزيارة TSDB الآن لمعرفة المزيد عن هذه الأداة المفيدة؟ ، وهي تدعم الآن ما مجموعه 172 مجموعة بيانات مفتوحة المصدر!
لمحاكاة حبوب البيانات الحقيقية مع فقدانها ، يتم إنشاء مكتبة النظام الإيكولوجي Pygrinder ، وهي مجموعة أدوات تساعد على طحن حبوب القهوة في عوامل غير مكتملة. تنقسم الأنماط المفقودة إلى ثلاث فئات وفقًا لنظرية روبن 43 : MCAR (مفقودة بشكل عشوائي تمامًا) ، مارس (مفقود عشوائيًا) ، و MNAR (مفقود ليس عشوائيًا). يدعم Pygrinder جميعهم والوظائف الإضافية المتعلقة بالمفقودة. مع Pygrinder ، يمكنك تقديم القيم المفقودة الاصطناعية في مجموعات البيانات الخاصة بك مع سطر واحد من التعليمات البرمجية.
؟ لتقييم أداء خوارزميات Pypots إلى حد ما ، يتم إنشاء مقاييس جناح القياس ، والتي توفر خطوط أنابيب معالجة البيانات القياسية والموحدة لإعداد مجموعات البيانات لقياس أداء خوارزميات الأواني المختلفة في مختلف المهام.
الآن الفاصوليا ، الطاحونة ، والوعاء جاهزة ، يرجى الحصول على مقعد على مقاعد البدلاء ودعونا نفكر في كيفية صنع فنجان من القهوة. البرامج التعليمية ضرورية! بالنظر إلى عبء العمل المستقبلي ، يتم إصدار برامج تعليمية Pypots في ريبو واحد ، ويمكنك العثور عليها في Brewpots. ألقِ نظرة عليها الآن ، وتعلم كيفية تخمير مجموعات بيانات الأواني الخاصة بك!
☕ مرحبًا بك في عالم بدات. استمتع بها واستمتع!
يمكنك الرجوع إلى تعليمات التثبيت في وثائق Pypots للحصول على مزيد من التفاصيل.
يتوفر Pypots على كل من Pypi و Anaconda. يمكنك تثبيت Pypots مثل أدناه وكذلك TSDB و Pygrinder و Benchpots و AI4TS:
# via pip
pip install pypots # the first time installation
pip install pypots --upgrade # update pypots to the latest version
# install from the latest source code with the latest features but may be not officially released yet
pip install https://github.com/WenjieDu/PyPOTS/archive/main.zip
# via conda
conda install conda-forge::pypots # the first time installation
conda update conda-forge::pypots # update pypots to the latest version إلى جانب Brewpots ، يمكنك أيضًا العثور على دفتر تعليمي بسيط وسريع للبدء على Google Colab. إذا كانت لديك أسئلة أخرى ، فيرجى الرجوع إلى Docs.Pypots.com الوثائق Pypots. يمكنك أيضًا إثارة مشكلة أو تسأل في مجتمعنا.
نقدم لكم مثالًا على الاستخدام لإقامة القيم المفقودة في السلاسل الزمنية مع بدات أدناه ، يمكنك النقر فوقه لعرضه.
# Data preprocessing. Tedious, but PyPOTS can help.
import numpy as np
from sklearn . preprocessing import StandardScaler
from pygrinder import mcar
from pypots . data import load_specific_dataset
data = load_specific_dataset ( 'physionet_2012' ) # PyPOTS will automatically download and extract it.
X = data [ 'X' ]
num_samples = len ( X [ 'RecordID' ]. unique ())
X = X . drop ([ 'RecordID' , 'Time' ], axis = 1 )
X = StandardScaler (). fit_transform ( X . to_numpy ())
X = X . reshape ( num_samples , 48 , - 1 )
X_ori = X # keep X_ori for validation
X = mcar ( X , 0.1 ) # randomly hold out 10% observed values as ground truth
dataset = { "X" : X } # X for model input
print ( X . shape ) # (11988, 48, 37), 11988 samples and each sample has 48 time steps, 37 features
# Model training. This is PyPOTS showtime.
from pypots . imputation import SAITS
from pypots . utils . metrics import calc_mae
saits = SAITS ( n_steps = 48 , n_features = 37 , n_layers = 2 , d_model = 256 , n_heads = 4 , d_k = 64 , d_v = 64 , d_ffn = 128 , dropout = 0.1 , epochs = 10 )
# Here I use the whole dataset as the training set because ground truth is not visible to the model, you can also split it into train/val/test sets
saits . fit ( dataset ) # train the model on the dataset
imputation = saits . impute ( dataset ) # impute the originally-missing values and artificially-missing values
indicating_mask = np . isnan ( X ) ^ np . isnan ( X_ori ) # indicating mask for imputation error calculation
mae = calc_mae ( imputation , np . nan_to_num ( X_ori ), indicating_mask ) # calculate mean absolute error on the ground truth (artificially-missing values)
saits . save ( "save_it_here/saits_physionet2012.pypots" ) # save the model for future use
saits . load ( "save_it_here/saits_physionet2012.pypots" ) # reload the serialized model file for following imputation or training نصيحة
[تحديثات في يونيو 2024] ؟ إن أول مقعد شامل للمرور الزمنية (TSI-BENCED): مؤشر المجلس الزمني المتكرر الآن متاح للجمهور. الكود مفتوح المصدر في repo asheoma_imptation. مع ما يقرب من 35000 تجربة ، نقدم دراسة شاملة لقياس القياس حول 28 طريقة التضمين ، 3 أنماط مفقودة (النقاط ، التسلسل ، الكتل) ، ومعدلات مختلفة مفقودة ، و 8 مجموعات بيانات في العالم الحقيقي.
[تحديثات في فبراير 2024] ؟ لدينا ورقة الاستقصاء التعليمية العميقة لاتخاذة السلسلة الزمنية متعددة المتغيرات: تم إصدار استطلاع على Arxiv. نحن نراجع بشكل شامل أدبيات أساليب التثبيت العميقة في السلاسل الزمنية ، ونقدم تصنيفًا لهم ، ونناقش التحديات والاتجاهات المستقبلية في هذا المجال.
تتوفر الورقة التي تقدم PYPOTS على ARXIV ، ويتم قبول نسخة قصيرة منه بواسطة ورشة SIGKDD الدولية التاسعة حول التعدين والتعلم من السلاسل الزمنية (MILETS'23)). بالإضافة إلى ذلك ، تم تضمين Pypots كمشروع للنظام الإيكولوجي Pytorch. نحن نتابع نشرها في الأماكن الأكاديمية المرموقة ، على سبيل المثال JMLR (Track for Machine Learning Open Source Software). إذا كنت تستخدم pypots في عملك ، فيرجى الاستشهاد به على النحو التالي و؟ هذا المستودع لجعل الآخرين يلاحظون هذه المكتبة. ؟
هناك مشاريع بحثية علمية تستخدم بدات والرجوع في أوراقهم. فيما يلي قائمة غير مكتملة منهم.
@article { du2023pypots ,
title = { {PyPOTS: a Python toolbox for data mining on Partially-Observed Time Series} } ,
author = { Wenjie Du } ,
journal = { arXiv preprint arXiv:2305.18811 } ,
year = { 2023 } ,
}أو
وينجي دو. PYPOTS: صندوق أدوات Python لاستخراج البيانات على سلسلة زمنية محروقة جزئيًا. Arxiv ، ABS/2305.18811 ، 2023.
اهلا وسهلا بكم في المساهمة في هذا المشروع المثير!
من خلال ارتكاب رمزك ، سوف تفعل ذلك
template في كل حزمة مهمة (مثل Pypots/Imputation/قالب) للبدء بسرعة ؛يمكنك أيضًا المساهمة في بدائل من خلال التحديق ببساطة؟ هذا الريبو لمساعدة المزيد من الناس على ملاحظة ذلك. نجمك هو اعترافك بالبروبوتات ، وهذا يهم!
؟ تحقق من قائمة كاملة من انتماءات المستخدمين لدينا على موقع pypots هنا!
نحن نهتم بتعليقات مستخدمينا ، لذلك نحن نبني مجتمع Pypots على
إذا كان لديك أي اقتراحات أو ترغب في المساهمة في الأفكار أو مشاركة الأوراق ذات الصلة بالسلاسل الزمنية ، انضم إلينا وأخبرنا. مجتمع Pypots مفتوح ، شفاف ، ودود بالتأكيد. دعونا نعمل معًا لبناء وتحسين بدلات!
Du ، W. ، Cote ، D. ، & Liu ، Y. (2023). سايتس: التضمين القائم على الاهتمام بالسلسلة الزمنية. أنظمة الخبراء مع التطبيقات . ↩ ↩ 2
سيلتقي Project Gungnir ، The World 1st LLM لنمذجة المهام المتعددة السلاسل الزمنية ، قريبًا. القيم المفقودة والأطوال المتغيرة في مجموعات البيانات الخاصة بك؟ من الصعب أداء التعلم متعدد المهام مع سلسلتك الزمنية؟ لم تعد المشاكل. سنفتح طلبًا لاختبار الإصدار التجريبي العام مؤخرًا ؛-) اتبعنا ، وتراجع! الوقت الزمني. جاي ↩
Zhan ، T. ، He ، Y. ، Deng ، Y. ، Li ، Z. ، Du ، W. ، & Wen ، Q. (2024). دليل الانصهار الوقت: عرض متعدد المصادر في التنبؤ بسلسلة زمنية طويلة الأجل. Arxiv 2024 . ↩
Xu ، Z. ، Zeng ، A. ، & Xu ، Q. (2024). يناسب: نمذجة السلسلة الزمنية مع معلمات 10K. ICLR 2024 . ↩
Wang ، S. ، Wu ، H. ، Shi ، X. ، Hu ، T. ، Luo ، H. ، Ma ، L. ، ... & Zhou ، J. (2024). Timemixer: خلط متعدد المقاييس قابل للتحلل للتنبؤ بسلسلة زمنية. ICLR 2024 . ↩
Liu ، Y. ، Hu ، T. ، Zhang ، H. ، Wu ، H. ، Wang ، S. ، Ma ، L. ، & Long ، M. (2024). Itransformer: المحولات المقلوبة فعالة للتنبؤ السلاسل الزمنية. ICLR 2024 . ↩
Luo ، D. ، & Wang X. (2024). ModernTCN: بنية الالتواء النقية الحديثة لتحليل السلاسل الزمنية العامة. ICLR 2024 . ↩
Nie ، T. ، Qin ، G. ، Mei ، Y. ، & Sun ، J. (2024). Imputeformer: محولات منخفضة الناجم عن الرتبة لتوضيح الزماني المكاني القابل للتعميم. KDD 2024 . ↩
Yi ، K. ، Zhang ، Q. ، Fan ، W. ، Wang ، S. ، Wang ، P. ، He ، H. ، An ، N. ، Lian ، D. ، Cao ، L. ، & Niu ، Z. (2023). تعد MLPs لمجال التردد متعلمين أكثر فعالية في التنبؤ بسلسلة زمنية. Neups 2023 . ↩
Liu ، Y. ، Li ، C. ، Wang ، J. ، & Long ، M. (2023). Koopa: تعلم ديناميات السلسلة الزمنية غير الثابتة مع تنبؤات Koopman. Neups 2023 . ↩
Zhang ، Y. ، & Yan ، J. (2023). CrossFormer: المحول باستخدام التبعية عبر الأوعية للتنبؤ بسلسلة زمنية متعددة المتغيرات. ICLR 2023 . ↩
Wu ، H. ، Hu ، T. ، Liu ، Y. ، Zhou ، H. ، Wang ، J. ، & Long ، M. (2023). الشبكة الزمنية: النمذجة الزمنية ثنائية الأبعاد لتحليل السلاسل الزمنية العامة. ICLR 2023 ↩
Nie ، Y. ، Nguyen ، NH ، Sinthong ، P. ، & Kalagnanam ، J. (2023). تستحق السلسلة الزمنية 64 كلمة: التنبؤ طويل الأجل مع المحولات. ICLR 2023 ↩
Woo ، G. ، Liu ، C. ، Sahoo ، D. ، Kumar ، A. ، & Hoi ، S. (2023). Etsformer: محولات تجانس أسية للتنبؤ بالسلاسل الزمنية. ICLR 2023 ↩
Wang ، H. ، Peng ، J. ، Huang ، F. ، Wang ، J. ، Chen ، J. ، & Xiao ، Y. (2023). MICN: نمذجة السياق المحلي والعالمي متعدد النطاق للتنبؤ السلسلة على المدى الطويل. ICLR 2023 . ↩
Zeng ، A. ، Chen ، M. ، Zhang ، L. ، & Xu ، Q. (2023). هل المحولات فعالة للتنبؤ السلاسل الزمنية؟ AAAI 2023 ↩
Das ، A. ، Kong ، W. ، Leach ، A. ، Mathur ، S. ، Sen ، R. ، & Yu ، R. (2023). التنبؤ على المدى الطويل مع المد والجزر الزمنية التشفير كثيف. TMLR 2023 . ↩
Qian ، L. ، Ibrahim ، Z. ، Ellis ، HL ، Zhang ، A. ، Zhang ، Y. ، Wang ، T. ، & Dobson ، R. (2023). المعرفة تعزيز التضمين الشرطية لسلسلة الوقت للرعاية الصحية. Arxiv 2023 . ↩
Lin ، S. ، Lin ، W. ، Wu ، W. ، Zhao ، F. ، Mo ، R. ، & Zhang ، H. (2023). SEGRNN: الشبكة العصبية المتكررة لتنبؤ السلاسل الزمنية طويلة الأجل. Arxiv 2023 . ↩
Liu ، M. ، Zeng ، A. ، Chen ، M. ، Xu ، Z. ، Lai ، Q. ، Ma ، L. ، & Xu ، Q. (2022). SCINET: نمذجة السلاسل الزمنية والتنبؤ مع عينة الالتفاف والتفاعل. Neupips 2022 . ↩
Liu ، Y. ، Wu ، H. ، Wang ، J. ، & Long ، M. (2022). المحولات غير الثابتة: استكشاف الثبات في التنبؤ بسلسلة زمنية. Neupips 2022 . ↩
Zhou ، T. ، Ma ، Z. ، Wen ، Q. ، Sun ، L. ، Yao ، T. ، Yin ، W. ، & Jin ، R. (2022). الفيلم: تردد نموذج الذاكرة المحسّنة للتنبؤ بسلسلة زمنية طويلة الأجل. Neupips 2022 . ↩
Kim ، T. ، Kim ، J. ، Tae ، Y. ، Park ، C. ، Choi ، JH ، & Choo ، J. (2022). تطبيع مثيل قابل للانعكاس للتنبؤ بالسلاسل الزمنية الدقيقة ضد تحول التوزيع. ICLR 2022 . ↩
Liu ، S. ، Yu ، H. ، Liao ، C. ، Li ، J. ، Lin ، W. ، Liu ، Ax ، & Dustdar ، S. (2022). Pyraformer: الاهتمام الهرمي منخفض المعقد لنمذجة وتنبؤ السلاسل الزمنية بعيدة المدى. ICLR 2022 . ↩
Zhang ، X. ، Zeman ، M. ، Tsiligkaridis ، T. ، & Zitnik ، M. (2022). شبكة موجهة الرسم البياني لسلسلة زمنية متعددة المتغيرات بعينة غير منتظمة. ICLR 2022 . ↩
Zhou ، T. ، Ma ، Z. ، Wen ، Q. ، Wang ، X. ، Sun ، L. ، & Jin ، R. (2022). FedFormer: التكرار المحول المحسّن للتنبؤ على المدى الطويل. ICML 2022 . ↩
Wu ، H. ، Xu ، J. ، Wang ، J. ، & Long ، M. (2021). التورم التلقائي: محولات التحلل مع الارتباط التلقائي للتنبؤ السلسلة على المدى الطويل. Neupips 2021 . ↩
Tashiro ، Y. ، Song ، J. ، Song ، Y. ، & Ermon ، S. (2021). CSDI: نماذج الانتشار المشروطة القائمة على النقاط لاتخاذة سلسلة زمنية احتمالية. Neupips 2021 . ↩
Zhou ، H. ، Zhang ، S. ، Peng ، J. ، Zhang ، S. ، Li ، J. ، Xiong ، H. ، & Zhang ، W. (2021). المخبر: ما وراء المحول الفعال للتسلسل الطويل للتنبؤ بالسلاسل الزمنية. AAAI 2021 . ↩
Miao ، X. ، Wu ، Y. ، Wang ، J. ، Gao ، Y. ، Mao ، X. ، & Yin ، J. (2021). التعلم شبه الخاضع للإشراف من أجل التثبيت على السلاسل الزمنية متعددة المتغيرات. AAAI 2021 . ↩
Ma ، Q. ، Chen ، C. ، Li ، S. ، & Cottrell ، GW (2021). التعلم تمثيلات لتجميع السلاسل الزمنية غير المكتملة. AAAI 2021 . ↩
Chen ، X. ، & Sun ، L. (2021). العامل الزمني بايزي للتنبؤ بسلسلة زمنية متعددة الأبعاد. معاملات IEEE على تحليل الأنماط وذكاء الآلة . ↩
Cao ، D. ، Wang ، Y. ، Duan ، J. ، Zhang ، C. ، Zhu ، X. ، Huang ، C. ، Tong ، Y. ، Xu ، B. ، Bai ، J. ، Tong ، J. ، & Zhang ، Q. (2020). الشبكة العصبية الرسم البياني الزمني الطيفي للتنبؤات الزمنية متعددة المتغيرات. Neupips 2020 . ↩
Kitaev ، N. ، Kaiser ، ł. ، & Levskaya ، A. (2020). المصلح: المحول الفعال. ICLR 2020 . ↩
Fortuin ، V. ، Baranchuk ، D. ، Raetsch ، G. & Mandt ، S. (2020). GP-VAE: IMPLISTER SERSION SERSIONS. Aistats 2020 . ↩
Jong ، Jd ، Emon ، Ma ، Wu ، P. ، Karki ، R. ، Sood ، M. ، Godard ، P. ، Ahmad ، A. ، Vrooman ، Ha ، Hofmann-Apitius ، M. ، & Fröhlich ، H. (2019). التعلم العميق لتجميع مسارات المريض السريرية متعددة المتغيرات مع القيم المفقودة. gigascience . ↩
Yoon ، J. ، Zame ، WR ، & Van Der Schaar ، M. (2019). تقدير البيانات المفقودة في تدفقات البيانات الزمنية باستخدام شبكات عصبية متكررة متعددة الاتجاهات. معاملات IEEE على الهندسة الطبية الحيوية . ↩
Cao ، W. ، Wang ، D. ، Li ، J. ، Zhou ، H. ، Li ، L. ، & Li ، Y. (2018). البريطانيون: ثنائي الاتجاه المتكرر للسلسلة الزمنية. Neups 2018 . ↩
Che ، Z. ، Purushotham ، S. ، Cho ، K. ، Sontag ، DA ، & Liu ، Y. (2018). الشبكات العصبية المتكررة لسلسلة زمنية متعددة المتغيرات مع قيم مفقودة. التقارير العلمية . ↩
Bai ، S. ، Kolter ، JZ ، & Koltun ، V. (2018). تقييم تجريبي للشبكات التلافيفية والمتكررة العامة لنمذجة التسلسل. Arxiv 2018 . ↩
فاسواني ، أ. الاهتمام هو كل ما تحتاجه. Neupips 2017 . ↩
ويكيبيديا: الاستيفاء الخطي ↩
روبن ، DB (1976). الاستدلال والبيانات المفقودة. Biometrika . ↩