
Neuromancer v1.5.2
โมดูลระบบประสาทที่มีข้อ จำกัด แบบไม่เชิงเส้นแบบปรับตัวและการปรับสภาพที่มีประสิทธิภาพ (Neuromancer) เป็นไลบรารีการเขียนโปรแกรมที่แตกต่างจากโอเพ่นซอร์ส (DP) สำหรับการแก้ปัญหาการเพิ่มประสิทธิภาพแบบ จำกัด พารามิเตอร์การระบุระบบฟิสิกส์ Neuromancer เขียนขึ้นใน pytorch และช่วยให้การรวมระบบการเรียนรู้ของเครื่องกับการคำนวณทางวิทยาศาสตร์สำหรับการสร้างแบบจำลองที่แตกต่างจากต้นจนจบและอัลกอริทึมที่ฝังอยู่กับความรู้และฟิสิกส์ก่อนหน้า
สารบัญ
- ภาพรวม
- คุณสมบัติที่สำคัญ
- มีอะไรใหม่ใน v1.5.2
- การติดตั้ง
- เริ่มต้น
- บทเรียน
- เอกสารและคู่มือผู้ใช้
คุณสมบัติที่สำคัญ
- เรียนรู้ที่จะสร้างแบบจำลองเรียนรู้ที่จะควบคุมเรียนรู้ที่จะเพิ่มประสิทธิภาพ : ห้องสมุดของเราถูกสร้างขึ้นเพื่อให้ผู้ใช้มีเครื่องมือมากมายในการแก้ปัญหาการเรียนรู้เพื่อเพิ่มประสิทธิภาพ (L2O) การเรียนรู้ที่จะจำลอง (L2M) และการเรียนรู้ที่จะควบคุม (L2C) งาน จัดการกับการเพิ่มประสิทธิภาพพารามิเตอร์แบบ จำกัด ขั้นสูงการเปลี่ยนแปลงของแบบจำลองของเหลวโดยใช้เครือข่ายประสาทที่ได้รับข้อมูลฟิสิกส์หรือเรียนรู้วิธีการควบคุมอุณหภูมิอากาศในอาคารในอาคารเพื่อเพิ่มประสิทธิภาพของอาคาร
- อินเทอร์เฟซ การเขียนโปรแกรมเชิงสัญลักษณ์ ทำให้ง่ายต่อการกำหนดความรู้ก่อนหน้านี้เกี่ยวกับฟิสิกส์ความรู้โดเมนและข้อ จำกัด ในกระบวนทัศน์การเรียนรู้เหล่านั้น
- เครื่องมือการเรียนรู้ที่ครอบคลุม : เข้าถึงบทช่วยสอนและแอพพลิเคชั่นตัวอย่างมากมายตั้งแต่การระบุระบบพื้นฐานไปจนถึงการควบคุมการทำนายขั้นสูงทำให้ผู้ใช้เรียนรู้และใช้ Neuromancer กับปัญหาในโลกแห่งความเป็นจริงได้ง่าย
- วิธีการที่ทันสมัย : Neuromancer เป็นข้อมูลล่าสุดเกี่ยวกับวิธีการของ SOTA เช่นเครือข่าย Kolgomorov-Arnold (Kans) สำหรับการประมาณฟังก์ชั่นสมการเชิงอนุพันธ์สามัญของระบบประสาท (โหนด) และการระบุความปลอดภัยที่ไม่เป็นเชิงเส้น
มีอะไรใหม่ใน v1.5.2
ความสามารถในการพยากรณ์และหม้อแปลงไฟฟ้า
เราขยายตัวอย่างโดเมนระบบพลังงานของเราด้วยการพยากรณ์โหลดสำหรับอาคาร เราแสดงการใช้แบบจำลองอนุกรมเวลาและการพยากรณ์โดยใช้ชุดข้อมูลการพยากรณ์โหลดไฟฟ้าระยะสั้น (กรณีศึกษาปานามา) เราแสดงให้เห็นถึงการพยากรณ์ความสามารถโดยใช้โมเดลหม้อแปลงบล็อกใหม่ที่เพิ่มเข้ามาในบล็อก (ประสาท) ของเราปี่รวมถึงบล็อกมาตรฐานอื่น ๆ นอกจากนี้เรายังใช้ข้อมูลสภาพอากาศในอดีตเพื่อช่วยในการพยากรณ์พลังงาน
Finite-Basis Kolgomorov Arnold Networks
Kolmogorov-Arnold Networks (Kans) ได้รับความสนใจเมื่อเร็ว ๆ นี้ว่าเป็นทางเลือกแทน Multilayer Perceptrons (MLPs) สำหรับการเรียนรู้ของเครื่องวิทยาศาสตร์ อย่างไรก็ตาม Kans อาจมีราคาแพงในการฝึกอบรมแม้สำหรับเครือข่ายที่ค่อนข้างเล็ก เราได้ดำเนินการบล็อก FBKAN (FBPINNs) สำหรับวิธีการสลายตัวของโดเมนสำหรับ kans ที่อนุญาตให้ Kans ขนาดเล็กหลายตัวได้รับการฝึกฝนควบคู่ไปกับการแก้ปัญหาที่แม่นยำสำหรับปัญหาหลายระดับ
ตัวอย่างใหม่:
การพยากรณ์โหลด
ฟังก์ชั่นการประมาณด้วยเครือข่าย kolgomorov-arnold
การติดตั้ง
เพียงแค่วิ่ง
สำหรับการติดตั้งด้วยตนเองโปรดดูคำแนะนำในการติดตั้ง
เริ่มต้น
ชุดการสอนที่กว้างขวางสามารถพบได้ในโฟลเดอร์ตัวอย่างและบทช่วยสอนด้านล่าง ตัวอย่างโน๊ตบุ๊คแบบอินเทอร์แอคทีฟมีอยู่ใน Google Colab! ทดสอบฟังก์ชั่น Neuromancer ก่อนที่จะโคลนที่เก็บและตั้งค่าสภาพแวดล้อม
สมุดบันทึกด้านล่างแนะนำ Abstractions หลักของไลบรารี Neuromancer โดยเฉพาะอย่างยิ่งอินเตอร์เฟสการเขียนโปรแกรมสัญลักษณ์และคลาสโหนด
ตัวแปรสัญลักษณ์โหนดข้อ จำกัด วัตถุประสงค์และคลาสระบบ
ส่วนที่ 1: การถดถอยเชิงเส้นใน pytorch กับ neuromancer
ส่วนที่ 2: การสอนไวยากรณ์ Neuromancer: ตัวแปรข้อ จำกัด และวัตถุประสงค์
ส่วนที่ 3: การสอนไวยากรณ์ Neuromancer: โมดูล, โหนดและคลาสระบบ
ตัวอย่าง
ตัวอย่างด่วนสำหรับวิธีการแก้ปัญหาการเพิ่มประสิทธิภาพแบบ จำกัด พารามิเตอร์โดยใช้ Neuromancer ใช้ประโยชน์จากอินเทอร์เฟซการเขียนโปรแกรมสัญลักษณ์ของเราโหนดและตัวแปรบล็อกไลบรารี Slim และคลาสการลงโทษ
# Neuromancer syntax example for constrained optimization
import neuromancer as nm
import torch
# define neural architecture
func = nm . modules . blocks . MLP ( insize = 1 , outsize = 2 ,
linear_map = nm . slim . maps [ 'linear' ],
nonlin = torch . nn . ReLU , hsizes = [ 80 ] * 4 )
# wrap neural net into symbolic representation via the Node class: map(p) -> x
map = nm . system . Node ( func , [ 'p' ], [ 'x' ], name = 'map' )
# define decision variables
x = nm . constraint . variable ( "x" )[:, [ 0 ]]
y = nm . constraint . variable ( "x" )[:, [ 1 ]]
# problem parameters sampled in the dataset
p = nm . constraint . variable ( 'p' )
# define objective function
f = ( 1 - x ) ** 2 + ( y - x ** 2 ) ** 2
obj = f . minimize ( weight = 1.0 )
# define constraints
con_1 = 100. * ( x >= y )
con_2 = 100. * ( x ** 2 + y ** 2 <= p ** 2 )
# create penalty method-based loss function
loss = nm . loss . PenaltyLoss ( objectives = [ obj ], constraints = [ con_1 , con_2 ])
# construct differentiable constrained optimization problem
problem = nm . problem . Problem ( nodes = [ map ], loss = loss )ตัวอย่างโดเมน
Neuromancer ถูกสร้างขึ้นเพื่อจัดการกับการสร้างแบบจำลองเฉพาะโดเมนและปัญหาการควบคุมที่หลากหลายโดยใช้วิธีการต่างๆ ที่นี่เราแสดงวิธีการจำลองและควบคุมระบบพลังงานอาคารรวมถึงใช้เทคนิคการพยากรณ์โหลด
สำหรับความครอบคลุมในเชิงลึกเพิ่มเติมของวิธีการของเราโปรดดูส่วนบทเรียนทั่วไปของเราด้านล่าง
ระบบพลังงาน
- การเรียนรู้การสร้างพลวัตทางความร้อนโดยใช้โอเดสประสาท
- เครือข่ายการต้านทานความร้อนแบบหลายโซนการสร้างความร้อนแบบไดนามิก
- การเรียนรู้พลวัตสมการสวิงโดยใช้โอเดสประสาท
- เรียนรู้ที่จะควบคุมอุณหภูมิอากาศในอาคารในอาคาร
- การพยากรณ์โหลดพลังงานสำหรับระบบการจัดการอากาศของอาคารสำนักงานที่มีรุ่น MLP และ CNN
- การพยากรณ์โหลดพลังงานสำหรับการสร้างด้วยโมเดล Transformers
- การเรียนรู้ที่จะควบคุมระบบ hyrdoelectricity
แบบฝึกหัดเกี่ยวกับวิธีการสำหรับการสร้างแบบจำลองการเพิ่มประสิทธิภาพและการควบคุม
การเรียนรู้ที่จะเพิ่มประสิทธิภาพ (L2O) การเขียนโปรแกรมพารามิเตอร์
Neuromancer ช่วยให้คุณสามารถกำหนดและแก้ไขปัญหาการเพิ่มประสิทธิภาพแบบพารามิเตอร์ในวงกว้างได้ใช้ประโยชน์จากการเรียนรู้ของเครื่องเพื่อเรียนรู้วิธีแก้ไขปัญหาดังกล่าว ข้อมูลเพิ่มเติมเกี่ยวกับการเขียนโปรแกรมพารามิเตอร์
ส่วนที่ 1: การเรียนรู้ที่จะแก้ปัญหาการเพิ่มประสิทธิภาพที่ จำกัด
ส่วนที่ 2: การเรียนรู้ที่จะแก้ปัญหาการเพิ่มประสิทธิภาพแบบสี่เหลี่ยมจัตุรัส
ส่วนที่ 3: การเรียนรู้ที่จะแก้ปัญหาการเพิ่มประสิทธิภาพ 2D ข้อ จำกัด
ส่วนที่ 4: การเรียนรู้ที่จะแก้ปัญหาการเพิ่มประสิทธิภาพที่ จำกัด ด้วยการไล่ระดับสีที่คาดการณ์ไว้
ส่วนที่ 5: การใช้ CVXPylayers สำหรับการฉายภาพที่แตกต่างกันไปยังชุดที่เป็นไปได้แบบโพลีโทปิก
ส่วนที่ 6: การเรียนรู้ที่จะปรับให้เหมาะสมกับการเรียนรู้แบบเมตริกสำหรับเลเยอร์แยกผู้ประกอบการ
เรียนรู้ที่จะควบคุม (L2C)
Neuromancer ช่วยให้คุณเรียนรู้นโยบายการควบคุมสำหรับระบบไดนามิกสีขาว/สีเทา/สีดำเต็มรูปแบบซึ่งอยู่ภายใต้ข้อ จำกัด ทางเลือกและฟังก์ชั่นวัตถุประสงค์ ข้อมูลเพิ่มเติมเกี่ยวกับการควบคุมการทำนายที่แตกต่างกัน
- ส่วนที่ 1: การเรียนรู้ที่จะทำให้ระบบพลวัตเชิงเส้นมีเสถียรภาพ
- ส่วนที่ 2: การเรียนรู้ที่จะทำให้สมการเชิงอนุพันธ์ไม่เชิงเส้นมีเสถียรภาพ
- ส่วนที่ 3: การเรียนรู้ที่จะควบคุมสมการเชิงอนุพันธ์แบบไม่เชิงเส้น
- ส่วนที่ 4: การเรียนรู้แบบจำลอง Neural ODE และนโยบายการควบคุมสำหรับระบบพลวัตที่ไม่รู้จัก
- ส่วนที่ 5: การเรียนรู้ฟังก์ชั่น Neural Lyapunov สำหรับระบบพลวัตแบบไม่เชิงเส้น
การประมาณฟังก์ชั่น
Neuromancer เป็นวิธีที่ทันสมัยด้วยวิธีการที่ทันสมัย ที่นี่เราแสดงข้อมูลเพิ่มเติมของเครือข่าย Kolgomorov-Arnold ข้อมูลเพิ่มเติมเกี่ยวกับเครือข่าย Kolgomorov-Arnold
- ส่วนที่ 1: การเปรียบเทียบ kans และ fbkans ในการเรียนรู้ฟังก์ชั่น 1D multiscale กับเสียงรบกวน
- ส่วนที่ 2: การเปรียบเทียบ kans และ fbkans ในการเรียนรู้ฟังก์ชั่น 2D multiscale กับเสียงรบกวน
ผู้ประกอบการประสาท
Neuromancer ช่วยให้หนึ่งสามารถใช้การเรียนรู้ของเครื่องฟิสิกส์ก่อนและความรู้โดเมนเพื่อสร้างแบบจำลองทางคณิตศาสตร์และความแตกต่างของระบบพลวัตเนื่องจากการสังเกตที่วัดได้ของพฤติกรรมของระบบ ข้อมูลเพิ่มเติมเกี่ยวกับ ID ระบบผ่านแบบจำลองพื้นที่ของระบบประสาทและ ODES
- ส่วนที่ 1: สมการเชิงอนุพันธ์ทั่วไปของระบบประสาท (โหนด)
- ส่วนที่ 2: การประมาณค่าพารามิเตอร์ของระบบ ODE
- ส่วนที่ 3: สมการเชิงอนุพันธ์สากล (UDES)
- ส่วนที่ 4: โหนดที่มีอินพุตภายนอก
- ส่วนที่ 5: แบบจำลองพื้นที่ของระบบประสาท (NSSMS) พร้อมอินพุตภายนอก
- ส่วนที่ 6: การสร้างแบบจำลองข้อมูลที่ขับเคลื่อนด้วยข้อมูลของเครือข่าย Resistance-Capacitance (RC)
- ตอนที่ 7: ผู้ให้บริการ Deep Koopman
- ตอนที่ 8: ผู้ดำเนินการ Koopman Deep ที่มุ่งเน้นการควบคุม
- ตอนที่ 9: การระบุพลศาสตร์ไม่เชิงเส้น (Sindy)
เครือข่ายประสาทที่ได้รับข้อมูลฟิสิกส์ (PINNs)
การออกแบบการเขียนโปรแกรมเชิงสัญลักษณ์ของ Neuromancer เหมาะอย่างยิ่งสำหรับการแก้ปัญหา PINNS ข้อมูลเพิ่มเติมเกี่ยวกับ pinns
- ส่วนที่ 1: สมการการแพร่กระจาย
- ส่วนที่ 2: สมการของเบอร์เกอร์
- ส่วนที่ 3: สมการเบอร์เกอร์ที่มีการประมาณค่าพารามิเตอร์ (ปัญหาผกผัน)
- ตอนที่ 4: สมการของ Laplace (Steady-State)
- ตอนที่ 5: ลูกตุ้มหมาด ๆ (PINN ซ้อน)
- ส่วนที่ 6: สมการ Navier-Stokes (การไหลของโพรงที่ขับเคลื่อนด้วย LID, Steady-State, Kan)
สมการเชิงอนุพันธ์สุ่ม (SDEs)
Neuromancer ได้รับการรวมเข้ากับ Torchsde เพื่อจัดการระบบพลวัตสุ่ม ข้อมูลเพิ่มเติมเกี่ยวกับ SDES
- Latentsdes: "การระบุระบบ" ของกระบวนการสุ่มโดยใช้ Neuromancer x Torchsde
ความยืดหยุ่นและการปรับแต่ง
การรวม Pytorch Lightning
เราได้รวม Pytorch Lightning เพื่อปรับปรุงรหัสเปิดใช้งานตรรกะการฝึกอบรมที่กำหนดเองรองรับการตั้งค่า GPU และ Multi-GPU และจัดการงานการเรียนรู้ขนาดใหญ่ขนาดใหญ่ที่ใช้หน่วยความจำ
- ส่วนที่ 1: พื้นฐานการรวมสายฟ้า
- ส่วนที่ 2: ฟีเจอร์ขั้นสูงของสายฟ้าและการสนับสนุน GPU อัตโนมัติ
- ส่วนที่ 4: การกำหนดตรรกะการฝึกอบรมที่กำหนดเองผ่านรหัส Lightning Modularized
เอกสารและคู่มือผู้ใช้
เอกสารสำหรับห้องสมุดสามารถพบได้ทางออนไลน์ นอกจากนี้ยังมีวิดีโอแนะนำที่ครอบคลุมคุณสมบัติหลักของห้องสมุด
สำหรับข้อมูลเพิ่มเติมรวมถึงข้อมูลสำหรับนักพัฒนาโปรดไปที่นักพัฒนาและคู่มือผู้ใช้ของเรา
ข้อมูลชุมชน
เรายินดีต้อนรับการมีส่วนร่วมและข้อเสนอแนะจากชุมชนโอเพ่นซอร์ส!
การมีส่วนร่วมการอภิปรายและปัญหา
โปรดอ่านแนวทางการพัฒนาชุมชนสำหรับข้อมูลเพิ่มเติมเกี่ยวกับการมีส่วนร่วมการอภิปรายและปัญหา
บันทึกย่อ
ดูบันทึกย่อที่จัดทำเอกสารคุณสมบัติใหม่
ใบอนุญาต
Neuromancer มาพร้อมกับใบอนุญาต BSD ดูใบอนุญาตสำหรับรายละเอียดเพิ่มเติม
สิ่งพิมพ์
- Bo Tang, Elias B. Khalil, JánDrgoňa, เรียนรู้ที่จะเพิ่มประสิทธิภาพสำหรับการเขียนโปรแกรมแบบไม่เชิงเส้นผสม, arxiv: 2410.11061, 2024
- John Viljoen, Wenceslao Shaw Cortez, Jan Drgona, Sebastian East, Masayoshi Tomizuka, Draguna Vrabie, การควบคุมการทำนายที่แตกต่างกันสำหรับหุ่นยนต์: วิธีการกรองความปลอดภัยแบบทำนายการทำนายที่ขับเคลื่อนด้วยข้อมูล, Arxiv: 2409.13817, 2024
- Jan Drgona, Aaron Tuor, Draguna Vrabie, การเรียนรู้นโยบายการควบคุมการทำนายการทำนายแบบพารามิเตอร์ที่มีข้อ จำกัด ที่มีข้อ จำกัด ด้วยการรับประกันการทำธุรกรรม IEEE ในระบบมนุษย์และไซเบอร์เนติกส์: ระบบ, 2024
- Renukanandan Tumu, Wenceslao Shaw Cortez, JánDrgoňa, Draguna L. Vrabie, Sonja Glavaski, การควบคุมการทำนายที่แตกต่างกันสำหรับเครือข่ายถนนในเมืองขนาดใหญ่ Arxiv: 2406.10433, 2024
- Ethan King, James Kotary, Ferdinando Fioretto, Jan Drgona, การเรียนรู้การวัดเพื่อเร่งการบรรจบกันของวิธีการแยกผู้ปฏิบัติงานสำหรับการเขียนโปรแกรมพารามิเตอร์ที่แตกต่างกัน, อาร์กซ์: 2404.00882, 2024
- James Koch, Madelyn Shapiro, Himanshu Sharma, Draguna Vrabie, Jan Drgona, สมการพีชคณิตเชิงอนุพันธ์ของระบบประสาท, Arxiv: 2403.12938, 2024
- Wenceslao Shaw Cortez, Jan Drgona, Draguna Vrabie, Mahantesh Halappanavar, ตัวกรองความปลอดภัยที่มีประสิทธิภาพ, arxiv: 2311.08496, 2024
- Shrirang Abhyankar, Jan Drgona, Andrew August, Elliott Skomski, Aaron Tuor, การสร้างแบบจำลองโหลดแบบไดนามิกของระบบประสาททางกาย
- James Koch, Zhao Chen, Aaron Tuor, Jan Drgona, Draguna Vrabie, การอนุมานโครงสร้างของระบบพลวัตเครือข่ายที่มีสมการเชิงอนุพันธ์สากล, arxiv: 2207.04962, (2022)
- JánDrgoňa, Sayak Mukherjee, Aaron Tuor, Mahantesh Halappanavar, Draguna Vrabie, การเรียนรู้นโยบายการควบคุมการทำนายการทำนายที่แตกต่างกัน
- Sayak Mukherjee, JánDrgoňa, Aaron Tuor, Mahantesh Halappanavar, Draguna Vrabie, Neural Lyapunov การควบคุมการทำนายที่แตกต่างกัน
- Wenceslao Shaw Cortez, Jan Drgona, Aaron Tuor, Mahantesh Halappanavar, Draguna Vrabie, การควบคุมการทำนายที่แตกต่างกันพร้อมการรับประกันความปลอดภัย: แนวทางการควบคุมอุปสรรค
- Ethan King, Jan Drgona, Aaron Tuor, Shriang Abhyankar, Craig Bakker, Arnab Bhattacharya, Draguna Vrabie, การควบคุมการทำนายการทำนายที่แตกต่างจาก Koopman
- Drgoňa, J. , Tuor, AR, Chandan, V. , & Vrabie, DL, การเรียนรู้อย่างลึกซึ้งของฟิสิกส์ที่มีข้อ จำกัด ด้านการสร้างความร้อนแบบหลายโซน พลังงานและอาคาร, 243, 110992, (2021)
- E. Skomski, S. Vasisht, C. Wight, A. Tuor, J. Drgoňaและ D. Vrabie, "โมเดลพลวัตประสาทแบบไม่เชิงเส้นที่ จำกัด " 2021 การประชุมการควบคุมอเมริกัน (ACC), 2021, pp. 3993-4000, DOI: 10.23919/ACC50511.2021.
- Skomski, E. , Drgoňa, J. , & Tuor, A. (2021, พฤษภาคม) การค้นพบโมเดลพื้นที่ทางประสาทที่มีข้อมูลทางฟิสิกส์โดยอัตโนมัติผ่านการเรียนรู้และวิวัฒนาการ ในการเรียนรู้การเปลี่ยนแปลงและการควบคุม (หน้า 980-991) PMLR
- Drgoňa, J. , Tuor, A. , Skomski, E. , Vasisht, S. , & Vrabie, D. (2021) การเรียนรู้อย่างลึกซึ้งกฎหมายควบคุมการทำนายที่แตกต่างกันอย่างชัดเจนสำหรับอาคาร IFAC-Papersonline, 54 (6), 14-19
- Tuor, A. , Drgona, J. , & Vrabie, D. (2020) สมการเชิงอนุพันธ์ทั่วไปของระบบประสาทที่มีข้อ จำกัด พร้อมการรับประกันความมั่นคง arxiv preprint arxiv: 2004.10883
- Drgona, Jan, et al. "การควบคุมการทำนายที่แตกต่างกัน: ทางเลือก MPC สำหรับระบบไม่เป็นเชิงเส้นที่ไม่รู้จักโดยใช้การเรียนรู้อย่างลึกซึ้งที่ จำกัด " วารสารการควบคุมกระบวนการปริมาตร 116, สิงหาคม 2565, หน้า 80-92
- Drgona, J. , Skomski, E. , Vasisht, S. , Tuor, A. , & Vrabie, D. (2020) ระบบพลวัตของระบบประสาทลึกใน IEEE Open Journal of Control Systems, Vol. 1, pp. 100-112, 2022
- Drgona, J. , Tuor, A. , & Vrabie, D. , การเรียนรู้นโยบายการควบคุมการทำนายการพยากรณ์ที่แตกต่างกันแบบปรับตัวได้โดยมีการรับประกัน, Arxiv preprint arxiv: 2004.11184, (2020)
อ้างถึง
@article{Neuromancer2023,
title={{NeuroMANCER : Neural Modules with Adaptive Nonlinear Constraints and Efficient Regularizations}},
author={Drgona, Jan and Tuor, Aaron and Koch, James and Shapiro, Madelyn and Jacob, Bruno and Vrabie, Draguna},
Url= {https://github.com/pnnl/neuromancer},
year={2023}
} ทีมพัฒนา
นักพัฒนาหลักที่ใช้งานอยู่ : Jan Drgona, Rahul Birmiwal, Bruno Jacob
ผู้มีส่วนร่วมที่โดดเด่น : Aaron Tuor, Madelyn Shapiro, James Koch, Seth Briney, Bo Tang, Ethan King, Elliot Skomski, Zhao Chen, Christian Møldrup Legaard
ที่ปรึกษาทางวิทยาศาสตร์ : Draguna Vrabie, Panos Stinis
การบริจาคโอเพ่นซอร์สทำโดย:
ทำด้วย contrib.rocks
กิตติกรรมประกาศ
การวิจัยนี้ได้รับการสนับสนุนบางส่วนโดยคณิตศาสตร์เพื่อการให้เหตุผลทางวิทยาศาสตร์ (MARS) และการบรรจบกันของแบบจำลองข้อมูล (DMC) ผ่านการลงทุนในห้องปฏิบัติการกำกับการวิจัยและพัฒนา (LDRD) ที่ห้องปฏิบัติการแห่งชาติ Pacific Northwest พลังงานทดแทนสำนักงานเทคโนโลยีการก่อสร้างภายใต้“ การกำจัดคาร์บอเนตแบบไดนามิกผ่านการเรียนรู้เชิงลึกทางฟิสิกส์เป็นศูนย์กลางและการเพิ่มประสิทธิภาพของการดำเนินงานอาคาร” และ“ การจัดการพลังงานอาคารพร้อมตลาดที่ก้าวหน้าโดยโครงการควบคุมการทำนายที่มีประสิทธิภาพ โครงการนี้ยังได้รับการสนับสนุนจากกระทรวงพลังงานของสหรัฐอเมริกาโครงการวิจัยการคำนวณทางวิทยาศาสตร์ขั้นสูงภายใต้ปริมาณความไม่แน่นอนสำหรับโครงการ Multifidelity Operator Learning (MOLUCQ) (โครงการหมายเลขโครงการ 81739) PNNL เป็นห้องปฏิบัติการแห่งชาติหลายโปรแกรมดำเนินการสำหรับกระทรวงพลังงานของสหรัฐอเมริกา (DOE) โดยสถาบันอนุสรณ์ Battelle ภายใต้สัญญาหมายเลข DE-AC05-76RL0-1830