nnue網絡
用於Minic3實施(最初基於Seer One)
這些網僅與微型> = 3.00兼容
- 最小3.00或3.01(11/2020)的邪惡核與新生養分相同的數據。使用此網絡,Minic3.01在短TC時比HCE弱60elo。
- narcotized的夜班> = 3.02 && <= 3.06(12/2020):使用在root的遊戲中看到的位置,該網絡與最小HCE搜索的數據一起生成。在每個遊戲開始時,隨機玩2到8個。使用了約500m的位置,對12個時期進行了培訓。該網與以前的發行版不兼容,因為現在在培訓和推理代碼中使用了剪切的relu 。在此網中,Minic3.02的含量比Minic3.01強約90 elo。
- nettling nemesis的minic> = 3.02 && <= 3.06(12/2020):該網是使用深度5的2b stockfish(master)數據構建的。此網絡不適用於當然的評分列表!只是為了好玩。使用此網絡當然更強大。架構與以前的網絡相同。它僅在2個時期才接受訓練...並且以某種方式與“ Narcotized Nighthift”相比,它以某種方式接近 +150elo。
- niggling niggling若蟲的minic> = 3.02 && <= 3.06(01/2020):該網是使用Minic HCE的Depth 8處的600m FRC數據構建的。它玩的FRC遊戲比HCE更好(這不是以前的網絡的情況...)。它比“ narcotized Nighthift”更強大。
- minic> = 3.02 && <= 3.06(02/2020)的嘈雜缺口:該網是使用Minic HCE的Depth 8處的2B標準數據構建的。它比短TC上的 +50elo效果更好。在訓練階段,我的網絡生成過程現在涉及150多個網的大規模測試過程。嘈雜的Notch表現更好,其性能為66 +/- 10elo與以前的網絡。
- 微型== 3.05(03/2020)的nibbleed Nutshell :一個未發行的較小的網絡,在STC上的性能很好,但在LTC上不夠好(與“ Noisy Notch”相同的數據使用的數據)。
- MiniC的夜間NADIR > = 3.06(05/2020):使用新的2B最小HCE數據構建的網絡,其中深度取決於遊戲階段(在開場中的深度8,遊戲結尾中的深度12),包括一些FRC生成的位置。這個網似乎至少比“嘈雜的缺口”強20。同樣,由於長時間的測試過程,此網是從其他200個好的元素中提取的。
- 最小> = 3.06(05/2020)的幼稚懷舊:使用1B微型噪聲Notch數據構建的網絡,取決於遊戲階段(深度8的開放式,深度12,在末端中的深度12)。該網的古典國際象棋更強,而在FRC中,該網比上一個更弱。該網嵌入最小的3.07中。
- 微小的MiniC> = 3.06(06/2020)的無關緊要的Nystagmus :該網是使用與“ Naive Nostalgia”相同的數據構建的,但添加了一些FRC位置,並根據其FRC性能選擇。對於古典國際象棋,它看起來像“天真懷舊”一樣強,但在FRC中的強度要強得多。該網嵌入最小的3.08中。
- 微型> = 3.06(06/2020)的Nifty霧化性:該網是使用T74 LC0數據構建的。它不是“官方”網,因此不得在評級列表中使用以替換任何以前的微型版本。它播放 +90elo與“微不足道的眼球震顫”。
- niDicolous nighthawk用於微型> = 3.06(08/2020):該網是使用1B FRC和1B標準國際象棋位置構建的,該nystagmus nystagmus''自我播放數據生成。該網嵌入最小的3.09中。它的效果比標準國際象棋的“無可忽視的黑眼星”好一點,但是在玩FRC時要強得多。
- 微型> = 3.06(10/2020)的成核神經材料:該網是使用“ nidicolous nighthawk”自我播放數據生成的2B FRC國際象棋位置構建的。該網嵌入最小的3.14中。它的表現比標準國際象棋的“ Nighthawk”要強一些,但應該打奇怪而不球的比賽。牠喜歡進攻,並且經常對其獲勝的機會過高。
- Nifty Nifty Nifty版本2用於MiniC> = 3.06(11/2021):僅使用T74 LC0數據的另一個培訓會話。這不是“官方”網。它在“成核神經”上方播放80elo。
- Nifty Nifty Nifty版本3版,用於Minic> = 3.06(12/2021):使用T60T70WISRIGHT LC0+SF數據的培訓會話。這不是“官方”網。它在“成核神經”上方播放110elo。
- 微小> = 3.18(01/2022)的靈活虛無,該網受到2B FRC型數據的訓練(從深度10到14的“核定神經化”)。它與以前版本的MiniC不兼容,並且使用了剪切的Relu。由於數據生成中的錯誤修復了,它比“核神經元素”的效果比“成核神經”的效果更好。
- 最小> = 3.19(04/2022)的尼龍不平衡:該網受到4.2B DFRC數據和6B的混合訓練,使用Minic 3.18(根據遊戲階段的不同,深度5至14),T60T70WISRIGHT位置撤回了T60T70WISRIGHT位置。該網上使用具有通用FT的新體系結構,但根據板上的碎片數(4桶)。很難與以前的網絡相提並論,因為在Minic 3.19中包含的一些多汁的搜索貼片,但Minic3.19將使用“ Nimble Nothesness”至少播放 +30elo與Minic3.18(我認為其中大約一半是由於新網絡造成的)。它嵌入最小的3.19中。
- 微型> = 3.25(08/2022)的自然效果:此網絡使用具有常見ft的新體系結構,但根據板上的碎片數量(2桶)。只有最後一個水桶接受了
lambda!=1訓練,因此將第一個桶訓練,第一個始終只對lambda=1進行訓練(僅在得分上)。數據是以前數據的混合,並使用先前的NET進行了加法2B DFRC固定節點數據。 - 微型> = 3.25(10/2023)的Nyctophopic -Narwhal :此網絡使用純DFRC數據。在訓練過程中,我使用的重量衰減較小,沒有輟學和增加批量。數據為6B 10K節點,最小3.38。
舊的minic2東西,用於sf,例如nnue實施
這些是與SF NNUE實現的0x7AF32F16U版本兼容的網絡。最小版本2.47至2.53可以使用這些網(不是微型版本> = 3.00)
- 午睡Nexus (09/2020):基於股票數據的淨構建以20億個深度10個數據的多個步驟。數據來自Stockfish Genfen。使用的學習者是Nodchip存儲庫。驗證數據是1M深度16和20個Stockfish數據。有了這個網,微小的小額纖維比SV網弱約100elo。
- 新生的養分(10/2020):從最小的深度12評估的400m隨機位置的基於最小數據的淨構建。為了確保使用最小的評估,使用的學習者合併了。驗證數據是1M深度16個最小數據,從Minic2.48遊戲中提取的PGN格式。該網絡沒有遊戲結果。使用該網絡,微小的弱點比小睡的Nexus弱約100elo。