nnue网络
用于Minic3实施(最初基于Seer One)
这些网仅与微型> = 3.00兼容
- 最小3.00或3.01(11/2020)的邪恶核与新生养分相同的数据。使用此网络,Minic3.01在短TC时比HCE弱60elo。
- narcotized的夜班> = 3.02 && <= 3.06(12/2020):使用在root的游戏中看到的位置,该网络与最小HCE搜索的数据一起生成。在每个游戏开始时,随机玩2到8个。使用了约500m的位置,对12个时期进行了培训。该网与以前的发行版不兼容,因为现在在培训和推理代码中使用了剪切的relu 。在此网中,Minic3.02的含量比Minic3.01强约90 elo。
- nettling nemesis的minic> = 3.02 && <= 3.06(12/2020):该网是使用深度5的2b stockfish(master)数据构建的。此网络不适用于当然的评分列表!只是为了好玩。使用此网络当然更强大。架构与以前的网络相同。它仅在2个时期才接受训练...并且以某种方式与“ Narcotized Nighthift”相比,它以某种方式接近 +150elo。
- niggling niggling若虫的minic> = 3.02 && <= 3.06(01/2020):该网是使用Minic HCE的Depth 8处的600m FRC数据构建的。它玩的FRC游戏比HCE更好(这不是以前的网络的情况...)。它比“ narcotized Nighthift”更强大。
- minic> = 3.02 && <= 3.06(02/2020)的嘈杂缺口:该网是使用Minic HCE的Depth 8处的2B标准数据构建的。它比短TC上的 +50elo效果更好。在训练阶段,我的网络生成过程现在涉及150多个网的大规模测试过程。嘈杂的Notch表现更好,其性能为66 +/- 10elo与以前的网络。
- 微型== 3.05(03/2020)的nibbleed Nutshell :一个未发行的较小的网络,在STC上的性能很好,但在LTC上不够好(与“ Noisy Notch”相同的数据使用的数据)。
- MiniC的夜间NADIR > = 3.06(05/2020):使用新的2B最小HCE数据构建的网络,其中深度取决于游戏阶段(在开场中的深度8,游戏结尾中的深度12),包括一些FRC生成的位置。这个网似乎至少比“嘈杂的缺口”强20。同样,由于长时间的测试过程,此网是从其他200个好的元素中提取的。
- 最小> = 3.06(05/2020)的幼稚怀旧:使用1B微型噪声Notch数据构建的网络,取决于游戏阶段(深度8的开放式,深度12,在末端中的深度12)。该网的古典国际象棋更强,而在FRC中,该网比上一个更弱。该网嵌入最小的3.07中。
- 微小的MiniC> = 3.06(06/2020)的无关紧要的Nystagmus :该网是使用与“ Naive Nostalgia”相同的数据构建的,但添加了一些FRC位置,并根据其FRC性能选择。对于古典国际象棋,它看起来像“天真怀旧”一样强,但在FRC中的强度要强得多。该网嵌入最小的3.08中。
- 微型> = 3.06(06/2020)的Nifty雾化性:该网是使用T74 LC0数据构建的。它不是“官方”网,因此不得在评级列表中使用以替换任何以前的微型版本。它播放 +90elo与“微不足道的眼球震颤”。
- niDicolous nighthawk用于微型> = 3.06(08/2020):该网是使用1B FRC和1B标准国际象棋位置构建的,该nystagmus nystagmus''自我播放数据生成。该网嵌入最小的3.09中。它的效果比标准国际象棋的“无可忽视的黑眼星”好一点,但是在玩FRC时要强得多。
- 微型> = 3.06(10/2020)的成核神经材料:该网是使用“ nidicolous nighthawk”自我播放数据生成的2B FRC国际象棋位置构建的。该网嵌入最小的3.14中。它的表现比标准国际象棋的“ Nighthawk”要强一些,但应该打奇怪而不球的比赛。它喜欢进攻,并且经常对其获胜的机会过高。
- Nifty Nifty Nifty版本2用于MiniC> = 3.06(11/2021):仅使用T74 LC0数据的另一个培训会话。这不是“官方”网。它在“成核神经”上方播放80elo。
- Nifty Nifty Nifty版本3版,用于Minic> = 3.06(12/2021):使用T60T70WISRIGHT LC0+SF数据的培训会话。这不是“官方”网。它在“成核神经”上方播放110elo。
- 微小> = 3.18(01/2022)的灵活虚无,该网受到2B FRC型数据的训练(从深度10到14的“核定神经化”)。它与以前版本的MiniC不兼容,并且使用了剪切的Relu。由于数据生成中的错误修复了,它比“核神经元素”的效果比“成核神经”的效果更好。
- 最小> = 3.19(04/2022)的尼龙不平衡:该网受到4.2B DFRC数据和6B的混合训练,使用Minic 3.18(根据游戏阶段的不同,深度5至14),T60T70WISRIGHT位置撤回了T60T70WISRIGHT位置。该网上使用具有通用FT的新体系结构,但根据板上的碎片数(4桶)。很难与以前的网络相提并论,因为在Minic 3.19中包含的一些多汁的搜索贴片,但Minic3.19将使用“ Nimble Nothesness”至少播放 +30elo与Minic3.18(我认为其中大约一半是由于新网络造成的)。它嵌入最小的3.19中。
- 微型> = 3.25(08/2022)的自然效果:此网络使用具有常见ft的新体系结构,但根据板上的碎片数量(2桶)。只有最后一个水桶接受了
lambda!=1训练,因此将第一个桶训练,第一个始终只对lambda=1进行训练(仅在得分上)。数据是以前数据的混合,并使用先前的NET进行了加法2B DFRC固定节点数据。 - 微型> = 3.25(10/2023)的Nyctophopic -Narwhal :此网络使用纯DFRC数据。在训练过程中,我使用的重量衰减较小,没有辍学和增加批量。数据为6B 10K节点,最小3.38。
旧的minic2东西,用于sf,例如nnue实施
这些是与SF NNUE实现的0x7AF32F16U版本兼容的网络。最小版本2.47至2.53可以使用这些网(不是微型版本> = 3.00)
- 午睡Nexus (09/2020):基于股票数据的净构建以20亿个深度10个数据的多个步骤。数据来自Stockfish Genfen。使用的学习者是Nodchip存储库。验证数据是1M深度16和20个Stockfish数据。有了这个网,微小的小额纤维比SV网弱约100elo。
- 新生的养分(10/2020):从最小的深度12评估的400m随机位置的基于最小数据的净构建。为了确保使用最小的评估,使用的学习者合并了。验证数据是1M深度16个最小数据,从Minic2.48游戏中提取的PGN格式。该网络没有游戏结果。使用该网络,微小的弱点比小睡的Nexus弱约100elo。