Law OMNI BERT Project
1.0.0
这是我们西北大学“法律和人工智能”项目的存储库。该项目的团队成员是Noah Caldwell-Gatsos @ncaldwell17 ,Rhett D'Souza @Rhettdsouza13和Lukas Justen @Lukas-Justen 。
直接从BERT进行转移学习中的进步导致在特定领域(如法律)等领域的准确性较差,因为单词分布从一般域语料库转移到特定于领域的COLPORA。在我们的项目中,我们将展示如何将预培训的语言模型BERT适应其他领域,例如合同法或法院判决。
我们没有创建和训练模型,这需要超出项目范围的资源。取而代之的是,我们建议的是通过使用法律合同作为案例研究来创建特定领域的BERT的框架。该框架将涵盖为什么必要的,需要什么样的数据,如何训练模型以及如何评估模型的性能。
最后,我们建立了一个小的前端,使您能够可视化语料库的复杂性。我们希望这将帮助其他人洞悉其数据集,并弄清楚将BERT应用于其领域是否有意义。