Ini adalah repositori untuk proyek "hukum dan kecerdasan buatan kami" di Universitas Northwestern. Anggota tim untuk proyek ini adalah Noah Caldwell-Gatsos @ncaldwell17 , rhett d'souza @rhettdsouza13 dan lukas justen @lukas-justen .
Langsung menerapkan kemajuan dalam pembelajaran transfer dari BerT menghasilkan akurasi yang buruk di bidang khusus domain seperti hukum karena perubahan distribusi kata dari korpora domain umum ke korpora khusus domain. Dalam proyek kami, kami akan menunjukkan bagaimana model bahasa pra-terlatih dapat disesuaikan dengan domain tambahan, seperti hukum kontrak atau putusan pengadilan.
Kami tidak membuat dan melatih model, yang membutuhkan sumber daya di luar ruang lingkup proyek. Sebaliknya, apa yang kami usulkan adalah kerangka kerja untuk membuat Bert khusus domain dengan menggunakan kontrak hukum sebagai studi kasus. Kerangka kerja ini akan mencakup mengapa hal ini diperlukan, data jenis apa yang diperlukan, bagaimana model dilatih, dan bagaimana kinerja model dapat dievaluasi.
Akhirnya, kami membangun frontend kecil yang memungkinkan Anda memvisualisasikan kompleksitas korpora. Kami berharap ini akan membantu orang lain untuk mendapatkan wawasan tentang kumpulan data mereka dan mencari tahu apakah masuk akal untuk menerapkan Bert ke domain mereka.