LLM_Legal_Prompt_Generation
1.0.0
이 저장소에는 논문 'LLMS - The Good, The Bad 또는 The Inspensable의 관련 데이터 및 코드가 포함되어 있습니다.
여기 디렉토리 트리가 있습니다.
LLM_Legal_Prompt_Generation
├── Judgment Prediction
│ ├── LLM
│ │ ├── Codes
│ │ │ ├── jp.py
│ │ │ ├── jpe.py
│ │ ├── Datasets
│ │ │ ├── JP.csv
│ │ │ ├── JPE.csv
│ │ │ ├── JPE_with_pet_res.csv
│ │ │ ├── JP_with_pet_res.csv
│ │ ├── readme.md
│ ├── Transformer based Models
│ │ ├── Codes
│ │ │ ├── Evalution on ILDC expert dataset.ipynb
│ │ │ ├── Legal_judgment_training_with_transformers.py
│ │ ├── Datasets
│ │ │ ├── readme.md
│ ├── surname_wordlist
│ │ ├── hindu_surname_file.txt
│ │ ├── muslim_surname_file.txt
├── Statute Prediction
│ ├── Baseline Models
│ │ ├── data_generator.py
│ │ ├── evaluate.py
│ │ ├── metrics.py
│ │ ├── train.py
│ │ ├── utils.py
│ │ ├── Model
│ │ │ ├── Multi-label Classification
│ │ │ │ ├── net.py
│ │ │ ├── Binary Classification
│ │ │ │ ├── net.py
│ │ ├── Experiments
│ │ │ ├── params
│ │ │ │ ├── params_inlegalbert.json
│ │ │ │ ├── params_legalbert.json
│ │ │ │ ├── params_xlnet.json
│ ├── LLM
│ │ ├── Codes
│ │ │ ├── ALL TASK CODE.ipynb
│ │ │ ├── ALL TASK CODE.py
│ │ ├── Datasets
│ │ │ ├── 13_Cases_Gender and Bias Prediction_with explanations.csv
│ │ │ ├── 245cases.csv
│ │ │ ├── Gender and Religion Bias cases.csv
│ │ │ ├── query.csv
│ │ │ ├── statute_pred_100_cases_without_exp-gender_religion_bias.csv
│ │ │ ├── statute_pred_100_cases_without_exp.csv
│ │ │ ├── statute_pred_45_cases_with_exp.csv
│ │ │ ├── statute_pred_45_cases_without_exp.csv
│ │ ├── readme.md
├── README.md
LLM (Large Language Models)은 많은 실제 작업에 영향을 미쳤습니다. 법률과 같은 높은 이해 관계 영역에서 LLM의 효능을 조사하기 위해, 우리는 인도 대법원 사건에 대한 법령 예측 과 판단 예측 의 두 가지 대중적인 작업에 최첨단 LLM을 적용했습니다. 우리는 LLM이 법령 예측에서 우수한 예측 성능을 보이지만 많은 표준 모델과 비교할 때 판단 예측에 성능이 떨어집니다. LLM (예측과 함께)에 의해 생성 된 설명은 중간 정도에서 괜찮은 품질입니다. 우리는 또한 LLM 예측 결과에서 성별과 종교적 편견의 증거를 봅니다. 또한, 우리는 이러한 중요한 법적 작업에 LLM을 배치 할 윤리적 관심사에 대한 수석 법률 전문가의 메모를 제시합니다.
Shaurya Vats, Atharva Zope, Somsubhra de, Anurag Sharma, Upal Bhattacharya, Shubham Kumar Nigam, Shouvik Kumar Guha, Koustav Rudra, Kripabandhu Ghosh
@inproceedings{vats-etal-2023-llms,
title = "{LLM}s {--} the Good, the Bad or the Indispensable?: A Use Case on Legal Statute Prediction and Legal Judgment Prediction on {I}ndian Court Cases",
author = "Vats, Shaurya and
Zope, Atharva and
De, Somsubhra and
Sharma, Anurag and
Bhattacharya, Upal and
Nigam, Shubham and
Guha, Shouvik and
Rudra, Koustav and
Ghosh, Kripabandhu",
editor = "Bouamor, Houda and
Pino, Juan and
Bali, Kalika",
booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2023",
month = dec,
year = "2023",
address = "Singapore",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.findings-emnlp.831",
pages = "12451--12474",
abstract = "The Large Language Models (LLMs) have impacted many real-life tasks. To examine the efficacy of LLMs in a high-stake domain like law, we have applied state-of-the-art LLMs for two popular tasks: Statute Prediction and Judgment Prediction, on Indian Supreme Court cases. We see that while LLMs exhibit excellent predictive performance in Statute Prediction, their performance dips in Judgment Prediction when compared with many standard models. The explanations generated by LLMs (along with prediction) are of moderate to decent quality. We also see evidence of gender and religious bias in the LLM-predicted results. In addition, we present a note from a senior legal expert on the ethical concerns of deploying LLMs in these critical legal tasks.",
}
쿼리 나 질문을 kripaghosh[at]iiserkol[dot]ac[dot]in 자유롭게 작성하십시오.