该存储库包含来自巴基斯坦各种新闻网站的大量新闻文章。数据集涵盖了不同类别,包括:
我们评估了几种大型语言模型(LLMS),以从刮擦的新闻文章中生成问答对:
我们的案例研究表明,尽管Llama2提供了最佳质量,但与GPT型号相比较慢。 T5-small虽然很快,但在准确性和重复方面有局限性。因此,我们使用GPT-3.5 Turbo和GPT-4来生成更实质性的数据集。
该数据集是开源的,可用于:
此外,我们在此数据集上还进行了微调的小骆驼。
| Llama2 | T5-small | ||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
|
| GPT-3.5-Turbo | GPT-4 | ||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
|
GPT3.5-Turbo和GPT4产生所需的响应。
图。使用T5-small的Gradio演示
git clone https://github.com/faizan1234567/QALLM.git
cd QALLM使用Python Venv创建虚拟环境
python3 -m venv qa_llm
source qa_llm/bin/activate另外,您可以使用Anaconda软件包管理器
conda create -n qa_llm python=3.8.10 -y
conda activate qa_llm现在安装所有必需的依赖项
pip install --upgrade pip
pip install -r requirements.txtQA生成,请确保读取和理解配置并根据需要替换适当的值。
python create_alpaca_format_dataset.py --chunk_size 5000 --dataset < path >并运行质量检查
python qa_generator.py --model T5-small --cfg cfg/qa_generator.yaml在notebooks目录下有一个run_qa_llm_repo.ipynb ,可以在Google Colab,Kaggle,渐变,渐变或使用GPU的本地机器上安装和运行质量检查。
如果您发现数据集可用于微调,研究和开发目的,请出演并引用回购:
穆罕默德·法赞(Muhammad Faizan)和萨娜·扎法尔(Sana Zafar)
@misc{QALLM,
title={NewsQA: News Dataset for QA Generation},
authors={Muhammad Faizan and Sana Zafar},
howpublished = { url {https://github.com/faizan1234567/QALLM}},
year={2024}
}[1]。快速而有力的刮擦和网络爬网框架。砂纸。 (nd)。 https://scrapy.org/
[2]。 https://huggingface.co/thebloke/llama-2-70b-ggml。 (nd)。
[3]。 Ushio,A.,Alva-Manchego,F。和Camacho-Collados,J。(2023)。基于LM的问答生成方法的经验比较。 ARXIV预印型ARXIV:2305.17002。
[4]。 Openai的GPT-3.5 Turbo,Platform.openai.com/docs/models/gpt-3-5-turbo。 2024年7月28日访问。