Python Toolkit para la comprensión del idioma chino de referencia de evaluación de evaluación.
El conjunto de herramientas de Python para el idioma chino, comprensión de la evaluación de referencia de referencia puede evaluar rápidamente los conjuntos de datos representativos y los modelos de referencia (previamente), y seleccionar modelos de referencia apropiados (previamente) para sus propios datos para la aplicación rápida.
conjuntos de datos, líneas de base, modelos previamente capacitados, corpus y tabla de clasificación
Los puntos de referencia de evaluación de la evaluación del idioma chino, incluidos conjuntos de datos representativos, modelos de referencia (previos a los petróleo), corpus y clasificaciones.
Seleccionaremos una serie de conjuntos de datos correspondientes a ciertas tareas representativas como el conjunto de datos para nuestro punto de referencia de prueba. Estos conjuntos de datos cubren diferentes tareas, volumen de datos y dificultades de tareas.
Ahora, el piclo se puede instalar a través de PIP:
pip install --upgrade PyCLUEO instalar directamente Pyclue por Git Clone:
pip install git+https://www.github.com/CLUEBenchmark/PyCLUE.gitSe admiten modelos de idiomas previamente capacitados
Esperando apoyo
Nota: El conjunto de datos es consistente con el conjunto de datos proporcionado por CLUEBISHMARK y solo se modifica en consecuencia en el formato para adaptarse al proyecto de Piclo.
数据量:训练集(34334)验证集(4316)测试集(3861)
例子:
{"sentence1": "双十一花呗提额在哪", "sentence2": "里可以提花呗额度", "label": "0"}
每一条数据有三个属性,从前往后分别是 句子1,句子2,句子相似度标签。其中label标签,1 表示sentence1和sentence2的含义类似,0表示两个句子的含义不同。
Enlace: https://pan.baidu.com/s/1it1simjbsrnl1deoboogxg Código de extracción: KSD1
Modelo de entrenamiento Ubicación del script: Pyclue/CLUE/SENTENCE_PAIR/AFQMC/TRAIN.IPYNB
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/sentence_pair/afqmc/train.ipynb
Envíe la ubicación del script del archivo: pyclue/p. CLUE/sentence_pair/afqmc/predict.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/sentence_pair/afqmc/predict.ipynb
Este conjunto de datos proviene de la sección de noticias de Toutiao, y se extrajeron un total de 15 categorías de noticias, incluidos turismo, educación, finanzas, militares, etc.
数据量:训练集(266,000),验证集(57,000),测试集(57,000)
例子:
{"label": "102", "label_des": "news_entertainment", "sentence": "江疏影甜甜圈自拍,迷之角度竟这么好看,美吸引一切事物"}
每一条数据有三个属性,从前往后分别是 分类ID,分类名称,新闻字符串(仅含标题)。
Enlace: https://pan.baidu.com/s/1rs9oxolokgwi-rgns_gtqq Código de extracción: S9GO
Modelo de entrenamiento Ubicación del script: Pyclue/Clue/Classification/TNews/Train.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/classification/tnews/train.ipynb
Envíe la ubicación del script del archivo: Pyclue/Clue/Classification/TNews/Predict.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/classification/tnews/predict.ipynb
Hay más de 17,000 datos etiquetados por texto largo sobre las descripciones de aplicaciones de aplicaciones en este conjunto de datos, incluidos varios temas de aplicación relacionados con la vida diaria, con un total de 119 categorías: "Taxi": 0, "Navegación de mapas": 1, "wifi gratuito": 2, "alquiler de automóviles": 3, ...., "mujer": 115, "negocios": 116, "recopilación de efectivo": 117, "otros": 118 (representado (representado (representado representado)))).
数据量:训练集(12,133),验证集(2,599),测试集(2,600)
例子:
{"label": "110", "label_des": "社区超市", "sentence": "朴朴快送超市创立于2016年,专注于打造移动端30分钟即时配送一站式购物平台,商品品类包含水果、蔬菜、肉禽蛋奶、海鲜水产、粮油调味、酒水饮料、休闲食品、日用品、外卖等。朴朴公司希望能以全新的商业模式,更高效快捷的仓储配送模式,致力于成为更快、更好、更多、更省的在线零售平台,带给消费者更好的消费体验,同时推动中国食品安全进程,成为一家让社会尊敬的互联网公司。,朴朴一下,又好又快,1.配送时间提示更加清晰友好2.保障用户隐私的一些优化3.其他提高使用体验的调整4.修复了一些已知bug"}
每一条数据有三个属性,从前往后分别是 类别ID,类别名称,文本内容。
Enlace: https://pan.baidu.com/s/1ekthxmgt1t038qto9vkr3a Código de extracción: U00V
Modelo de entrenamiento Ubicación del script: Pyclue/Clue/Classification/Iflytek/Train.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/classification/iflytek/train.ipynb
Envíe la ubicación del script del archivo: Pyclue/Clue/Classification/Iflytek/Predict.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/classification/iflytek/predict.ipynb
Los datos de CMNLI constan de dos partes: Xnli y Mnli. Los datos provienen de ficción, teléfono, viajes, gobierno, pizarra, etc. Los datos MNLI originales y los datos XNLI se transformaron en chino e inglés, reteniendo el conjunto de capacitación original, combinando el desarrollo en XNLI y coincidentes en Mnli como dev de CMNLI, combinando la prueba en XNLI y no lograron en Mnli como CMnli Test, y enrructuando el orden. Este conjunto de datos se puede utilizar para determinar la relación entre las dos oraciones dadas que son implicaciones, neutrales y contradictorios.
数据量:train(391,782),matched(12,426),mismatched(13,880)
例子:
{"sentence1": "新的权利已经足够好了", "sentence2": "每个人都很喜欢最新的福利", "label": "neutral"}
每一条数据有三个属性,从前往后分别是 句子1,句子2,蕴含关系标签。其中label标签有三种:neutral,entailment,contradiction。
Enlace: https://pan.baidu.com/s/1mft31cbs2g6e69as6h65dq Código de extracción: Kigh
Modelo de entrenamiento Ubicación del script: Pyclue/Clue/Sentence_Pair/Cmnli/Train.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/sentence_pair/cmnli/train.ipynb
Envíe la ubicación del script del archivo: pyclue/p. CLUE/sentence_pair/cmnli/predict.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/sentence_pair/cmnli/predict.ipynb
Conjuntos de diagnóstico utilizados para evaluar el rendimiento de los diferentes modelos en fenómenos de idioma chino resumidos por 9 lingüistas.
Usando el modelo entrenado en CMNLI, los resultados en este conjunto de diagnóstico se predicen directamente. El formato de envío es consistente con CMNLI. Puede ver los resultados en la página Detalles de clasificación. (Nota: este conjunto de datos contiene el conjunto de capacitación y el conjunto de pruebas de CMNLI)
Enlace: https://pan.baidu.com/s/1dydugo6xn_4xat0y4ansiw Código de extracción: U194
Modelo de entrenamiento Ubicación del script: Pyclue/Clue/Sentence_pair/Diagnostics/Train.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/sentence_pair/diagnostics/train.ipynb
Envíe la ubicación del script del archivo: pyclue/p. CLUE/sentence_pair/diagnóstico/predicto.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/clue/sentence_pair/diagnostics/predict.ipynb
Suplementario.
Las tareas de clasificación múltiple, como la clasificación de texto, la clasificación de emociones, etc., pueden aceptar dos formularios: entrada de oración única y entrada de par de oraciones.
El directorio de datos debe contener al menos Train.txt, Dev.txt y Labels.txt archivos, y se pueden agregar los archivos test.txt.
Guardar referencia de formulario:
Entrada de oración única (correspondiente a task_type = 'single' en el script de evaluación): pyclue/ejemplos/clasificación/sencillo_data_templates/, https://github.com/cluebenchmark/pyclue/blob/examples/classification/single_data_templates
Entrada del par de oraciones (correspondiente a task_type = 'pairs' en el script de evaluación): pyclue/ejemplos/clasificación/pars_data_templates/, https://github.com/cluebenchmark/pyclue/blob/examples/classification/pairs_data_templates
Nota: t debe usarse como separador.
Modelo de entrenamiento Ubicación del script: Pyclo/ejemplos/clasificación/trenes.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/examples/classification/train.ipynb
Ubicación del script predicho: piclo/ejemplos/clasificación/predicto.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/examples/classification/predict.ipynb
Oración a tarea (red gemela), como oración similar a la tarea, etc. , diferente del modelo de oración a entrada en tareas de clasificación múltiple: las oraciones en tareas de clasificación múltiple utilizan un formulario de empalme similar a Bert para ingresar la tarea, mientras que esta tarea usa la forma de una red gemela.
El directorio de datos debe contener al menos Train.txt, Dev.txt y Labels.txt archivos, y se pueden agregar los archivos test.txt.
Guardar referencia de formulario:
Ingrese: pyclue/ejemplos/sentence_pair/data_templates/, https://github.com/cluebenchmark/pyclue/blob/master/examples/sentence_pair/data_templates
Nota: t debe usarse como separador.
Modelo de entrenamiento Ubicación del script: piclo/ejemplos/orents_pair/trenes.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/examples/sentence_pair/train.ipynb
Ubicación del script predicho: piclo/ejemplos/orentence_pair/predicto.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/examples/sentence_pair/predict.ipynb
Tareas de coincidencia de texto (red gemela), como la búsqueda de preguntas frecuentes, la búsqueda de coincidencia de QQ y otras tareas, use la red gemela para generar información de incrustación para oraciones de entrada y use HNSWLIB para recuperar las oraciones más similares.
El directorio de datos debe contener al menos los archivos Cache.txt, Train.txt, dev.txt y labels.txt, y puede agregar archivos test.txt.
Guardar referencia de formulario:
Entrada: pyclue/ejemplos/text_matching/data_templates/, https://github.com/cluebenchmark/pyclue/blob/master/examples/text_matching/data_templates
Nota: t debe usarse como separador.
Ubicación del script del modelo de entrenamiento: Pyclue/ejemplos/text_matching/trenes.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/examples/text_matching/train.ipynb
Ubicación del script predicho: piclo/ejemplos/text_matching/predicto.ipynb
Referencia: https://github.com/cluebenchmark/pyclue/blob/master/examples/text_matching/predict.ipynb
El archivo modelo contiene 10 últimos archivos de modelo de punto de control y archivos de modelo PB (10 archivos de modelo de punto de control que mejor funcionan en el conjunto de prueba dev.txt).
Los archivos indicadores (Train_Metrics.png) generados por el proceso de entrenamiento son la precisión, Total_loss, Batch_loss, Precision, Retiro y F1 Indicadores.
Si hay un archivo de verificación test.txt y cada línea del archivo de verificación comienza con True_Label, se imprime el indicador del mejor modelo en el archivo de verificación.
Actualizado.
Dirección oficial: https://github.com/cluebenchmark/pyclue
Dirección de depuración: https://github.com/liushaoweihua/pyclue