Medical_NLP
Resumen de la evaluación/competencia de dominio Medical PNL, el conjunto de datos, el papel y los recursos del modelo previamente capacitado.
Resumen de evaluaciones/concursos médicos de PNL, conjuntos de datos, documentos y modelos previamente capacitados.
Noticias
- ? 2024/11/14 agregado
4. VLM数据集, 5.3 医疗VLM , 5.4 医疗VLM Benchmark . En el futuro, el enfoque se centrará en mantener los recursos relevantes relacionados con la dirección del mantenimiento médico de VLM . El repositorio será mantenido por Rongsheng Wang. - ? Antes de 2024/11/14 cuando Cris Lee dejó el campo Medical PNL en 2021, este repositorio ahora es mantenido por Xidong Wang, Ziyue Lin, Jing Tang.
Contenido
- 1. Evaluación
- 1.1 Evaluación de referencia médica china: CMB / CMEXAM / TRADCBLUE
- 1.2 Evaluación de referencia médica en inglés:
- 2. Competencia
- 2.1 Partidos en curso
- 2.2 El juego final
- 3. LLM DataSet
- 4. Conjunto de datos VLM
- 5. Modelo previamente capacitado de código abierto
- 5.1 Medical PLM
- 5.2 Medical LLM
- 5.3 VLM médico
- 5.4 Medical VLM Benchmark
- 6. Documentos relacionados
- 6.1 Documentos que pueden ser útiles en la era posterior a Chatgpt
- 6.2 Artículos de descripción general
- 6.3 Artículos específicos de la tarea
- 6.4 Índice de reuniones
- 7.Kit de herramientas de código abierto
- 8. Soluciones de productos de grado industrial
- 9. Compartir blogs
- 10. Enlaces amistosos
1. Evaluación
1.1 Evaluación de referencia médica china: CMB / CMEXAM / TRADCBLUE
CMB
- Dirección: https://github.com/freedomintelligence/cmb
- Fuente: Exámenes en diversos trabajos médicos clínicos en todas las etapas; consulta sobre casos de complejos clínicos
CMexam
- Dirección: https://github.com/williamliujl/cmexam
- Fuente: Examen de calificación del médico práctico Preguntas del año anterior
PridCblue
- Dirección: https://github.com/michael-wzhu/promptcblue
- Fuente: Cblue
PridCblue
- Dirección: https://github.com/cbluebenchmark/cblue
- Fuente: conjuntos de datos de concursos de evaluación académica anteriores y negocios de búsqueda médica de Ali Quark de revisiones académicas anteriores
Medallador
- Dirección: https://arxiv.org/abs/2312.12806
- Fuente: Contiene 40,041 preguntas de exámenes médicos e informes, que cubren todas las especialidades.
1.2 Evaluación de referencia médica en inglés:
Bobado multimedente
- Introducción: es un modelo de generación multimodal grande derivado de Google
↥ De vuelta a la cima
2. Competencia
2.1 Partidos en curso
2.2 El juego final
2.2.1 Competencia en inglés
2.2.2 Competencia china
Imágenes PNL - Generación de informes de diagnóstico de imágenes médicas
- Dirección: https://gaiic.caai.cn/ai2023/
- Fuente: 2023 Competencia de innovación de tecnología de inteligencia artificial Global Track 1
Desafío de triaje simple para requisitos de enfermedades no estandarizadas 2.0
- Dirección: http://challenge.xfyun.cn/topic/info?type=disease-laims-2022&ch=ds22-dw-sq03
- Fuente: Iflytek
Tarea de evaluación de la 8a Conferencia de Procesamiento de Información de Salud de China (ChIP2022)
- Dirección: http://cips-chip.org.cn/
- Fuente: Chip2022
iflytek-entidad médica y desafío de identificación de relaciones
- Dirección: http://www.fudan-disc.com/sharedtask/imcs21/index.html
- Fuente: Iflytek
El "hígado" es suave y suave, y el modelo grande crea un nuevo patrón de servicios interactivos para médicos y pacientes en enfermedad hepática.
- Dirección: http://www.fudan-disc.com/sharedtask/imcs21/index.htmlfont>(https://www.dcicchina.com/competitions/10090
- Fuente: Comité Organizador de la Cumbre de Construcción Digital de China
↥ De vuelta a la cima
3. LLM DataSet
3.1 chino
Huatuo-26m
- Dirección: https://github.com/freedomintelligence/huatuo-26m
- Introducción: Huatuo-26m es, con mucho, el conjunto de datos de preguntas y respuestas de medicina china más grande.
Conjunto de datos de diálogo médico chino
- Dirección: https://github.com/toyhom/chinese-medical-dialogue-data
- Introducción: datos médicos de preguntas y respuestas que contienen seis departamentos
Cblue
- Dirección: https://github.com/cbluebenchmark/cblue
- Introducción: cubriendo la extracción de información de texto médico (reconocimiento de entidad, extracción de relaciones)
CMEDQA2 (108K)
- Dirección: https://github.com/zhangsheng93/cmedqa2
- Introducción: más de 100,000 preguntas y respuestas conjuntos de datos en medicina china
xywy-kg (294k triple)
- Dirección: https://github.com/baiyang2464/chatbot-base-on-knowledge-graph
- Introducción: 44.1k Entidad 294.1K Triple
39Health-kg (210k Triple)
- Dirección: https://github.com/zhihao-chen/qasystemonmedicalgraph
- Introducción: incluye 15 elementos de información, incluidos 7 tipos de entidades, aproximadamente 37,000 entidades y 210,000 relaciones de entidades.
Sistema médico-dialogado
- Dirección: https://github.com/ucsd-ai4h/medical-dialogue-system
- El conjunto de datos Meddialog (chino) contiene conversaciones entre médicos y pacientes (chinos). Este conjunto de datos tiene 1.1 millones de conversaciones y 4 millones de declaraciones. Los datos aún están creciendo y se agregarán más conversaciones en el futuro.
Datos de diálogo médico chino
- Dirección: https://github.com/toyhom/chinese-medical-dialogue-data
- Este conjunto de datos contiene un total de 792,099 datos de seis departamentos diferentes, incluidos ortopedia, pediatría, obstetricia y ginecología, medicina interna, cirugía y oncología.
Yidu-s4k
- Dirección: http://openkg.cn/dataset/yidu-s4k
- Introducción: Reconocimiento de entidad nombrado, entidad y extracción de atributos
Yidu-n7k
- Dirección: http://openkg.cn/dataset/yidu-n7k
- Introducción: estandarización del lenguaje clínico
Conjunto de datos de preguntas y respuestas de medicina china
- Dirección: https://github.com/zhangsheng93/cmedqa2
- Introducción: preguntas y respuestas médicas
Datos de diálogo de preguntas y respuestas de médico-paciente chino
- Dirección: https://github.com/ucsd-ai4h/medical-dialogue-system
- Introducción: preguntas y respuestas médicas
Cpubmed-kg (4,4 m triple)
- Dirección: https://cpubmed.openi.org.cn/graph/wiki
- Introducción: Datos de revista de texto completo de alta calidad de la Asociación Médica China
Gráfico de conocimiento médico chino Cmekg (1M Triple)
- Dirección: http://cmekg.pcl.ac.cn/
- Introducción: CMEKG (gráfico de conocimiento médico chino)
Evaluación de los últimos años de ChIP (evaluación oficial)
- Dirección: http://cips-chip.org.cn/2022/callforeval; http://www.cips-chip.org.cn/2021/; http://cips-chip.org.cn/2020/
- Introducción: Evaluación de los últimos años de ChIP (evaluación oficial)
Conjunto de datos de diabetes del Hospital Ruijin (diabetes)
- Dirección: https://tiangi.aliyun.com/competition/entrance/231687/information
- Introducción: conjunto de datos de diabetes del Hospital Ruijin (diabetes)
Tianchi Covid-19 Pregunta Match Competition (nuevo coronavirus)
- Dirección: https://tiangi.aliyun.com/competition/entrance/231776/information
- Introducción: Los datos de esta competencia incluyen: pares de datos de problemas médicos y datos de etiquetado después de la desensibilización.
3.2 Inglés
Medición
- Dirección: https://github.com/chanzuckerberg/medmentions
- Introducción: conjunto de datos de enlaces de entidad biomédica basado en abstracto de PubMed
webmedqa
- Dirección: https://github.com/hejunqing/webmedqa
- Introducción: preguntas y respuestas médicas
Cometa
- Dirección: https://www.siphs.org/
- Introducción: Datos de enlace de entidad médica en las redes sociales. Publicado en EMNLP2020
PubMedqa
- Dirección: https://arxiv.org/abs/1909.06146
- Introducción: Conjunto de datos de preguntas y respuestas médicas basado en extracto de PubMed
Mediqa
- Dirección: https://sites.google.com/view/mediqa2021
- Introducción: Resumen de texto
Conjunto de datos de chatdoctor-1
- Dirección: https://drive.google.com/file/d/1lyfqiwllsclhgrcutwuee_iacnq6xnut/view?usp=sharing
- Introducción: 100,000 conversaciones reales entre pacientes y médicos de HealthCaremagic.com
Conjunto de datos de chatdoctor-2
- Dirección: https://drive.google.com/file/d/1zkbqgyqwc7djhs3n9tqyqvpddqmzacla/view?usp=sharing
- Introducción: 10k conversaciones reales entre pacientes y médicos de iCliniq.com
Bioinstructo
- Dirección: https://github.com/bio-nlp/bioinstruct
- Introducción: Más de 25,000 instrucciones adaptadas para tareas biomédicas, incluidas, entre otros, Q&A (QA), extracción de información (es decir) y generación de texto
Datos visuales de med-alpaca
- Dirección: https://github.com/cambridgeltl/visual-med-alpaca/tree/main/data
- Introducción: Datos para el entrenamiento visual de Med-Alpaca, derivados de Bigbio, Roco y GPT-3.5-TURBO
Chexpert Plus
- Dirección: https://github.com/stanford-imi/chetrit-plus
- Introducción: el conjunto de datos de texto de texto más grande publicado en el campo de la radiología, con un total de 36 millones de tokens de texto, todas equipadas con imágenes de alta calidad en formato DICOM, así como una gran cantidad de imágenes y metadatos del paciente que cubren una amplia gama de grupos clínicos y sociales, así como muchas etiquetas patológicas y anotaciones de radgraph
↥ De vuelta a la cima
4. Conjunto de datos VLM
| Conjunto de datos | Papel | Github | Palabras clave |
|---|
| Medtrinity-25m | enlace | enlace | 25 million images , 10 modalities , 65 diseases , VQA , EN |
| Llava-Med | enlace | enlace | 630k images , VQA , EN |
| Chino-llava-med | - | enlace | 60k images , VQA , ZH |
| Huatuogpt-visión | enlace | enlace | 647k images , VQA , EN |
| Medvidqa | enlace | enlace | 7k videos , VQA , EN |
| Chimed-vl | enlace | enlace | 1M images , VQA , EN , ZH |
| Radfm | enlace | enlace | 16M images , 5000 diseases , VQA , EN , 2D/3D |
| Biomedparsedata | enlace | enlace | 6.8 million image-mask-description , 45 biomedical image segmentation datasets , 9 modalities , EN , 2D |
| Omnimedvqa | enlace | enlace | 118,010 images , 12 modalities , 2D , 20 human anatomical regions |
| Preto | enlace | enlace | 160K volumes , 42M slices , 3D , CT |
| GMAI-VL-5.5M | enlace | enlace | 5.5m image and text , 219 specialized medical imaging datasets , 2D , VQA |
| SA-MED2D-20M | enlace | enlace | 4.6 million 2D medical images and 19.7 million corresponding masks , 2D , EN |
| Bancos de imis | enlace | enlace | 6.4 million images, 273.4 million masks (56 masks per image), 14 imaging modalities, and 204 segmentation targets , EN |
↥ De vuelta a la cima
5. Modelo previamente capacitado de código abierto
5.1 Medical PLM
Biobert:
- Dirección: https://github.com/naver/biobert-petherin
- Introducción: BioBert es un modelo de representación del lenguaje en el campo de la ciencia biomédica, que se usa especialmente para tareas de minería de texto biomédico, como el reconocimiento de entidades con nombre biomédico, extracción de relaciones, preguntas y respuesta, etc.
5.2 Medical LLM
5.2.1 Modelo médico multilingüe
Apollomoe:
- Dirección: https://github.com/freedomintelligence/apollomoe
- Introducción: Democratizar efectivamente LLM en 50 medicamentos en idiomas a través de una mezcla de expertos en familia de idiomas
Apolo:
- Dirección: https://github.com/freedomintelligence/apollo
- Introducción: Medicina multilingüe liviana LLM, popularizando la inteligencia artificial médica a 6 mil millones de personas
Mmedlm:
- Dirección: https://github.com/magic-ai4med/mmedlm
- Introducción: el primer modelo de lenguaje médico multilingüe de código abierto
5.2.2 Modelo de lenguaje médico médico chino
- Bentsao:
- Dirección: https://github.com/scir-hi/huatuo-llama-med-chinese
- Introducción: BentsAO se basa en LLAMA-7B y se obtiene a través del ajuste de las instrucciones/instrucciones médicas chinas. Los investigadores construyeron un conjunto de datos de instrucciones médicas chinas a través del gráfico de conocimiento médico y la API GPT3.5, e instrucciones de la llama ajustadas sobre esta base, mejorando el efecto de preguntas y respuestas de la red en el campo de la medicina.
- Bianque:
- Dirección: https://github.com/scutcyr/bianque
- Introducción: un modelo de diálogo médico que está ajustado por instrucciones y múltiples rondas de diálogo de investigación. Utilizando Clueai/Chatyuan-Large-V2 como base, utiliza instrucciones de preguntas y respuestas médicas chinas y un conjunto de datos mixto de múltiples rondas de diálogo de investigación para el ajuste fino.
- Soulchat:
- Dirección: https://github.com/scutcyr/soulchat
- Introducción: Lingxin utiliza ChatGLM-6B como modelo de inicialización, y las instrucciones de texto largos chinos de ajuste fino en el campo del asesoramiento psicológico y múltiples rondas de datos de diálogo de empatía para mejorar la capacidad de empatía del modelo, guiar la capacidad de los usuarios para hablar y proporcionar sugerencias razonables.
- Doctorglm:
- Dirección: https://github.com/xionghonglin/doctorglm
- Introducción: un modelo de consulta chino basado en ChatGLM-6B. Este modelo está ajustado a través del conjunto de datos de diálogo médico chino, que realiza el ajuste y el despliegue, incluidos Lora, P-Tuningv2, etc.
- Huatuogpt:
- Dirección: https://github.com/freedomintelligence/huatuogpt
- INTRODUCCIÓN: HUA Tuo GPT es un modelo similar a GPT obtenido por instrucción médica china Ajuste/instrucción Fina Ajuste (instrucciones de ajuste). El modelo es un LLM chino diseñado específicamente para consulta médica. Sus datos de capacitación contienen datos destilados de ChatGPT y datos reales de los médicos. La retroalimentación de RLHF se agrega durante el proceso de capacitación.
- Huatuogpt-II:
- Dirección: https://github.com/freedomintelligence/huatuogpt-ii
- Introducción: Hua Tuo GPT2 adopta un método innovador de adaptación de campo, mejorando enormemente su conocimiento médico y su capacidad de diálogo. Ha mostrado un rendimiento de primer nivel en múltiples puntos de referencia médicos, especialmente superando a GPT-4 en evaluación de expertos y nuevos exámenes de calificación de práctica médica.
5.2.3 Modelo de idioma médico en inglés
- Gatortron:
- Dirección: https://github.com/uf-hobi-informatics-lab/gatron
- Introducción: un modelo de maqueta temprano en el campo de la salud, dedicado a cómo los sistemas que utilizan casos de salud electrónicos no estructurados se benefician de una maqueta médica con miles de millones de parámetros.
- Codex-Med:
- Dirección: https://github.com/vlievin/medical-razoning
- Introducción: dedicado a la capacidad del modelo GPT-3.5 para responder y razonar para problemas médicos reales. Conjuntos de datos de pruebas médicas USMLE y MEDMCQA, y el conjunto de datos de comprensión de lectura médica PubMedqa.
- Galactica:
- Dirección: https://galactica.org/
- INTRODUCCIÓN: Galactica se compromete a resolver la sobrecarga de información en el campo de la ciencia, y almacena e incorpora el conocimiento científico, incluido el campo médico y de salud. Galactica está entrenada en un gran corpus de documentos y referencias para tratar de descubrir posibles relaciones entre la investigación en diferentes campos.
- Deid-GPT:
- Dirección: https://github.com/yhydhx/chatgpt-api
- Introducción: un innovador marco de desidentificación habilitado para GPT4 que puede identificar y eliminar automáticamente la información de identificación.
- ChatDoctor:
- Dirección: https://github.com/kent0n-li/chatdoctor
- Introducción: un modelo de diálogo médico obtenido por ajuste fino basado en la llama utilizando conocimientos básicos en el campo de la medicina.
- Medalpaca:
- Dirección: https://github.com/kbreakm/medalpaca
- Introducción: Medalpaca adopta una estrategia de código abierto dedicada a resolver problemas de privacidad en los sistemas de salud. El modelo se basa en LLAMA con 7 mil millones y 13 mil millones de parámetros.
- PMC-LLAMA:
- Dirección: https://github.com/chaoyi-wu/pmc-llama
- Introducción: PMC-LLAMA es un modelo de lenguaje de código abierto que inculca aún más el conocimiento médico al regular LLAMA-7B en un total de 4.8 millones de documentos académicos biomédicos para mejorar sus capacidades en el campo médico.
- Med-Alpaca visual:
- Dirección: https://github.com/cambridgeltl/visual-med-alpaca
- Introducción: Visual Med-Alpaca es un modelo básico biomédico de código abierto y eficiente en parámetros que puede integrarse con los "expertos en visión" de la medicina para tareas biomédicas multimodales. El modelo se basa en la arquitectura LLAMA-7B y está capacitado utilizando un conjunto de instrucciones comisariada por GPT-3.5-TURBO y expertos humanos.
- Gatortrongpt:
- Dirección: https://github.com/uf-hobi-informatics-lab/gatrongptpt
- Introducción: GatorTrongPT es un modelo de lenguaje grande generativo médico. El modelo se basa en GPT-3 y contiene 5 mil millones o 20 mil millones de parámetros. El modelo utiliza un gran corpus de textos clínicos e ingleses que contienen 277 mil millones de palabras.
- Medagi:
- Dirección: https://github.com/joshuachou2018/medagi
- Introducción: Medagi, un ejemplo, unifica los modelos de lenguaje médico específicos del dominio al menor costo, proporciona una posible forma de implementar la inteligencia artificial médica general.
- Llava-med:
- Dirección: https://github.com/microsoft/llava-med
- INTRODUCCIÓN: Llava-Med utiliza el dominio general Llava para la inicialización y luego se capacitó continuamente de manera de aprendizaje del curso (primero con la alineación de conceptos biomédicos, seguido de un ajuste integral de la instrucción).
- Med-Flamingo:
- Dirección: https://github.com/snap-stanford/med-flamingo
- Introducción: Med-Flamingo es un modelo de lenguaje visual diseñado específicamente para procesar datos multimodales entrelazados que contienen imágenes y texto. Basado en el flamenco, Med-Flamingo mejora aún más sus capacidades en estos campos médicos mediante la capacitación previa de una variedad de fuentes de conocimiento multimodal en diferentes disciplinas médicas.
5.3 VLM médico
| Modelo | Papel | Github |
|---|
| Medvint | enlace | enlace |
| Med-Flamingo | enlace | enlace |
| Llava-Med | enlace | enlace |
| Qilin-med-vl | enlace | enlace |
| Radfm | enlace | enlace |
| Medidron | enlace | enlace |
| Huatuogpt-visión | enlace | enlace |
| Biomedgpt | enlace | enlace |
| Mojado | enlace | enlace |
| R-LLAVA | enlace | - |
| MED-2E3 | enlace | - |
| GMAI-VL | enlace | enlace |
5.4 Medical VLM Benchmark
| Punto de referencia | Papel | Github |
|---|
| Gmai-mmbench | enlace | enlace |
| Omnimedvqa | enlace | enlace |
| Mmmu | enlace | enlace |
| Multimedeval | enlace | enlace |
| Worldmedqa-V | enlace | - |
↥ De vuelta a la cima
6. Documentos relacionados
6.1 Documentos que pueden ser útiles en la era posterior a Chatgpt
Modelo de lenguaje grande Codificación de conocimiento clínico Dirección: https://arxiv.org/abs/2212.13138
El desempeño de ChatGPT en USMLE: potencial para la educación médica asistida por IA utilizando modelos de idiomas grandes dirección en papel: https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198
Pruebas (Turing) para la dirección del documento de consejos médicos de Chatgpt: https://arxiv.org/abs/2301.10035
Formador de herramientas: el modelo de idioma se puede enseñar solo utilizando la dirección del documento de herramientas: https://arxiv.org/abs/2302.04761
Consulte sus hechos e intente nuevamente: Mejore los documentos del modelo de idioma grande utilizando conocimiento externo y comentarios automáticos: https://arxiv.org/abs/2302.12813
GPT-4 Capacidad en desafíos médicos Dirección de documento: https://arxiv.org/abs/2303.13375
6.2 Artículos de descripción general
- Modelo de lenguaje previamente capacitado en el campo de la ciencia biomédica: dirección de documento de encuesta sistemática
- Un resumen de la dirección en papel de la Guía de aprendizaje profundo de la atención médica Dirección de documento Medicina de la naturaleza
- Una revisión de la dirección en papel del modelo de lenguaje grande en el campo de la atención médica
6.3 Artículos específicos de la tarea
Artículos relacionados con registros médicos electrónicos
- Transferir el aprendizaje de la literatura médica para la predicción de la sección en registros de salud electrónicos Dirección en papel
- MUFASA: Búsqueda de arquitectura de fusión multimodal para registros de salud electrónicos Dirección en papel
Extracción de relaciones médicas
- Aprovechando el bosque de dependencia para la dirección de extracción de relación médica neural
Gráfico de conocimiento médico
- Aprender un gráfico de conocimiento de salud de la dirección de papel de los registros médicos electrónicos
Diagnóstico auxiliar
- Evaluación y diagnóstico preciso de enfermedades pediátricas utilizando inteligencia artística
Enlace de entidad médica (estandarización)
- Enlace de la entidad médica utilizando la dirección de papel de la red de triplete
- Un marco generado y rango con regularización de tipo semántico para la dirección de papel de normalización de concepto biomédico
- Modelos neuronales profundos para la normalización de conceptos médicos en textos generados por el usuario Dirección de papel
6.4 Índice de reuniones
Lista de documentos relacionados en el campo de la medicina en ACL2020
- Un marco generado y rango con regularización de tipo semántico para la dirección de papel de normalización de concepto biomédico
- Representaciones de la entidad biomédica con la dirección del documento de marginación de sinónimo
- Traducción de documentos versus traducción de consultas para recuperación de información interlingüística en la dirección en papel de dominio médico
- MIE: un extractor de información médica hacia la dirección en papel de los diálogos médicos
- Racionalización de la predicción de la relación médica de la dirección del documento de estadísticas a nivel de corpus
Lista de papel relacionado con la PNL médico AAAI2020
- Sobre la generación de la respuesta de la pregunta médica, la dirección de la respuesta
- Latte: modelado de tipo latente para entidad biomédica que vincula la dirección de papel
- Aprendizaje de incrustaciones conceptuales-contextuales para la dirección de papel de texto médico
- Comprender las conversaciones médicas con atención de palabras clave dispersas y supervisión débil de las respuestas Dirección de papel
- Simultáneamente vinculando entidades y extrayendo relaciones de texto biomédico sin dirección de papel de supervisión de nivel de mención
- ¿Pueden los incrustaciones representar adecuadamente la terminología médica? ¡Nuevos conjuntos de datos de similitud de similitud de término médico a gran escala tienen la respuesta! Dirección en papel
Lista de papel relacionado con la PNL Medical EMNLP2020 Medical
- Hacia la comprensión de la lectura de la máquina médica con conocimiento estructural y dirección de trabajo de texto sin formato
- Meddialog: conjuntos de datos de diálogo médico a gran escala dirección en papel
- Cometa: un corpus para la vinculación de la entidad médica en la dirección del documento de redes sociales
- Extracción de eventos biomédicos como dirección de papel de etiquetado de secuencia
- Feded: Aprendizaje federado a través de la destilación del conjunto para la relación médica Dirección del documento Análisis del documento: Feded: Aprendizaje federado para la extracción de relaciones médicas (basado en la destilación de fusión)
- Infundir el conocimiento de la enfermedad en Bert para la respuesta de las preguntas de salud, la inferencia médica y la dirección del documento de reconocimiento de la enfermedad
- Un modelo generativo basado en el conocimiento para la dirección de la entidad de la entidad de procedimiento médico chino múltiples.
- Biomegatron: dirección de papel de modelo de lenguaje de dominio biomédico más grande
- Consulta en todos los géneros para reclamos médicos en la dirección del papel de noticias
↥ De vuelta a la cima
7.Kit de herramientas de código abierto
- Herramienta de partición de palabras: la dirección del proyecto PKUSEG Descripción del proyecto: Una herramienta de participio de palabras chino de dominio múltiple lanzada por la Universidad de Pekín respalda la selección de campos médicos.
↥ De vuelta a la cima
8. Soluciones de productos de grado industrial
Sabiduría de medicina espiritual
Doctor zurdo
Procesamiento del lenguaje natural de Yidu Cloud Research Institute-Medical
Baidu - Estructura de texto médico
Alibaba Cloud - Procesamiento de lenguaje natural médico
↥ De vuelta a la cima
9. Compartir blogs
- Alpaca: un poderoso modelo de instrucción de código abierto siguiendo
- Lecciones aprendidas de la construcción de sistemas de procesamiento de lenguaje natural en el campo de la medicina
- Introducción a la base de datos pública médica y la tecnología de minería de datos en la era de Big Data
- Mirando el desarrollo de PNL en el campo de la medicina desde ACL 2021, con descarga de recursos
↥ De vuelta a la cima
10. Enlaces amistosos
- impresionante_chinese_medical_nlp
- Búsqueda de conjuntos de datos de PNL chino
- Datos médicos (datos masivos relacionados con la médica)
- Tianchi DataSet (incluidos múltiples conjuntos de datos médicos de la PNL)
↥ De vuelta a la cima
11. Referencia
@misc { medical_NLP_github ,
author = { Xidong Wang, Ziyue Lin and Jing Tang, Rongsheng Wang, Benyou Wang } ,
title = { Medical NLP } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/FreedomIntelligence/Medical_NLP} }
}