Médical_nlp
Résumé de l'évaluation / du concours du domaine PNL médical, de l'ensemble de données, du papier et des ressources de modèle pré-formées.
Résumé des évaluations / compétitions médicales des PNL, des ensembles de données, des articles et des modèles pré-formés.
Nouvelles
- ? 2024/11/14 Ajouté
4. VLM数据集, 5.3 医疗VLM , 5.4 医疗VLM Benchmark . À l'avenir, l'accent sera mis sur le maintien des ressources pertinentes liées à l'orientation de la maintenance médicale du VLM . Le repo sera maintenu par Rongsheng Wang. - ? Avant 2024/11/14, alors que Cris Lee a quitté le champ NLP médical en 2021, ce repo est maintenant maintenu par Xidong Wang, Ziyue Lin, Jing Tang.
Contenu
- 1. Évaluation
- 1.1 Évaluation de référence médicale chinoise: CMB / CMEXAM / PromptCBlue
- 1.2 Évaluation de référence médicale en anglais:
- 2. Compétition
- 2.1 Matches en cours
- 2.2 Le jeu final
- 3. Tenue de données LLM
- 4. ensemble de données VLM
- 5. Modèle pré-formé open source
- 5.1 PLM médical
- 5.2 Medical LLM
- 5.3 VLM médical
- 5.4 Benchmark VLM médical
- 6. Documents connexes
- 6.1 articles qui peuvent être utiles dans l'ère post-chatte
- 6.2 Articles de vue d'ensemble
- 6.3 Articles spécifiques à la tâche
- 6.4 Index des réunions
- 7. boîte à outils open source
- 8. Solutions de produits de qualité industrielle
- 9. Partage de blog
- 10. Liens amicaux
1. Évaluation
1.1 Évaluation de référence médicale chinoise: CMB / CMEXAM / PromptCBlue
Cmb
- Adresse: https://github.com/freedomintelligence/cmb
- Source: Examens dans divers travaux médicaux cliniques à toutes les étapes; consultation sur les cas complexes cliniques
Cmexam
- Adresse: https://github.com/williamliujl/cmexam
- Source: Examen pratique de la qualification des médecins précédentes
Invitecblue
- Adresse: https://github.com/michael-wzhu/promptcblue
- Source: CBLUE
Invitecblue
- Adresse: https://github.com/cbluebenchmark/cblue
- Source: ensembles de données des concours d'évaluation académique précédents et des activités de recherche médicale Ali Quark des revues académiques précédentes
Médaillé
- Adresse: https://arxiv.org/abs/2312.12806
- Source: contient 40 041 questions des examens médicaux et des rapports, couvrant toutes les spécialités.
1.2 Évaluation de référence médicale en anglais:
Multimédia
- Introduction: Il s'agit d'un grand modèle de génération multimodale dérivé de Google
↥ Retour en haut
2. Compétition
2.1 Matches en cours
2.2 Le jeu final
2.2.1 Concours anglais
2.2.2 Competition chinoise
Imagerie NLP - Génération de rapports de diagnostic d'imagerie médicale
- Adresse: https://gaiic.caai.cn/ai2023/
- Source: 2023 Global Artificial Intelligence Technology Innovation Concours Concours 1
Défi de triage simple pour les exigences de maladies non standardisées 2.0
- Adresse: http://challenge.xfyun.cn/topic/info?type=Distease-claids-2022&ch=ds22-dw-sq03
- Source: Iflytek
Tâche d'évaluation de la 8e Conférence de traitement de l'information sur la santé en Chine (CHIP2022)
- Adresse: http://cips-chip.org.cn/
- Source: ChIP2022
IFLYTEK MÉDICAL ENTITY and Relations Relationship Identification Challenge
- Adresse: http://www.fudan-disc.com/sharedtask/imcs21/index.html
- Source: Iflytek
Le «foie» est doux et doux, et le grand modèle crée un nouveau modèle de services interactifs pour les médecins et les patients dans les maladies du foie.
- Adresse: http://www.fudan-disc.com/sharedtask/imcs21/index.html
- Source: Digital China Construction Summit Comité d'organisation
↥ Retour en haut
3. Tenue de données LLM
3.1 Chinois
Huatuo-26m
- Adresse: https://github.com/freedomintelligence/huatuo-26m
- Introduction: Huatuo-26m est de loin le plus grand ensemble de données de questions et réponses de médecine chinoise.
Ensemble de données de dialogue médical chinois
- Adresse: https://github.com/toyhom/chinese-medical-dialogue-data
- Introduction: Données de questions / réponses médicales contenant six départements
Cblue
- Adresse: https://github.com/cbluebenchmark/cblue
- INTRODUCTION: couvrant l'extraction d'informations de texte médical (reconnaissance des entités, extraction des relations)
CMEDQA2 (108K)
- Adresse: https://github.com/zhangsheng93/cmedqa2
- Introduction: Plus de 100 000 questions et répond aux ensembles de données en médecine chinoise
Xywy-kg (294k triple)
- Adresse: https://github.com/baiyang2464/chatbot-base-on-knowledge-graph
- Introduction: 44.1k Entité 294.1k Triple
39Health-kg (210k triples)
- Adresse: https://github.com/zhihao-chen/qasystemonmedicalgraph
- Introduction: comprend 15 éléments d'informations, dont 7 types d'entités, environ 37 000 entités et 210 000 relations d'entités.
Système de dialogue médical
- Adresse: https://github.com/ucsd-ai4h/medical-dialogue-ystem
- L'ensemble de données MedDialog (chinois) contient des conversations entre les médecins et les patients (chinois). Cet ensemble de données comporte 1,1 million de conversations et 4 millions de déclarations. Les données sont toujours en croissance et d'autres conversations seront ajoutées à l'avenir.
Données de dialogue médical chinois
- Adresse: https://github.com/toyhom/chinese-medical-dialogue-data
- Cet ensemble de données contient un total de 792 099 données de six départements différents, notamment l'orthopédie, la pédiatrie, l'obstétrique et la gynécologie, la médecine interne, la chirurgie et l'oncologie.
Yidu-s4k
- Adresse: http://openkg.cn/dataset/yidu-s4k
- INTRODUCTION: NOMBE ENTITY Reconnaissance, entité et extraction d'attribut
Yidu-n7k
- Adresse: http://openkg.cn/dataset/yidu-n7k
- Introduction: normalisation du langage clinique
Ensemble de données de questions et réponses de médecine chinoise
- Adresse: https://github.com/zhangsheng93/cmedqa2
- Introduction: Q&R médical
Données de dialogue de questions et réponses du médecin-patient chinois
- Adresse: https://github.com/ucsd-ai4h/medical-dialogue-ystem
- Introduction: Q&R médical
Cpubmed-kg (4,4 m triple)
- Adresse: https://cpubmed.openi.org.cn/graph/wiki
- INTRODUCTION: Données de journal complet de haute qualité de l'Association médicale chinoise
Graphique des connaissances médicales chinoises CMEKG (1m triple)
- Adresse: http://cmekg.pcl.ac.cn/
- Introduction: CMEKG (graphique de connaissances médicales chinoises)
Évaluation des années passées des années passées (évaluation officielle)
- Adresse: http://cips-chip.org.cn/2022/Callforeval; http://www.cips-chip.org.cn/2021/; http://cips-chip.org.cn/2020/
- Introduction: Évaluation des années passées des années passées (évaluation officielle)
Ensemble de données de diabète de l'hôpital Ruijin (diabète)
- Adresse: https://tianchi.aliyun.com/competition/entrance/231687/information
- Introduction: ensemble de données de diabète de l'hôpital Ruijin (diabète)
Concours Tianchi Covid-19 Question Match (New Coronavirus)
- Adresse: https://tianchi.aliyun.com/competition/entance/231776/information
- INTRODUCTION: Les données de ce concours comprennent: les données de données sur les problèmes médicaux et l'étiquetage des données après la désensibilisation.
3.2 Anglais
Médiums
- Adresse: https://github.com/chanzuckerberg/medmentions
- INTRODUCTION: ensemble de données BiomEdical Entity Link basé sur PubMed Résumé
webmedqa
- Adresse: https://github.com/hejunqing/webmedqa
- Introduction: Q&R médical
Comète
- Adresse: https://www.siphs.org/
- INTRODUCTION: les données de liaison des entités médicales sur les réseaux sociaux. Publié sur EMNLP2020
PubMedqa
- Adresse: https://arxiv.org/abs/1909.06146
- INTRODUCTION: Ensemble de données de questions et réponses médicales basées sur l'extrait PubMed
Médiqa
- Adresse: https://sites.google.com/view/mediqa2021
- Introduction: Résumé du texte
Jeu de données de chatte-1
- Adresse: https://drive.google.com/file/d/1lyfqiwllsclhgrcutwuee_iacnq6xnut/view?usp=sharing
- Introduction: 100 000 conversations réelles entre les patients et les médecins de Healthcaremagic.com
Jeu de données de jeu de jeu-2
- Adresse: https://drive.google.com/file/d/1zkbqgyqwc7djhs3n9tqyqvpddqmzacla/view?usp=sharing
- Introduction: 10k Conversations réelles entre les patients et les médecins d'Icliniq.com
Bioinstruct
- Adresse: https://github.com/bio-nlp/bioinstruct
- Introduction: Plus de 25 000 instructions adaptées aux tâches biomédicales, y compris, mais sans s'y limiter
Données visuelles med-alpaca
- Adresse: https://github.com/cambridgeltl/visual-med-alpaca/tree/main/data
- Introduction: Données pour la formation Visual Med-Alpaca, dérivée de Bigbio, Roco et GPT-3.5-Turbo
Chexpert Plus
- Adresse: https://github.com/stanford-aimi/chetrit-plus
- Introduction: Le plus grand ensemble de données de texte publié dans le domaine de la radiologie, avec un total de 36 millions de jetons de texte, tous équipés d'images de haute qualité au format DICOM, ainsi que d'un grand nombre d'images et de métadonnées patientes couvrant une large gamme de groupes cliniques et sociaux, ainsi que de nombreuses étiquettes pathologiques et annotations radgraphiques
↥ Retour en haut
4. ensemble de données VLM
| Ensemble de données | Papier | Github | Mots clés |
|---|
| Medtrinity-25m | lien | lien | 25 million images , 10 modalities , 65 diseases , VQA , EN |
| Llava-med | lien | lien | 630k images , VQA , EN |
| Chinois-lava-med | - | lien | 60k images , VQA , ZH |
| Huatuogpt-vision | lien | lien | 647k images , VQA , EN |
| Medvidqa | lien | lien | 7k videos , VQA , EN |
| Vl-vl | lien | lien | 1M images , VQA , EN , ZH |
| Radfm | lien | lien | 16M images , 5000 diseases , VQA , EN , 2D/3D |
| Biomedparsedata | lien | lien | 6.8 million image-mask-description , 45 biomedical image segmentation datasets , 9 modalities , EN , 2D |
| Omnimedvqa | lien | lien | 118,010 images , 12 modalities , 2D , 20 human anatomical regions |
| Prétence | lien | lien | 160K volumes , 42M slices , 3D , CT |
| Gmai-vl-5,5 m | lien | lien | 5.5m image and text , 219 specialized medical imaging datasets , 2D , VQA |
| SA-MED2D-20M | lien | lien | 4,6 millions d'images médicales 2d et 19,7 millions de masques correspondants, 2D EN 4.6 million 2D medical images and 19.7 million corresponding masks |
| Imis-banc | lien | lien | 6,4 millions d'images, 273,4 millions de masques (56 masques par image), 14 modalités d'imagerie et EN 6.4 million images, 273.4 million masks (56 masks per image), 14 imaging modalities, and 204 segmentation targets |
↥ Retour en haut
5. Modèle pré-formé open source
5.1 PLM médical
Biobert:
- Adresse: https://github.com/naver/biobert-pretrain
- Introduction: Biobert est un modèle de représentation linguistique dans le domaine de la science biomédicale, qui est spécialement utilisé pour les tâches d'extraction de texte biomédical, telles que la reconnaissance biomédicale des entités, l'extraction des relations, la question et la réponse, etc.
5.2 Medical LLM
5.2.1 Modèle médical multilingue
Apollomoe:
- Adresse: https://github.com/freedomintelligence/apollomoe
- Introduction: démocratiser efficacement LLM dans 50 médicaments linguistiques à travers un mélange d'experts en famille de langues
Apollon:
- Adresse: https://github.com/freedomintelligence/apollo
- INTRODUCTION: Médecine multilingue léger LLM, popularisation de l'intelligence artificielle médicale à 6 milliards de personnes
Mmedlm:
- Adresse: https://github.com/magic-ai4med/mmedlm
- Introduction: le premier modèle de langue médicale multilingue open source
5.2.2 Modèle de grande langue chinoise
- BENTSAO:
- Adresse: https://github.com/scir-hi/huatuo-lama-med-chinese
- INTRODUCTION: BENTSAO est basé sur LLAMA-7B et obtenu par un réglage fin des instructions / instructions médicales chinoises. Les chercheurs ont construit un ensemble de données d'instructions médicales chinoises grâce à des instructions sur les connaissances médicales et à API GPT3.5, et les instructions de Llama affinées sur cette base, améliorant l'effet de questions / réponses du lama dans le domaine médical.
- Bianque:
- Adresse: https://github.com/scutcyr/bianque
- Introduction: un modèle de dialogue médical qui est affiné par les instructions et plusieurs cycles de dialogue d'enquête. En utilisant Clueai / Chatyuan-Large-V2 comme base, il utilise des instructions médicales et réponses médicales chinoises et un ensemble de données mixtes de plusieurs cycles de dialogue d'enquête pour le réglage fin.
- Soulchat:
- Adresse: https://github.com/scutcyr/soulchat
- Introduction: Lingxin utilise le chatglm-6b comme modèle d'initialisation et les instructions de texte long chinois chinois dans le domaine du conseil psychologique et de plusieurs cycles de données de dialogue d'empathie pour améliorer la capacité d'empathie du modèle, guider la capacité des utilisateurs à parler et fournir des suggestions raisonnables.
- DoctorGlm:
- Adresse: https://github.com/xionghonglin/doctorglm
- Introduction: un modèle de consultation chinois basé sur ChatGLM-6B. Ce modèle est affiné à travers l'ensemble de données de dialogue médical chinois, qui réalise le réglage fin et le déploiement, y compris Lora, P-Tuningv2, etc.
- Huatuogpt:
- Adresse: https://github.com/freedomintelligence/huatuogpt
- INTRODUCTION: Hua Tuo GPT est un modèle de type GPT obtenu par instruction médicale chinoise ajustement fin / ajustement fin de l'instruction (tun instruct). Le modèle est un LLM chinois conçu spécifiquement pour une consultation médicale. Ses données de formation contient des données distillées à partir de Chatgpt et des données réelles des médecins. Les commentaires de RLHF sont ajoutés pendant le processus de formation.
- Huatuogpt-ii:
- Adresse: https://github.com/freedomintelligence/huatuogpt-ii
- Introduction: Hua Tuo GPT2 adopte une méthode d'adaptation sur le terrain innovante, améliorant considérablement ses connaissances médicales et sa capacité de dialogue. Il a montré des performances de haut niveau dans plusieurs références médicales, en particulier en dépassement GPT-4 dans l'évaluation d'experts et les nouveaux examens de qualification de pratique médicale.
5.2.3 Modèle de langue médicale anglaise
- Gatortron:
- Adresse: https://github.com/uf-hobi-informatique-lasque
- Introduction: Un modèle de maquette précoce dans le domaine des soins de santé, dédié à la façon dont les systèmes utilisant des cas de santé électronique non structurés bénéficient d'une maquette médicale avec des milliards de paramètres.
- Codex-med:
- Adresse: https://github.com/vlievin/medical-reasoning
- Introduction: Dédié à la capacité du modèle GPT-3.5 à répondre et à la raison des problèmes médicaux réels. Ensembles de données de test médical USMLE et MEDMCQA, et l'ensemble de données de compréhension de la lecture médicale PubMedqa.
- Galactica:
- Adresse: https://galactica.org/
- Introduction: Galactica s'engage à résoudre la surcharge d'informations dans le domaine scientifique, et les magasins et intègre des connaissances scientifiques, y compris le domaine médical et de la santé. Galactica est formé sur un grand corpus d'articles et des références pour essayer de découvrir des relations potentielles entre la recherche dans différents domaines.
- Deid-gpt:
- Adresse: https://github.com/yhydhx/chatgpt-api
- Introduction: un cadre de dés-identification innovant compatible GPT4 qui peut automatiquement identifier et supprimer les informations d'identification.
- Chatdoctor:
- Adresse: https://github.com/kent0n-li/chatdoctor
- INTRODUCTION: Un modèle de dialogue médical obtenu par un réglage fin basé sur LLAMA utilisant des connaissances de base dans le domaine médical.
- Medalpaca:
- Adresse: https://github.com/kbreakm/medalpaca
- Introduction: Medalpaca adopte une stratégie open source dédiée à la résolution des problèmes de confidentialité dans les systèmes de santé. Le modèle est construit sur Llama avec 7 milliards et 13 milliards de paramètres.
- PMC-Llama:
- Adresse: https://github.com/chaoyi-wu/pmc-llama
- INTRODUCTION: PMC-LALAMA est un modèle de langue open source qui inculque davantage les connaissances médicales en régulant LLAMA-7B dans un total de 4,8 millions de documents académiques biomédicaux pour améliorer ses capacités dans le domaine médical.
- Visual Med-alpaca:
- Adresse: https://github.com/cambridgeltl/visual-med-alpaca
- Introduction: Visual Med-alpaca est un modèle de base biomédical open source économe en paramètres qui peut être intégré aux «experts en vision» de la médecine pour les tâches biomédicales multimodales. Le modèle est construit sur l'architecture LLAMA-7B et est formé à l'aide d'un ensemble d'instructions organisé par les experts GPT-3.5-Turbo et humains.
- Gatortrongpt:
- Adresse: https://github.com/uf-hobi-informatics-lab/gatortrongpt
- Introduction: Gatortrongpt est un modèle de grand langage génératif médical. Le modèle est construit sur GPT-3 et contient 5 milliards ou 20 milliards de paramètres. Le modèle utilise un énorme corpus de textes cliniques et anglais contenant 277 milliards de mots.
- Medagi:
- Adresse: https://github.com/joshuachou2018/medagi
- Introduction: Medagi, un exemple, unifie les modèles de langage médical spécifiques au domaine au plus bas coût, fournit un moyen possible de mettre en œuvre l'intelligence artificielle médicale générale.
- Llava-med:
- Adresse: https://github.com/microsoft/llava-med
- INTRODUCTION: LLAVA-MED utilise le domaine général Llava pour l'initialisation, puis formé en permanence à l'apprentissage du cours (d'abord avec l'alignement du concept biomédical, suivi d'un ajustement complet de l'enseignement).
- Med-Flamingo:
- Adresse: https://github.com/snap-stanford/med-flamingo
- Introduction: Med-Flamingo est un modèle de langage visuel conçu spécifiquement pour traiter les données multimodales entrelacées contenant des images et du texte. Sur la base de Flamingo, Med-Flamingo améliore encore ses capacités dans ces domaines médicaux en pré-entraînant une variété de sources de connaissances multimodales dans différentes disciplines médicales.
5.3 VLM médical
| Modèle | Papier | Github |
|---|
| Medvint | lien | lien |
| Med-flamingo | lien | lien |
| Llava-med | lien | lien |
| Qilin-med-vl | lien | lien |
| Radfm | lien | lien |
| MEDDR | lien | lien |
| Huatuogpt-vision | lien | lien |
| Biomedgpt | lien | lien |
| Med-moe | lien | lien |
| R-lava | lien | - |
| MED-2E3 | lien | - |
| Gmai-vl | lien | lien |
5.4 Benchmark VLM médical
| Référence | Papier | Github |
|---|
| Gmai-mmbench | lien | lien |
| Omnimedvqa | lien | lien |
| MMMU | lien | lien |
| Multimédial | lien | lien |
| WorldMedqa-V | lien | - |
↥ Retour en haut
6. Documents connexes
6.1 articles qui peuvent être utiles dans l'ère post-chatte
Modèle de grande langue codage du document de connaissance clinique Adresse: https://arxiv.org/abs/2212.13138
Performance de Chatgpt sur USMLE: Potentiel de l'enseignement médical assisté par AI à l'aide de modèles de grande langue Adresse papier: https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198
Test (Turing) pour le document de conseil médical de Chatgpt Adresse: https://arxiv.org/abs/2301.10035
ToolFormer: le modèle de langue peut être enseigné par lui-même en utilisant l'adresse du papier à outils: https://arxiv.org/abs/2302.04761
Vérifiez vos faits et réessayez: Améliorez les documents de modèle de grande langue en utilisant des connaissances externes et des commentaires automatiques: https://arxiv.org/abs/2302.12813
GPT-4 Capacité des défis médicaux Adresse papier Adresse: https://arxiv.org/abs/2303.13375
6.2 Articles de vue d'ensemble
- Modèle de langue pré-formée dans le domaine de la science biomédicale: adresse documentaire systématique
- Un résumé de l'adresse papier du Guide d'apprentissage en profondeur de santé Adresse document de la nature
- Un examen de l'adresse document du modèle de grande langue dans le domaine des soins de santé
6.3 Articles spécifiques à la tâche
Articles liés aux dossiers médicaux électroniques
- Transfert d'apprentissage de la littérature médicale pour la prédiction des sections dans les dossiers de santé électroniques Adresse documentaire
- MUFASA: Recherche d'architecture de fusion multimodale pour les dossiers de santé électroniques Adresse documentaire
Extraction des relations médicales
- Tirer parti de la forêt de dépendance pour les relations de relation médicale neuronale Adresse du papier
Graphique de connaissances médicales
- Apprendre un graphique de connaissances sur la santé à partir de dossiers de dossiers médicaux électroniques Adresse papier
Diagnostic auxiliaire
- Évaluation et diagnostic précis des maladies pédiatriques à l'aide de l'intelligence artistique
Liaison entité médicale (standardisation)
- Entité médicale liant la liaison à l'aide d'adresse papier réseau triplet
- Un cadre de génération et de rang avec régularisation de type sémantique pour l'adresse du papier de normalisation du concept biomédical
- Modèles neuronaux profonds pour la normalisation du concept médical dans l'adresse papier générée par l'utilisateur
6.4 Index des réunions
Liste des articles connexes dans le domaine de la médecine en ACL2020
- Un cadre de génération et de rang avec régularisation de type sémantique pour l'adresse du papier de normalisation du concept biomédical
- Représentations d'entités biomédicales avec adresse du papier de marginalisation synonyme
- Traduction de document par rapport à la traduction de la requête pour la récupération de l'information inter-greatrice dans l'adresse papier du domaine médical
- MIE: Un extracteur d'informations médicales vers l'adresse papier des dialogues médicaux
- Rationalisation de la prédiction des relations médicales à partir de l'adresse du document de statistique au niveau du corpus
AAAI2020 Liste de documents liés à la PNL médicale
- Sur la génération de paires de paires de questions de question médicale adresse
- Latte: modélisation de type latent pour l'entité biomédicale liant une adresse papier
- Apprentissage des intérêts conceptuels-contextuels pour l'adresse du papier texte médical
- Comprendre les conversations médicales avec l'attention des mots clés dispersés et la faible supervision de la réponse aux réponses
- Lier simultanément les entités et extraire les relations du texte biomédical sans adresse de papier de supervision au niveau
- Les intégres peuvent-ils représenter adéquatement la terminologie médicale? Les nouveaux ensembles de données de similitude de terme médical à grande échelle ont la réponse! Adresse papier
Liste de documents liés à la PNL médicale EMNLP2020
- Vers la compréhension de la lecture de la machine médicale avec des connaissances structurelles et une adresse de papier texte brut
- MedDialog: Adresse papier de données de dialogue médical à grande échelle
- COMETA: Un corpus pour une entité médicale liée à l'adresse du document de médias sociaux
- Extraction d'événements biomédicaux comme adresse de papier de marquage de séquence
- Fédé: Apprentissage fédéré via la distillation d'ensemble pour les relations médicales Extraction du papier Adresse Papier Analyse: Fed: Apprentissage fédéré pour l'extraction des relations médicales (basé sur la distillation de fusion)
- Infusant des connaissances sur la maladie dans Bert pour la réponse aux questions de santé, à l'inférence médicale et à la reconnaissance du nom de la maladie Adresse
- Un modèle génératif axé sur les connaissances pour la multi-implication chinoise procédure de procédure de normalisation du papier de normalisation
- Biomegatron: Adresse papier du modèle de langue de domaine biomédical plus grand
- Interroger entre les genres pour les réclamations médicales dans l'adresse du journal
↥ Retour en haut
7. boîte à outils open source
- Outil de partition de mots: PKUSEG Project Address Project Description: Un outil de participe de mots chinois multi-domaines lancé par l'Université de Pékin soutient la sélection des domaines médicaux.
↥ Retour en haut
8. Solutions de produits de qualité industrielle
Sagesse de la médecine spirituelle
Médecin gaucher
Yidu Cloud Research Institute-Medical Natural Language Traitement
Baidu - Structure de texte médical
Cloud Alibaba - Traitement du langage naturel médical
↥ Retour en haut
9. Partage de blog
- Alpaga: un puissant modèle d'instruction open source suivante
- Leçons tirées de la construction de systèmes de traitement du langage naturel dans le domaine médical
- Introduction à la base de données publique médicale et à la technologie d'exploration de données à l'ère du Big Data
- En regardant le développement de la PNL dans le domaine médical de l'ACL 2021, avec téléchargement de ressources
↥ Retour en haut
10. Liens amicaux
- génial_chinese_medical_nlp
- Recherche d'ensemble de données NLP chinois
- données médicales (données médicales massives)
- Tianchi DataSet (y compris plusieurs ensembles de données médicaux NLP)
↥ Retour en haut
11. Référence
@misc { medical_NLP_github ,
author = { Xidong Wang, Ziyue Lin and Jing Tang, Rongsheng Wang, Benyou Wang } ,
title = { Medical NLP } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/FreedomIntelligence/Medical_NLP} }
}