Medical_nlp
Zusammenfassung der medizinischen NLP-Domänenbewertung/-wettbewerb, des Datensatzes, des Papiers und der vorgeborenen Modellressourcen.
Zusammenfassung der medizinischen NLP-Bewertungen/-Wettbewerbe, Datensätze, Papiere und vorgeborenen Modelle.
Nachricht
- ? 2024/11/14 hinzugefügt
4. VLM数据集, 5.3 医疗VLM , 5.4 医疗VLM Benchmark . In Zukunft wird sich der Schwerpunkt auf der Aufrechterhaltung der relevanten Ressourcen im Zusammenhang mit der Anweisung der medizinischen VLM -Wartung befinden . Das Repo wird von Rongsheng Wang aufrechterhalten. - ? Vor 2024/11/14 als Cris Lee das medizinische NLP -Feld im Jahr 2021 verließ, wird dieses Repo jetzt von Xidong Wang, Ziyue Lin, Jing Tang, aufrechterhalten.
Inhalt
- 1. Bewertung
- 1.1 Bewertung des chinesischen medizinischen Benchmarks: CMB / CMEXAM / PROMPTCBLUE
- 1.2 Bewertung der englischen medizinischen Benchmark:
- 2. Wettbewerb
- 2.1 laufende Spiele
- 2.2 Das beendete Spiel
- 3. LLM -Datensatz
- 3.1 Chinesisch
- 3.2 Englisch
- 4. VLM -Datensatz
- 5. Open-Source-Vorgebildete Modell
- 5.1 Medizinische PLM
- 5.2 Medizinische LLM
- 5.3 Medizinische VLM
- 5.4 medizinisches VLM -Benchmark
- 6. Verwandte Papiere
- 6.1 Papiere, die in der Post-Chatgpt-Ära hilfreich sein können
- 6.2 Übersicht Artikel
- 6.3 aufgabenspezifische Artikel
- 6.4 Meeting Index
- 7. Open Source Toolkit
- 8. Produktlösungen für Industriequalität
- 9. Blog -Sharing
- 10. Freundliche Links
1. Bewertung
1.1 Bewertung des chinesischen medizinischen Benchmarks: CMB / CMEXAM / PROMPTCBLUE
CMB
- Adresse: https://github.com/freedomintelligence/cmb
- Quelle: Untersuchungen in verschiedenen klinischen medizinischen Arbeiten in allen Phasen; Beratung zu klinischen komplexen Fällen
Cmexam
- Adresse: https://github.com/williamliujl/cmexam
- Quelle: Praktische Arztqualifizierungsprüfung Vorjahresfragen im Vorjahr
PromptCBlue
- Adresse: https://github.com/michael-wzhu/promptcblue
- Quelle: CBLUE
PromptCBlue
- Adresse: https://github.com/cbluebenchmark/cblue
- Quelle: Datensätze früherer akademischer Bewertungswettbewerbe und Ali Quark Medical Search Business früherer akademischer Bewertungen
Medbench
- Adresse: https://arxiv.org/abs/2312.12806
- Quelle: Enthält 40.041 Fragen aus medizinischen Untersuchungen und Berichten, die alle Spezialitäten abdecken.
1.2 Bewertung der englischen medizinischen Benchmark:
Multimedbench
- Einführung: Es handelt sich um ein großes multimodales Generationsmodell, das von Google abgeleitet wurde
↥ Zurück nach oben
2. Wettbewerb
2.1 laufende Spiele
2.2 Das beendete Spiel
2.2.1 Englisch Wettbewerb
2.2.2 Chinesischer Wettbewerb
Bildgebung NLP - Erzeugung medizinischer Bildgebungsdiagnoseberichte
- Adresse: https://gaiic.caai.cn/ai2023/
- Quelle: 2023 Globales Technologie -Innovationskonwettbewerb für künstliche Intelligenz Track 1
Einfache Triage-Herausforderung für den nicht standardisierten Erkrankungsbedarf 2.0
- Adresse: http://challenge.xfyun.cn/topic/info?type=DISEASE-CLAIMS-2022&ch=ds22-dw-sq03
- Quelle: Iflytek
Bewertungsaufgabe der 8. China Health Information Processing Conference (CHIP2022)
- Adresse: http://cips-chip.org.cn/
- Quelle: Chip2022
IFLYTEK-MEDICAL ENTITION UND Relationship Identification Challenge
- Adresse: http://www.fudan-disc.com/sharedtask/imcs21/index.html
- Quelle: Iflytek
Die "Leber" ist weich und weich, und das große Modell schafft ein neues Muster interaktiver Dienste für Ärzte und Patienten in Lebererkrankungen.
- Adresse: http://www.fudan-disc.com/sharedtask/imcs21/index.html weibliche(https://www.dcic-china.com/competitions/10090
- Quelle: Digital China Construction Summit Organisationskomitee
↥ Zurück nach oben
3. LLM -Datensatz
3.1 Chinesisch
Huatuo-26m
- Adresse: https://github.com/freedomintelligence/huatuo-26m
- Einführung: Huatuo-26m ist bei weitem die größte Frage und Antwortdatensatz der chinesischen Medizin.
Chinesischer medizinischer Dialog Datensatz
- Adresse: https://github.com/toyhom/chinese-medical-dialogue-data
- Einführung: Medizinische Q & A -Daten mit sechs Abteilungen enthalten
CBLUE
- Adresse: https://github.com/cbluebenchmark/cblue
- Einführung: Abdeckung medizinischer Textinformationen (Entitätserkennung, Beziehungsextraktion)
CMEDQA2 (108K)
- Adresse: https://github.com/zhangsheng93/cMedqa2
- Einführung: Mehr als 100.000 Fragen und beantworten Sie Datensätze in der chinesischen Medizin
xywy-kg (294K Triple)
- Adresse: https://github.com/baiyang2464/chatbot-base-on-knowledge-graph
- Einführung: 44.1k Entity 294.1K Triple
39Health-kg (210k Triple)
- Adresse: https://github.com/zhihao-cen/qasastemonmedicalgraph
- Einführung: Enthält 15 Informationen, darunter 7 Arten von Unternehmen, etwa 37.000 Unternehmen und 210.000 Unternehmensbeziehungen.
Medizinisches Dialog-System
- Adresse: https://github.com/ucsd-ai4h/medical-dialogue-System
- Der MedDialog -Datensatz (Chinese) enthält Gespräche zwischen Ärzten und Patienten (Chinesen). Dieser Datensatz hat 1,1 Millionen Gespräche und 4 Millionen Aussagen. Die Daten wachsen noch und werden in Zukunft weitere Gespräche hinzugefügt.
Chinesische medizinische Dialogdaten
- Adresse: https://github.com/toyhom/chinese-medical-dialogue-data
- Dieser Datensatz enthält insgesamt 792.099 Daten aus sechs verschiedenen Abteilungen, darunter Orthopädie, Pädiatrie, Geburtshilfe und Gynäkologie, Innere Medizin, Chirurgie und Onkologie.
Yidu-S4K
- Adresse: http://openkg.cn/dataset/yidu-s4k
- Einführung: Named Entity Recognition, Entity und Attributextraktion genannt
Yidu-n7k
- Adresse: http://openkg.cn/dataset/yidu-n7k
- Einführung: klinische Sprachstandardisierung
Datensatz und Beantwortung der chinesischen Medizin und Beantwortung des Datensatzes
- Adresse: https://github.com/zhangsheng93/cMedqa2
- Einführung: Medizinische Q & A.
Chinesische Doktor-Patienten-Frage- und Beantwortung des Dialogdaten
- Adresse: https://github.com/ucsd-ai4h/medical-dialogue-System
- Einführung: Medizinische Q & A.
Cpubmed-kg (4,4 m Triple)
- Adresse: https://cpubmed.openi.org.cn/graph/wiki
- Einführung: Hochwertige Daten der chinesischen Medical Association mit hoher Qualitäts-Text-Journal-Journal
Chinesische medizinische Wissensgrafik CMEKG (1m Triple)
- Adresse: http://cmekg.pcl.ac.cn/
- Einführung: CMEKG (Chinesische medizinische Wissensgrafik)
CHIP -Bewertung der vergangenen Jahre (offizielle Bewertung)
- Adresse: http://cips-chip.org.cn/2022/callforeval; http://www.cips-chip.org.cn/2021/; http://cips-chip.org.cn/2020/
- Einführung: Chip -Bewertung der vergangenen Jahre (offizielle Bewertung)
Ruijin Hospital Diabetes Dataset (Diabetes)
- Adresse: https://tianchi.aliyun.com/competition/entrance/231687/information
- Einführung: Ruijin Hospital Diabetes Dataset (Diabetes)
Tianchi Covid-19 Frage-Match-Wettbewerb (neuer Coronavirus)
- Adresse: https://tianchi.aliyun.com/competition/entrance/231776/information
- Einführung: Die Daten dieses Wettbewerbs umfassen: Datenpaare für medizinische Problems und Kennzeichnungsdaten nach Desensibilisierung.
3.2 Englisch
↥ Zurück nach oben
4. VLM -Datensatz
| Datensatz | Papier | Github | Schlüsselwörter |
|---|
| Medtrinity-25m | Link | Link | 25 million images , 10 modalities , 65 diseases , VQA , EN |
| Llava-med | Link | Link | 630k images , VQA , EN |
| Chinese-Llava-Med | - - | Link | 60k images , VQA , ZH |
| Huatuogpt-Vision | Link | Link | 647k images , VQA , EN |
| Medvidqa | Link | Link | 7k videos , VQA , EN |
| Chimed-Vl | Link | Link | 1M images , VQA , EN , ZH |
| Radfm | Link | Link | 16M images , 5000 diseases , VQA , EN , 2D/3D |
| BiomedParsedata | Link | Link | 6.8 million image-mask-description , 45 biomedical image segmentation datasets , 9 modalities , EN , 2D |
| Omnimedvqa | Link | Link | 118,010 images , 12 modalities , 2D , 20 human anatomical regions |
| Prekt | Link | Link | 160K volumes , 42M slices , 3D , CT |
| GMAI-VL-5.5M | Link | Link | 5.5m image and text , 219 specialized medical imaging datasets , 2D , VQA |
| SA-MED2D-20m | Link | Link | 4.6 million 2D medical images and 19.7 million corresponding masks , 2D , EN |
| IMIS-Bench | Link | Link | 6.4 million images, 273.4 million masks (56 masks per image), 14 imaging modalities, and 204 segmentation targets , EN |
↥ Zurück nach oben
5. Open-Source-Vorgebildete Modell
5.1 Medizinische PLM
Biobert:
- Adresse: https://github.com/naver/biobert-präsidierte
- Einführung: Biobert ist ein Sprachrepräsentationsmodell im Bereich der biomedizinischen Wissenschaft, das speziell für biomedizinische Textabbauaufgaben verwendet wird, wie z.
5.2 Medizinische LLM
5.2.1 Mehrsprachiges medizinisches Modell
Apollomoe:
- Adresse: https://github.com/freedomintelligence/apollomoe
- Einführung: Demokratisieren Sie LLM effektiv in 50 Sprachmedikamenten durch eine Mischung aus Sprachfamilienexperten
Apollo:
- Adresse: https://github.com/freedomintelligence/apollo
- Einführung: Leichte mehrsprachige Medizin LLM, populäre medizinische künstliche Intelligenz für 6 Milliarden Menschen
MMedlm:
- Adresse: https://github.com/magic-ai4med/mmedlm
- Einführung: Das erste Open -Source -Modell mehrsprachiger medizinischer Sprachmodell
5.2.2 Chinesisches medizinisches großes Sprachmodell
- Bentsao:
- Adresse: https://github.com/scir-hi/huatuo-lama-medchinese
- Einführung: Bentsao basiert auf Lama-7b und wird durch Feinabstimmung chinesischer medizinischer Anweisungen/Anweisungen erhalten. Die Forscher erstellten einen chinesischen Datensatz für medizinische Unterrichtsdatensatz durch medizinisches Wissensgrafik und GPT3.5-API sowie fein abgestimmte Lama-Anweisungen auf dieser Grundlage, wodurch die Frage und A-A-A-A-A-A-A-A-A-A-A-A-Lama im medizinischen Bereich verbessert wurden.
- Bianque:
- Adresse: https://github.com/scutcyr/bianque
- Einführung: Ein medizinisches Dialogmodell, das durch Anweisungen und mehrere Runden des Untersuchungsdialogs abgestimmt ist. Mit ClueAA/Chatyuan-Large-V2 als Basis verwendet es chinesische medizinische Fragen-und-Antwort-Anweisungen und einen gemischten Datensatz mit mehreren Runden des Untersuchungsdialogs zur Feinabstimmung.
- Soulchat:
- Adresse: https://github.com/scutcyr/soulchat
- Einführung: Lingxin verwendet Chatglm-6b als Initialisierungsmodell und chinesische langen Textanweisungen für die chinesischen Tunes im Bereich der psychologischen Beratung und mehreren Runden von Empathie-Dialogdaten, um die Empathie-Fähigkeit des Modells zu verbessern, die Fähigkeit der Benutzer zu führen und angemessene Vorschläge zu liefern.
- Doktorglm:
- Adresse: https://github.com/xionghongl/doctorglm
- Einführung: Ein chinesisches Konsultationsmodell basierend auf Chatglm-6b. Dieses Modell wird durch den chinesischen medizinischen Dialog-Datensatz fein abgestimmt, in dem Feinabstimmung und Bereitstellung einschließlich Lora, P-Tuningv2 usw. realisiert werden.
- Huatuogpt:
- Adresse: https://github.com/freedomintelligence/huatuogpt
- Einführung: Hua Tuo GPT ist ein GPT-ähnliches Modell, das durch chinesische medizinische Unterrichtsfeinanpassung/Unterrichtsfeinanpassung (Unterrichtsverbindung) erhalten wird. Das Modell ist ein chinesisches LLM, das speziell für die medizinische Beratung entwickelt wurde. Die Trainingsdaten enthält Daten, die aus ChatGPT und realen Daten von Ärzten destilliert sind. Das Feedback von RLHF wird während des Schulungsprozesses hinzugefügt.
- Huatuogpt-II:
- Adresse: https://github.com/freedomintelligence/huatuogpt-ii
- Einführung: Hua Tuo GPT2 verfolgt eine innovative Methode für die Feldanpassung und verbessert ihre medizinischen Kenntnisse und Dialogfähigkeit erheblich. Es hat eine erstklassige Leistung in mehreren medizinischen Benchmarks gezeigt, insbesondere in der Expertenbewertung und der neuen Qualifizierungsprüfungen für die medizinische Praxis.
5.2.3 englisches medizinisches Sprachmodell
- Gatortron:
- Adresse: https://github.com/uf-hobi-informatics-lab/gatortron
- Einführung: Ein frühes Modellmodell im Gesundheitswesen, das sich der Art und Weise widmet, wie Systeme mit unstrukturierten Fällen für elektronische Gesundheit von einem medizinischen Modell mit Milliarden von Parametern profitieren.
- Codex-Med:
- Adresse: https://github.com/vlievin/medical-reasoning
- Einführung: Die Fähigkeit des GPT-3,5-Modells gewidmet, zu beantworten und zu beantworten, für tatsächliche medizinische Probleme. Medizinische Testdatensätze USMLE und MEDMCQA sowie Medical Reading Verständnis Dataset PubMedqa.
- Galactica:
- Adresse: https://galactica.org/
- EINLEITUNG: Galactica ist verpflichtet, die Informationsüberladung im Wissenschaftsbereich zu lösen, und speichert und beinhaltet wissenschaftliches Wissen einschließlich des medizinischen und Gesundheitsbereichs. Galactica wird auf einem großen Korpus von Papieren und Verweisen geschult, um zu versuchen, potenzielle Beziehungen zwischen Forschung in verschiedenen Bereichen zu entdecken.
- Deid-gpt:
- Adresse: https://github.com/yhydhx/chatgpt-api
- Einführung: Ein innovatives GPT4-fähiger De-Identification-Framework, in dem automatisch Identifizierungsinformationen identifiziert und gelöscht werden können.
- Chatdoctor:
- Adresse: https://github.com/kent0n-li/chatdoctor
- Einführung: Ein medizinisches Dialogmodell, das durch Feinabstimmung basierend auf Lama unter Verwendung von Grundkenntnissen im medizinischen Bereich erhalten wird.
- Medaille:
- Adresse: https://github.com/kbreakm/medalpaca
- Einführung: Medaillepaca nimmt eine Open -Source -Strategie an, die sich der Lösung von Datenschutzfragen in Gesundheitssystemen widmet. Das Modell basiert auf Lama mit 7 und 13 Milliarden Parametern.
- PMC-Llama:
- Adresse: https://github.com/chaoyi-wu/pmc-lama
- EINLEITUNG: PMC-Llama ist ein Open-Source-Sprachmodell, das medizinische Kenntnisse durch die Regulierung von LLAMA-7B in insgesamt 4,8 Millionen biomedizinischen akademischen Papieren vermittelt, um seine Fähigkeiten im medizinischen Bereich zu verbessern.
- Visuelle Med-Alpaka:
- Adresse: https://github.com/cambridgeltl/visual-med-alpaca
- Einführung: Visuelles Med-Alpaca ist ein open-Source-Parameter-effizientes biomedizinisches Basismodell, das in die "Vision-Experten" der Medizin für multimodale biomedizinische Aufgaben integriert werden kann. Das Modell basiert auf der LLAMA-7B-Architektur und wird unter Verwendung eines von GPT-3,5-Turbo und menschlichen Experten kuratierten Anweisungen geschult.
- Gatortrongpt:
- Adresse: https://github.com/uf-hobi-informatics-lab/gatortrongpt
- EINLEITUNG: Gatortrongpt ist ein medizinisches Generativmodell. Das Modell basiert auf GPT-3 und enthält 5 oder 20 Milliarden Parameter. Das Modell verwendet einen riesigen Korpus klinischer und englischer Texte mit 277 Milliarden Wörtern.
- Medagi:
- Adresse: https://github.com/joshuachou2018/medagi
- Einführung: Medagi, ein Beispiel, vereint domänenspezifische medizinische Sprachmodelle zu den niedrigsten Kosten, bietet eine mögliche Möglichkeit, allgemeine medizinische künstliche Intelligenz umzusetzen.
- Llava-med:
- Adresse: https://github.com/microsoft/llava-med
- Einführung: LLAVA-MED verwendet die allgemeine Domäne LLAVA zur Initialisierung und wird dann kontinuierlich in einer Art und Kurslernart ausgebildet (zuerst mit biomedizinischer Konzeptausrichtung, gefolgt von einer umfassenden Anmeldung).
- Med-Flamingo:
- Adresse: https://github.com/snap-stanford/med-flamingo
- Einführung: Med-Flamingo ist ein visuelles Sprachmodell, das speziell für die Verarbeitung von multimodalen Daten mit Bildern und Text entwickelt wurde. Auf der Grundlage von Flamingo verbessert Med-Flamingo seine Fähigkeiten in diesen medizinischen Bereichen weiter, indem sie eine Vielzahl multimodaler Wissensquellen in verschiedenen medizinischen Disziplinen vor dem Training vor dem Training vorbereitet.
5.3 Medizinische VLM
| Modell | Papier | Github |
|---|
| Medvint | Link | Link |
| Med-Flamingo | Link | Link |
| Llava-med | Link | Link |
| Qilin-med-vl | Link | Link |
| Radfm | Link | Link |
| Meddr | Link | Link |
| Huatuogpt-Vision | Link | Link |
| Biomedgpt | Link | Link |
| Med-Moe | Link | Link |
| R-Llava | Link | - - |
| Med-2e3 | Link | - - |
| Gmai-vl | Link | Link |
5.4 medizinisches VLM -Benchmark
| Benchmark | Papier | Github |
|---|
| Gmai-mmbench | Link | Link |
| Omnimedvqa | Link | Link |
| MMMU | Link | Link |
| MultimedVal | Link | Link |
| WorldMedqa-V | Link | - - |
↥ Zurück nach oben
6. Verwandte Papiere
6.1 Papiere, die in der Post-Chatgpt-Ära hilfreich sein können
Großspracher Modell codieren klinischer Wissenspapier Adresse: https://arxiv.org/abs/2212.13138
Chatgpts Leistung auf USMLE: Potenzial für die medizinische Ausbildung in der AI-unterstützten medizinischen Ausbildung unter Verwendung von großsprachigen Models Papieradresse: https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198
Tests (Turing) für Chatgpts medizinische Beratungspapieradresse: https://arxiv.org/abs/2301.10035
Toolformer: Sprachmodell kann selbst unter Verwendung der Toolpapieradresse unterrichtet werden: https://arxiv.org/abs/2302.04761
Überprüfen Sie Ihre Fakten und versuchen Sie es erneut: Verbessern Sie das Modell von großer Sprache mit externen Kenntnissen und automatischem Feedback: https://arxiv.org/abs/2302.12813
GPT-4-Fähigkeit zu medizinischen Herausforderungen Papieradresse: https://arxiv.org/abs/2303.13375
6.2 Übersicht Artikel
- Vorausgebildeter Sprachmodell auf dem Gebiet der biomedizinischen Wissenschaft: Systematische Absichtspapieradresse
- Eine Zusammenfassung der Papieradresse des Healthcare Deep Learning Guide Papieradresses Naturmedizin
- Eine Überprüfung der Papieradresse des großen Sprachmodells im Bereich des Gesundheitswesens
6.3 aufgabenspezifische Artikel
Artikel im Zusammenhang mit elektronischen Krankenakten
- Übertragungslernen aus der medizinischen Literatur zur Vorhersage der Abschnitt in elektronischer Gesundheitsakten Papieradresse
- MUFASA: Suche nach multimodaler Fusionsarchitektur nach elektronischer Krankenaktenpapieradresse
Extraktion für medizinische Beziehung
- Abhängigkeitswald für die Abhängigkeitsrede für die neuronale medizinische Beziehung
Medizinisches Wissensgrafik
- Erlernen eines Gesundheitswissensgrafiks aus elektronischen Krankenakten Papieradresse
Hilfsdiagnose
- Bewertung und genaue Diagnose von pädiatrischen Erkrankungen unter Verwendung künstlerischer Intelligenz
Medizinische Entitätsverknüpfung (Standardisierung)
- Medizinische Entität, die mit Triplet -Netzwerkpapieradresse verknüpft ist
- Ein Generate-and-Rank-Framework mit semantischer Regularisierung für biomedizinische Konzeptnormalisierungspapieradresse
- Tiefe neuronale Modelle für die Normalisierung der medizinischen Konzept in benutzergenerierten Texten Papieradresse
6.4 Meeting Index
Liste der verwandten Arbeiten im Bereich Medizin in ACL2020
- Ein Generate-and-Rank-Framework mit semantischer Regularisierung für biomedizinische Konzeptnormalisierungspapieradresse
- Repräsentationen der biomedizinischen Entität mit Synonym -Marginalisierungspapieradresse
- Übersetzung der Dokumentübersetzung vs. Abfrageübersetzung zum regelübergreifenden Informationsabruf in der Papieradresse für medizinische Domänen
- MIE: Ein medizinischer Informationsauszug in Bezug auf medizinische Dialoge Papieradresse
- Rationalisierung der Vorhersage der medizinischen Beziehung aus Statistikpapier auf Korpusebene
AAAI2020 Medizinische NLP -Papierliste
- Über die Generierung von medizinischen Fragen-Antwortenpaaren Papieradresse
- Latte: Latente Typmodellierung für die biomedizinische Entität Verknüpfungspapieradresse
- Lernen konzeptionell-kontextueller Einbettungen für medizinische Textpapieradresse
- Verständnis von medizinischen Gesprächen mit verstreutem Schlüsselwort Aufmerksamkeit und schwache Aufsicht aus der Reaktionen Papieradresse
- Gleichzeitig Verknüpfung von Entitäten und Extrahieren von Beziehungen aus biomedizinischem Text ohne Überwachungspapieradresse auf Erwähnungebene
- Können Einbettungsdings angemessen die medizinische Terminologie darstellen? Neue groß angelegte medizinische Begriff Ähnlichkeitsdatensätze haben die Antwort! Papieradresse
EMNLP2020 Medizinische NLP -Papierliste
- In Richtung medizinischer Maschine Leseverständnis mit strukturellem Wissen und Klartextpapieradresse
- MedDialog: Großmännische Datensätze Papieradresse für medizinische Dialoge
- Cometa: Ein Korpus für die medizinische Einheit, die in der Adresse der Social Media Paper in Verbindung steht
- Biomedizinische Ereignisextraktion als Sequenzmarkierungspapieradresse
- Feded: Federated Learning über Ensemble Destillation für medizinische Beziehungsextraktionspapier Analyse: Feded: Föderiertes Lernen für die Extraktion für medizinische Beziehung (basierend auf der Destillation der Fusion)
- Infundieren von Krankheitswissen in Bert für Gesundheitsfragen, medizinische Inferenz und Krankheitsname -Erkennungspapier Adresse
- Ein wissensgetriebenes generatives Modell für Multi-Implikation chinesischer Medizinverfahren Entität normalisierender Papieradresse
- Biomegatron: Größere biomedizinische Domänensprachenmodellpapieradresse
- Abfragen über Genres nach medizinischen Ansprüchen in der Nachrichtenadresse
↥ Zurück nach oben
7. Open Source Toolkit
- Word-Partition-Tool: PKUSEG-Projektadressenprojekt Beschreibung: Ein von der Peking University gestarteter Multi-Domain-Word-Partizip-Tool unterstützt die Auswahl der medizinischen Felder.
↥ Zurück nach oben
8. Produktlösungen für Industriequalität
Weisheit der spirituellen Medizin
Linkshänder Doktor
Yidu Cloud Research Institute-Medical Natural Language Processing
Baidu - Medizinische Textstruktur
Alibaba Cloud - Verarbeitung medizinischer natürlicher Sprache
↥ Zurück nach oben
9. Blog -Sharing
- ALPACA: Ein leistungsstarker Open -Source -Anweisungen nach Modell
- Lektionen, die aus dem Aufbau von natürlichen Sprachverarbeitungssystemen im medizinischen Bereich gezogen wurden
- Einführung in die medizinische öffentliche Datenbank- und Data Mining -Technologie im Zeitalter von Big Data
- Betrachten Sie die Entwicklung von NLP im medizinischen Bereich von ACL 2021 mit Ressourcen -Download
↥ Zurück nach oben
10. Freundliche Links
- AUFOMEL_CHINESESE_MEDICAL_NLP
- Chinesische NLP -Datensatzsuche
- medizinische Daten (massive medizinische Daten)
- Tianchi -Datensatz (einschließlich mehrerer medizinischer NLP -Datensätze)
↥ Zurück nach oben
11. Referenz
@misc { medical_NLP_github ,
author = { Xidong Wang, Ziyue Lin and Jing Tang, Rongsheng Wang, Benyou Wang } ,
title = { Medical NLP } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/FreedomIntelligence/Medical_NLP} }
}