medical_nlp
ملخص لتقييم/منافسة مجال NLP الطبي ، مجموعة البيانات ، الموارد الورقية والموارد النموذجية قبل التدريب.
ملخص لتقييمات/مسابقات NLP الطبية ومجموعات البيانات والأوراق والنماذج التي تم تدريبها مسبقًا.
أخبار
- ؟ 2024/11/14
5.3 医疗VLM 4. VLM数据集5.4 医疗VLM Benchmark في المستقبل ، سيكون التركيز على الحفاظ على الموارد ذات الصلة المتعلقة بتوجيه صيانة VLM الطبية . سيتم الحفاظ على الريبو بواسطة Rongsheng Wang. - ؟ قبل 2024/11/14 عندما غادرت Cris Lee حقل NLP الطبي في عام 2021 ، يتم الآن الحفاظ على هذا الريبو بواسطة Xidong Wang ، Ziyue Lin ، Jing Tang.
محتويات
- 1. التقييم
- 1.1 التقييم المعياري الطبي الصيني: CMB / CMEXAM / PROFRCBLUE
- 1.2 التقييم القياسي الطبي الإنجليزي:
- 2. المنافسة
- 2.1 المباريات المستمرة
- 2.2 اللعبة النهائية
- 3. LLM Dataset
- 3.1 الصينية
- 3.2 اللغة الإنجليزية
- 4. VLM Dataset
- 5. نموذج مفتوح المصدر مسبقًا
- 5.1 PLM الطبية
- 5.2 Medical LLM
- 5.3 Medical VLM
- 5.4 معيار VLM الطبي
- 6. الأوراق ذات الصلة
- 6.1 الأوراق التي قد تكون مفيدة في عصر ما بعد الفصل
- 6.2 نظرة عامة على المقالات
- 6.3 مقالات خاصة بالمهمة
- 6.4 مؤشر الاجتماع
- 7. مجموعة أدوات المصدر المفتوح
- 8. حلول المنتجات الصناعية
- 9. مشاركة المدونة
- 10. روابط ودية
1. التقييم
1.1 التقييم المعياري الطبي الصيني: CMB / CMEXAM / PROFRCBLUE
CMB
- العنوان: https://github.com/freedomintelligence/cmb
- المصدر: الفحوصات في مختلف العمل الطبي السريري في جميع المراحل ؛ التشاور حول الحالات المعقدة السريرية
cmexam
- العنوان: https://github.com/williamliujl/cmexam
- المصدر: فحص المؤهلات العملية للأطباء العام السابق أسئلة
QuortCblue
- العنوان: https://github.com/michael-wzhu/promptcblue
- المصدر: CBLUE
QuortCblue
- العنوان: https://github.com/cbluebenchmark/cblue
- المصدر: مجموعات البيانات من مسابقات التقييم الأكاديمية السابقة وأعمال البحث الطبي على علي كوارك للمراجعات الأكاديمية السابقة
Medbench
- العنوان: https://arxiv.org/abs/2312.12806
- المصدر: يحتوي على 40،041 سؤال من الفحوصات الطبية والتقارير ، تغطي جميع التخصصات.
1.2 التقييم القياسي الطبي الإنجليزي:
Multimedbench
- مقدمة: إنه نموذج كبير لتوليد متعدد الوسائط مشتق من Google
↥ العودة إلى الأعلى
2. المنافسة
2.1 المباريات المستمرة
حكم استعلام البحث الطبي
- العنوان: https://tianchi.aliyun.com/competition/entrance/532001/introduction
- المصدر: علي بابا تيانتشي
2.2 اللعبة النهائية
2.2.1 مسابقة اللغة الإنجليزية
2.2.2 المنافسة الصينية
التصوير NLP - توليد تقارير تشخيص التصوير الطبي
- العنوان: https://gaiic.caai.cn/ai2023/
- المصدر: 2023 مسار مسابقة الابتكار في تكنولوجيا الذكاء الاصطناعي العالمي 1
تحدي الفرز البسيط لمتطلبات المرض غير القياسية 2.0
- العنوان: http://challenge.xfyun.cn/topic/info؟type=disease-claims-2022&Ch=DS22-DW-SQ03
- المصدر: Iflytek
مهمة التقييم لمؤتمر معالجة المعلومات الصحية الثامن في الصين (ChIP2022)
- العنوان: http://cips-chip.org.cn/
- المصدر: Chip2022
كيان طبي في إيفليتك وتحدي تحديد العلاقة
- العنوان: http://www.fudan-disc.com/sharedtask/imcs21/index.html
- المصدر: Iflytek
"الكبد" ناعم وناعم ، ويخلق النموذج الكبير نمطًا جديدًا من الخدمات التفاعلية للأطباء والمرضى الذين يعانون من مرض الكبد.
- العنوان: http://www.fudan-disc.com/sharedtask/IMCS21/index.html jonder includy(https://www.dcic-china.com/competitions/10090
- المصدر: لجنة تنظيم القمة الرقمية في الصين في الصين
↥ العودة إلى الأعلى
3. LLM Dataset
3.1 الصينية
Huatuo-26m
- العنوان: https://github.com/freedomintelligence/huatuo-26m
- مقدمة: Huatuo-26m هو إلى حد بعيد أكبر أسئلة في الطب الصيني ومجموعة بيانات الإجابة.
مجموعة بيانات الحوار الطبي الصيني
- العنوان: https://github.com/toyhom/chinese-medical-dialogue-data
- مقدمة: بيانات أسئلة وأجوبة طبية تحتوي على ستة أقسام
CBLUE
- العنوان: https://github.com/cbluebenchmark/cblue
- مقدمة: تغطية استخراج معلومات النص الطبي (التعرف على الكيان ، استخراج العلاقة)
CMEDQA2 (108K)
- العنوان: https://github.com/zhangsheng93/cmedqa2
- مقدمة: أكثر من 100000 سؤال ومجموعات البيانات الإجابة في الطب الصيني
xywy-kg (294k ثلاثية)
- العنوان: https://github.com/baiyang2464/chatbot-base-on-knowledge-graph
- مقدمة: 44.1k الكيان 294.1k ثلاثي
39 Health-KG (210k Triple)
- العنوان: https://github.com/zhihao-chen/qasystemonmedicalgraph
- مقدمة: يتضمن 15 عنصرًا من المعلومات ، بما في ذلك 7 أنواع من الكيانات ، وحوالي 37000 كيان ، و 210،000 علاقات كيان.
نظام طبي ما الطبي
- العنوان: https://github.com/ucsd-ai4h/medical-dialogue-system
- تحتوي مجموعة بيانات Meddialog (الصينية) على محادثات بين الأطباء والمرضى (الصينية). تحتوي مجموعة البيانات هذه على 1.1 مليون محادثة و 4 ملايين محادثة. لا تزال البيانات تنمو ، وسيتم إضافة المزيد من المحادثات في المستقبل.
بيانات الحوار الطبي الصيني
- العنوان: https://github.com/toyhom/chinese-medical-dialogue-data
- تحتوي مجموعة البيانات هذه على ما مجموعه 792،099 بيانات من ستة أقسام مختلفة بما في ذلك تقويم العظام ، طب الأطفال ، أمراض النساء ، الطب الداخلي ، الجراحة ، وعلم الأورام.
yidu-s4k
- العنوان: http://openkg.cn/dataset/yidu-s4k
- مقدمة: التعرف على الكيان المسماة والكيان واستخراج السمة
Yidu-N7K
- العنوان: http://openkg.cn/dataset/yidu-n7k
- مقدمة: توحيد اللغة السريرية
مجموعة بيانات الطب الصيني ومجموعة بيانات الإجابة
- العنوان: https://github.com/zhangsheng93/cmedqa2
- مقدمة: أسئلة وأجوبة طبية
سؤال حوار الطبيب والمريض الصيني والإجابة
- العنوان: https://github.com/ucsd-ai4h/medical-dialogue-system
- مقدمة: أسئلة وأجوبة طبية
cpubmed-kg (4.4m ثلاث مرات)
- العنوان: https://cpubmed.openi.org.cn/graph/wiki
- مقدمة: بيانات مجلة النص الكامل عالي الجودة للجمعية الطبية الصينية
الرسم البياني للمعرفة الطبية الصينية CMEKG (1M ثلاث مرات)
- العنوان: http://cmekg.pcl.ac.cn/
- مقدمة: CMEKG (الرسم البياني للمعرفة الطبية الصينية)
رقاقة تقييم السنوات الماضية (التقييم الرسمي)
- العنوان: http://cips-chip.org.cn/2022/callforeval ؛ http://www.cips-chip.org.cn/2021/ ؛ http://cips-chip.org.cn/2020/
- مقدمة: تقييم السنوات الماضية (التقييم الرسمي)
مجموعة بيانات مرض السكري في مستشفى رويجين (مرض السكري)
- العنوان: https://tianchi.aliyun.com/competition/entrance/231687/information
- مقدمة: مجموعة بيانات السكري في مستشفى رويجين (مرض السكري)
مسابقة Tianchi Covid-19 Match Match (فيروس كورونا الجديد)
- العنوان: https://tianchi.aliyun.com/competition/entrance/231776/information
- مقدمة: تتضمن بيانات هذه المسابقة: أزواج بيانات المشكلة الطبية وبيانات وضع العلامات بعد إزالة الحساسية.
3.2 اللغة الإنجليزية
↥ العودة إلى الأعلى
4. VLM Dataset
| مجموعة البيانات | ورق | جيثب | الكلمات الرئيسية |
|---|
| Medtrinity-25m | وصلة | وصلة | 25 million images ، 10 modalities ، 65 diseases ، VQA EN |
| llava-med | وصلة | وصلة | 630k images ، VQA ، EN |
| الصينية الفلافا-ميد | - | وصلة | 60k images ، VQA ، ZH |
| Huatuogpt-rision | وصلة | وصلة | 647k images ، VQA ، EN |
| Medvidqa | وصلة | وصلة | 7k videos ، VQA ، EN |
| حميد | وصلة | وصلة | 1M images ، VQA ، EN ، ZH |
| radfm | وصلة | وصلة | 16M images ، 5000 diseases ، VQA ، EN ، 2D/3D |
| BiomedParsedata | وصلة | وصلة | 6.8 million image-mask-description ، 45 biomedical image segmentation datasets ، 9 modalities ، EN ، 2D |
| omnimedvqa | وصلة | وصلة | 118,010 images ، 12 modalities ، 2D ، 20 human anatomical regions |
| PRECT | وصلة | وصلة | 160K volumes ، 42M slices ، 3D ، CT |
| GMAI-VL-5.5M | وصلة | وصلة | 5.5m image and text ، 219 specialized medical imaging datasets ، 2D ، VQA |
| SA-MED2D-20M | وصلة | وصلة | 4.6 مليون صورة طبية ثنائية الأبعاد و 19.7 مليون أقنعة مقابلة ، 2D EN 4.6 million 2D medical images and 19.7 million corresponding masks |
| Imis-betic | وصلة | وصلة | 6.4 مليون صورة ، 273.4 مليون قماش (56 قماشًا لكل صورة) ، 14 طرائق تصوير ، و 204 أهداف تجزئة EN 6.4 million images, 273.4 million masks (56 masks per image), 14 imaging modalities, and 204 segmentation targets |
↥ العودة إلى الأعلى
5. نموذج مفتوح المصدر مسبقًا
5.1 PLM الطبية
BioBert:
- العنوان: https://github.com/naver/biobert-pretrained
- مقدمة: BioBert هو نموذج تمثيل اللغة في مجال العلوم الطبية الحيوية ، والذي يستخدم خصيصًا لمهام تعدين النصوص الطبية الحيوية ، مثل التعرف على الكيان الطبيب الحيوي ، واستخراج العلاقة ، والسؤال والإجابة ، إلخ.
5.2 Medical LLM
5.2.1 النموذج الطبي متعدد اللغات
أبولومو:
- العنوان: https://github.com/freedomintelligence/apollomoe
- مقدمة: الديمقراطية بشكل فعال في LLM في 50 أدوية لغوية من خلال مزيج من خبراء أسرة اللغة
أبولو:
- العنوان: https://github.com/freedomintelligence/apollo
- مقدمة: الطب الخفيف متعدد اللغات LLM ، تعميم الذكاء الاصطناعي الطبي إلى 6 مليارات شخص
mmedlm:
- العنوان: https://github.com/magic-ai4med/mmedlm
- مقدمة: أول نموذج لغة طبية متعددة اللغات مفتوح المصدر
5.2.2 نموذج اللغة الطبية الصينية الكبيرة
- بنتسو:
- العنوان: https://github.com/scir-hi/huatuo-llama-med-chinese
- مقدمة: يعتمد Bentsao على LLAMA-7B ويتم الحصول عليه من خلال ضبط التعليمات/التعليمات الطبية الصينية. قام الباحثون ببناء مجموعة بيانات تعليمات طبية صينية من خلال الرسم البياني للمعرفة الطبية و API GPT3.5 ، وتعليمات LLAMA التي تم ضبطها على هذا الأساس ، مما يحسن تأثير أسئلة وأجوبة لاما في المجال الطبي.
- بيانك:
- العنوان: https://github.com/scutcyr/bianque
- مقدمة: نموذج حوار طبي يتم ضبطه وفقًا للتعليمات وجولات متعددة من حوار الاستفسار. باستخدام Clueai/chatyuan-large-V2 كقاعدة ، فإنه يستخدم تعليمات أسئلة وأجوبة طبية صينية ومجموعة بيانات مختلطة من جولات متعددة من حوار الاستفسار من أجل ضبطها.
- Soulchat:
- العنوان: https://github.com/scutcyr/soulchat
- مقدمة: يستخدم Lingxin chatglm-6b كنموذج التهيئة ، ويقوم بإعداد تعليمات النص الصينية الطويلة في مجال الاستشارة النفسية وجولات متعددة من بيانات حوار التعاطف لتحسين قدرة التعاطف مع النموذج ، وتوجيه قدرة المستخدمين على التحدث ، وتقديم اقتراحات معقولة.
- DoctorGlm:
- العنوان: https://github.com/xionghonglin/doctorglm
- مقدمة: نموذج استشارة صيني يعتمد على chatglm-6b. يتم ضبط هذا النموذج من خلال مجموعة بيانات الحوار الطبية الصينية ، والتي تدرك صقل النشر والنشر بما في ذلك Lora ، P-TuningV2 ، إلخ.
- Huatuogpt:
- العنوان: https://github.com/freedomintelligence/huatuogpt
- مقدمة: Hua Tuo GPT هو نموذج يشبه GPT تم الحصول عليه بواسطة تعليمات التعليم الطبية الصينية التعديل/تعليمات التعليمات (ضبط الأدوات). النموذج هو LLM الصيني مصمم خصيصًا للتشاور الطبي. تحتوي بيانات التدريب الخاصة بها على بيانات مقطرة من ChatGPT والبيانات الحقيقية من الأطباء. تتم إضافة ردود الفعل من RLHF أثناء عملية التدريب.
- Huatuogpt-II:
- العنوان: https://github.com/freedomintelligence/huatuogpt-ii
- مقدمة: تعتمد Hua Tuo GPT2 طريقة مبتكرة للتكيف في الميدان ، مما يحسن إلى حد كبير معرفته الطبية وقدرة الحوار. وقد أظهر أداءً من الدرجة الأولى في معايير طبية متعددة ، وخاصة تجاوز GPT-4 في تقييم الخبراء وامتحانات تأهيلات الممارسة الطبية الجديدة.
5.2.3 نموذج اللغة الطبية الإنجليزية
- Gatortron:
- العنوان: https://github.com/uf-hobi-informatics-lab/gatortron
- مقدمة: نموذج موجه في وقت مبكر في مجال الرعاية الصحية ، مخصص لكيفية الاستفادة من الأنظمة التي تستخدم الحالات الصحية الإلكترونية غير المهيكلة من النسيج الطبي بمليارات من المعلمات.
- Codex-Med:
- العنوان: https://github.com/vlievin/medical-reasoning
- مقدمة: مخصصة لقدرة نموذج GPT-3.5 على الإجابة والسبب للمشاكل الطبية الفعلية. مجموعات بيانات الاختبارات الطبية USMLE و MEDMCQA ، ومجموعة بيانات فهم القراءة الطبية PubMedQA.
- جالاكتيكا:
- العنوان: https://galactica.org/
- مقدمة: تلتزم Galactica بحل الحمل الزائد للمعلومات في مجال العلوم ، وتتضمن المعرفة العلمية بما في ذلك المجال الطبي والصحي. يتم تدريب Galactica على مجموعة كبيرة من الأوراق والمراجع لمحاولة اكتشاف العلاقات المحتملة بين البحث في مجالات مختلفة.
- DEID-GPT:
- العنوان: https://github.com/yhydhx/chatgpt-api
- مقدمة: إطار عمل مبتكر لتوضيح GPT4 يمكنه تحديد معلومات التعريف وحذفه تلقائيًا.
- Chatdoctor:
- العنوان: https://github.com/kent0n-li/Chatdoctor
- مقدمة: نموذج حوار طبي تم الحصول عليه عن طريق الضبط الدقيق على أساس LLAMA باستخدام المعرفة الأساسية في المجال الطبي.
- ميدالباكا:
- العنوان: https://github.com/kbreakm/medalpaca
- مقدمة: تعتمد MedalPaca استراتيجية مفتوحة المصدر مخصصة لحل قضايا الخصوصية في أنظمة الرعاية الصحية. تم بناء النموذج على لاما مع 7 مليارات و 13 مليار معلمة.
- PMC-llama:
- العنوان: https://github.com/chaoyi-wu/pmc-llama
- مقدمة: PMC-Llama هو نموذج لغة مفتوح المصدر يقوم بتعطيل المعرفة الطبية من خلال تنظيم LLAMA-7B في ما مجموعه 4.8 مليون ورقة أكاديمية طبية حيوية لتعزيز قدراتها في المجال الطبي.
- البصرية Med-alpaca:
- العنوان: https://github.com/cambridgeltl/visual-med-alpaca
- مقدمة: يعد Visual Med-Alpaca نموذجًا أساسيًا للطبيب الحيوي المفتوح المصدر والذي يمكن دمجه مع "خبراء الرؤية" في الطب للمهام الطبية الحيوية متعددة الوسائط. تم بناء النموذج على بنية LLAMA-7B ويتم تدريبه باستخدام مجموعة تعليمات برعاية خبراء GPT-3.5-TURBO والبشر.
- GatorTrongpt:
- العنوان: https://github.com/uf-hobi-informatics-lab/gatortrongpt
- مقدمة: GatorTrongpt هو نموذج لغة طبية كبيرة. تم بناء النموذج على GPT-3 ويحتوي على 5 مليارات أو 20 مليار معلمة. يستخدم النموذج مجموعة ضخمة من النصوص السريرية والإنجليزية التي تحتوي على 277 مليار كلمة.
- ميداجي:
- العنوان: https://github.com/joshuachou2018/medagi
- مقدمة: يوفر Medagi ، على سبيل المثال ، نماذج اللغة الطبية الخاصة بالمجال بأقل تكلفة ، وسيلة محتملة لتنفيذ الذكاء الاصطناعي الطبي العام.
- llava-med:
- العنوان: https://github.com/microsoft/llava-med
- مقدمة: يستخدم LLAVA-MED المجال العام LLAVA للتهيئة ، ثم تدرب بشكل مستمر بطريقة تعلم الدورة التدريبية (أولاً مع محاذاة المفهوم الطبي الحيوي ، تليها تعديل تعليمات شامل).
- Med-Flamingo:
- العنوان: https://github.com/snap-stanford/med-flamingo
- مقدمة: Med-Flamingo هو نموذج لغة مرئية مصمم خصيصًا لمعالجة البيانات المتعددة الوسائط المتشابكة التي تحتوي على صور ونص. استنادًا إلى Flamingo ، يعزز Med-Flamingo قدراته في هذه المجالات الطبية عن طريق تدريب مجموعة متنوعة من مصادر المعرفة متعددة الوسائط في التخصصات الطبية المختلفة.
5.3 Medical VLM
| نموذج | ورق | جيثب |
|---|
| Medvint | وصلة | وصلة |
| Med-Flamingo | وصلة | وصلة |
| llava-med | وصلة | وصلة |
| Qilin-Med-VL | وصلة | وصلة |
| radfm | وصلة | وصلة |
| ميددر | وصلة | وصلة |
| Huatuogpt-rision | وصلة | وصلة |
| Biomedgpt | وصلة | وصلة |
| med-moe | وصلة | وصلة |
| R-Llava | وصلة | - |
| Med-2e3 | وصلة | - |
| GMAI-VL | وصلة | وصلة |
5.4 معيار VLM الطبي
| معيار | ورق | جيثب |
|---|
| GMAI-MMBENCH | وصلة | وصلة |
| omnimedvqa | وصلة | وصلة |
| MMMU | وصلة | وصلة |
| multimedeval | وصلة | وصلة |
| WorldMedqa-V. | وصلة | - |
↥ العودة إلى الأعلى
6. الأوراق ذات الصلة
6.1 الأوراق التي قد تكون مفيدة في عصر ما بعد الفصل
ورقة ترميز اللغة الكبير عنوان ورقة المعرفة السريرية العنوان: https://arxiv.org/abs/2212.13138
أداء Chatgpt على USMLE: إمكانية للتعليم الطبي AI-بمساعدة AI باستخدام نماذج اللغة الكبيرة العنوان: https://journals.plos.org/digitalhealth/article؟id=10.1371/journal.pdig.0000198
اختبار (Turing) لورقة نصيحة Medical Chatgpt: https://arxiv.org/abs/2301.10035
Toolformer: يمكن تعليم نموذج اللغة بنفسه باستخدام عنوان ورقة الأداة: https://arxiv.org/abs/2302.04761
تحقق من حقائقك وحاول مرة أخرى: تحسين أوراق نموذج اللغة الكبيرة باستخدام المعرفة الخارجية والتعليقات التلقائية: https://arxiv.org/abs/2302.12813
قدرة GPT-4 على ورقة التحديات الطبية العنوان: https://arxiv.org/abs/2303.13375
6.2 نظرة عامة على المقالات
- نموذج اللغة المسبق مسبقًا في مجال العلوم الطبية الحيوية: عنوان ورقة مسح منهجية
- ملخص للعنوان الورقي لدليل التعلم العميق للرعاية الصحية عنوان طب الطبيعة
- مراجعة للعنوان الورقي لنموذج اللغة الكبير في مجال الرعاية الصحية
6.3 مقالات خاصة بالمهمة
المقالات المتعلقة بالسجلات الطبية الإلكترونية
- نقل التعلم من الأدبيات الطبية للتنبؤ بالقسمة في عنوان ورقة السجلات الصحية الإلكترونية
- MUFASA: بنية الاندماج متعددة الوسائط ، ابحث عن عنوان ورقة السجلات الصحية الإلكترونية
استخراج العلاقة الطبية
- الاستفادة من غابة التبعية لعنوان ورقة استخراج العلاقة الطبية العصبية
الرسم البياني المعرفة الطبية
- تعلم رسم بياني للمعرفة الصحية من عنوان ورقة السجلات الطبية الإلكترونية
التشخيص المساعد
- التقييم والتشخيص الدقيق لأمراض الأطفال باستخدام الذكاء الفني
الكيان الطبي الربط (التقييس)
- الكيان الطبي الربط باستخدام عنوان ورق الشبكة الثلاثي
- إطار توليد ومرتبة مع تنظيم النوع الدلالي لعنوان ورقة تطبيع المفهوم الحيوي
- النماذج العصبية العميقة لتطبيع المفهوم الطبي في عنوان ورقة النصوص التي أنشأها المستخدم
6.4 مؤشر الاجتماع
قائمة الأوراق ذات الصلة في مجال الطب في ACL2020
- إطار توليد ومرتبة مع تنظيم النوع الدلالي لعنوان ورقة تطبيع المفهوم الحيوي
- تمثيل كيان الطب الحيوي مع عنوان ورقة تهميش مرادف
- ترجمة المستندات مقابل ترجمة الاستعلام لاسترجاع المعلومات عبر اللغات في عنوان ورقة المجال الطبي
- MIE: مستخرج معلومات طبية نحو عنوان ورقة الحوارات الطبية
- ترشيد التنبؤ بالعلاقة الطبية من عنوان ورقة الإحصاء على مستوى الجسم
AAAI2020 قائمة الورق ذات الصلة NLP الطبية
- حول جيل عنوان ورق الأزواج الطبية للأسئلة الطبية
- لاتيه: نمذجة النوع الكامن للكيان الطبي الحيوي ربط عنوان الورق
- تعلم التضمينات المفاهيمية لعنوان ورقة النص الطبية
- فهم المحادثات الطبية مع انتباه الكلمات الرئيسية المبعثرة والإشراف الضعيف من عنوان ورقة الاستجابات
- في وقت واحد ربط الكيانات واستخراج العلاقات من النص الطبي الحيوي دون عنوان ورقة الإشراف على مستوى الإشارة
- هل يمكن أن تمثل التضمينات المصطلحات الطبية بشكل كاف؟ إن مجموعات بيانات تشابه المصطلح الطبي الجديد على نطاق واسع لها إجابة! عنوان الورق
EMNLP2020 قائمة الورق ذات الصلة NLP الطبية
- نحو فهم قراءة الآلة الطبية مع المعرفة الهيكلية وعنوان ورقة النص العادي
- Meddialog: عنوان ورقة الحوار الطبي على نطاق واسع
- كوميتا: مجموعة لكيان طبي يرتبط في عنوان ورقة التواصل الاجتماعي
- استخراج الأحداث الطبية الحيوية كعنوان ورق تسلسل العلامات
- فذني: التعلم الموحّد عبر التقطير في المجموعة لورقة استخراج العلاقة الطبية تحليل ورقة ورقة العنوان: فذ
- غرس معرفة المرض في بيرت للإجابة على الأسئلة الصحية ، والاستدلال الطبي وعنوان ورقة التعرف على اسم المرض
- نموذج توليدي يعتمد على المعرفة لخطوطة تطبيع الطبقة الطبية الصينية المتعددة
- Biomegatron: عنوان ورقة نموذج لغة المجال الحيوي الأكبر
- الاستعلام عبر أنواع المطالبات الطبية في عنوان ورقة الأخبار
↥ العودة إلى الأعلى
7. مجموعة أدوات المصدر المفتوح
- أداة قسم الكلمات: عنوان مشروع PKUSEG الوصف: تدعم أداة النعت الصينية متعددة المجالات الصينية التي أطلقتها جامعة بكين اختيار الحقول الطبية.
↥ العودة إلى الأعلى
8. حلول المنتجات الصناعية
الحكمة الطب الروحي
الطبيب الأيسر
Yidu Cloud Research Institute-Medical Language Processing
بايدو - هيكل النص الطبي
Alibaba Cloud - معالجة اللغة الطبيعية الطبية
↥ العودة إلى الأعلى
9. مشاركة المدونة
- الألبكة: تعليمات قوية مفتوحة المصدر بعد النموذج
- الدروس المستفادة من بناء أنظمة معالجة اللغة الطبيعية في المجال الطبي
- مقدمة في قاعدة البيانات العامة الطبية وتكنولوجيا استخراج البيانات في عصر البيانات الضخمة
- بالنظر إلى تطوير NLP في المجال الطبي من ACL 2021 ، مع تنزيل الموارد
↥ العودة إلى الأعلى
10. روابط ودية
- Awesome_chinese_medical_nlp
- بحث مجموعة بيانات NLP الصينية
- البيانات الطبية (البيانات الطبية الضخمة)
- مجموعة بيانات Tianchi (بما في ذلك مجموعات بيانات NLP الطبية المتعددة)
↥ العودة إلى الأعلى
11. المرجع
@misc { medical_NLP_github ,
author = { Xidong Wang, Ziyue Lin and Jing Tang, Rongsheng Wang, Benyou Wang } ,
title = { Medical NLP } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/FreedomIntelligence/Medical_NLP} }
}