Medical_nlp
의료 NLP 도메인 평가/경쟁, 데이터 세트, 종이 및 미리 훈련 된 모델 리소스 요약.
의료 NLP 평가/경쟁, 데이터 세트, 논문 및 미리 훈련 된 모델의 요약.
소식
- ? 2024/11/14 추가
4. VLM数据集, 5.3 医疗VLM , 5.4 医疗VLM Benchmark . 앞으로 의료 VLM 유지 보수 방향과 관련된 관련 자원을 유지하는 데 중점을 둘 것입니다 . 이 레포는 Rongsheng Wang에 의해 유지됩니다. - ? Cris Lee가 2021 년에 의료 NLP 필드를 떠났을 때 2024/11/14 이전 에이 리포지기는 현재 Xidong Wang, Ziyue Lin, Jing Tang에 의해 유지됩니다.
내용물
- 1. 평가
- 1.1 중국 의료 벤치 마크 평가 : CMB / CMEXAM / PrfustCblue
- 1.2 영어 의료 벤치 마크 평가 :
- 2. 경쟁
- 3. LLM 데이터 세트
- 4. VLM 데이터 세트
- 5. 오픈 소스 사전 훈련 된 모델
- 5.1 Medical PLM
- 5.2 의료 LLM
- 5.3 의료 VLM
- 5.4 의료 VLM 벤치 마크
- 6. 관련 서류
- 6.1 chatgpt 시대에 도움이 될 수있는 논문
- 6.2 개요 기사
- 6.3 작업 별 기사
- 6.4 회의 지수
- 7. 오픈 소스 툴킷
- 8. 산업 등급의 제품 솔루션
- 9. 블로그 공유
- 10. 친절한 링크
1. 평가
1.1 중국 의료 벤치 마크 평가 : CMB / CMEXAM / PrfustCblue
CMB
- 주소 : https://github.com/freedomintelligence/cmb
- 출처 : 모든 단계에서 다양한 임상 의료 작업에 대한 검사; 임상 복잡한 사례에 대한 상담
cmexam
- 주소 : https://github.com/williamliujl/cmexam
- 출처 : 실용적인 의사 자격 시험 전년도 질문
PromptCblue
- 주소 : https://github.com/michael-wzhu/promptcblue
- 출처 : CBLUE
PromptCblue
- 주소 : https://github.com/cbluebenchmark/cblue
- 출처 : 이전 학업 평가 대회 데이터 세트 및 이전 학업 검토의 ALI Quark 의료 검색 사업
Medbench
- 주소 : https://arxiv.org/abs/2312.12806
- 출처 : 모든 전문 분야를 다루는 건강 검진 및 보고서에서 40,041 개의 질문이 포함되어 있습니다.
1.2 영어 의료 벤치 마크 평가 :
멀티 메드 벤치
- 소개 : Google에서 파생 된 대규모 멀티 모달 생성 모델입니다.
↥ 위로 돌아갑니다
2. 경쟁
2.1 진행중인 경기
의료 검색 쿼리 상관 판단
- 주소 : https://tianchi.aliyun.com/competition/entrance/532001/introduction
- 출처 : Alibaba Tianchi
2.2 종료 된 게임
2.2.1 영어 경쟁
2.2.2 중국 경쟁
영상 NLP - 의료 영상 진단 보고서 생성
- 주소 : https://gaiic.caai.cn/ai2023/
- 출처 : 2023 글로벌 인공 지능 기술 혁신 경쟁 트랙 1
비표준 질병 요구 사항에 대한 간단한 심사 도전 2.0
- 주소 : http://challenge.xfyun.cn/topic/info?type=disease-claims-20222&ch=ds22-dw-sq03
- 출처 : Iflytek
제 8 차 중국 건강 정보 처리 회의의 평가 과제 (Chip2022)
- 주소 : http://cips-chip.org.cn/
- 출처 : Chip2022
Iflytek-Medical Entity 및 관계 식별 도전
- 주소 : http://www.fudan-disc.com/sharedtask/imcs21/index.html
- 출처 : Iflytek
"간"은 부드럽고 부드럽고 큰 모델은 간 질환의 의사와 환자를위한 새로운 대화 형 서비스 패턴을 만듭니다.
- 주소 : http://www.fudan-disc.com/sharedtask/imcs21/index.html ](https://www.dcic-china.com/competitions/10090
- 출처 : Digital China Construction Summit 조직위원회
↥ 위로 돌아갑니다
3. LLM 데이터 세트
3.1 중국어
huatuo-26m
- 주소 : https://github.com/freedomintelligence/huatuo-26m
- 소개 : Huatuo-26M은 가장 큰 한약 질문 및 답변 데이터 세트입니다.
중국 의료 대화 데이터 세트
- 주소 : https://github.com/toyhom/chinese-medical-dialogue-data
- 소개 : 6 개 부서가 포함 된 의료 Q & A 데이터
cblue
- 주소 : https://github.com/cbluebenchmark/cblue
- 소개 : 의료 텍스트 정보 추출 커버 (엔티티 인식, 관계 추출)
CMEDQA2 (108K)
- 주소 : https://github.com/zhangsheng93/cmedqa2
- 소개 : 한약의 10 만 개 이상의 질문 및 답변 데이터 세트
xywy-kg (294k 트리플)
- 주소 : https://github.com/baiyang2464/chatbot-base-on-knowledge graph
- 소개 : 44.1K 엔티티 294.1K 트리플
39Health-kg (210k 트리플)
- 주소 : https://github.com/zhihao-chen/qasystemonmedicalgraph
- 소개 : 7 가지 유형의 엔티티, 약 37,000 개의 엔티티 및 210,000 개의 엔티티 관계를 포함하여 15 개의 정보 항목이 포함되어 있습니다.
의료-규모 시스템
- 주소 : https://github.com/ucsd-ai4h/medical-dialogue-system
- MedDialog 데이터 세트 (중국어)에는 의사와 환자 (중국어) 간의 대화가 포함되어 있습니다. 이 데이터 세트에는 110 만 개의 대화와 4 백만 명이 있습니다. 데이터는 여전히 증가하고 있으며 앞으로 더 많은 대화가 추가 될 것입니다.
중국 의료 대화 데이터
- 주소 : https://github.com/toyhom/chinese-medical-dialogue-data
- 이 데이터 세트에는 정형 외과, 소아과, 산부인과 및 부인과, 내과, 수술 및 종양학을 포함한 6 개의 다른 부서의 총 792,099 개의 데이터가 포함되어 있습니다.
YIDU-S4K
- 주소 : http://openkg.cn/dataset/yidu-s4k
- 소개 : 명명 된 엔티티 인식, 엔티티 및 속성 추출
YIDU-N7K
- 주소 : http://openkg.cn/dataset/yidu-n7k
- 소개 : 임상 언어 표준화
한약 질문 및 답변 데이터 세트
- 주소 : https://github.com/zhangsheng93/cmedqa2
- 소개 : 의료 Q & A
중국 의사-환자 질문 및 답변 대화 데이터
- 주소 : https://github.com/ucsd-ai4h/medical-dialogue-system
- 소개 : 의료 Q & A
cpubmed-kg (4.4m 트리플)
- 주소 : https://cpubmed.openi.org.cn/graph/wiki
- 소개 : 중국 의료 협회의 고품질 풀 텍스트 저널 데이터
중국 의료 지식 그래프 CMEKG (1M 트리플)
- 주소 : http://cmekg.pcl.ac.cn/
- 소개 : CMEKG (중국 의료 지식 그래프)
칩 지난 몇 년간 평가 (공식 평가)
- 주소 : http://cips-chip.org.cn/2022/callforeval; http://www.cips-chip.org.cn/2021/; http://cips-chip.org.cn/2020/
- 소개 : 지난 몇 년간 평가 (공식 평가)
Ruijin 병원 당뇨병 데이터 세트 (당뇨병)
- 주소 : https://tianchi.aliyun.com/competition/entrance/231687/information
- 소개 : Ruijin Hospital Diabetes 데이터 세트 (당뇨병)
Tianchi Covid-19 질문 매치 경쟁 (New Coronavirus)
- 주소 : https://tianchi.aliyun.com/competition/entrance/231776/information
- 소개 :이 경쟁의 데이터에는 다음이 포함됩니다. 의료 문제 데이터 쌍 및 탈감작 후 데이터.
3.2 영어
약점
- 주소 : https://github.com/chanzuckerberg/medmentions
- 소개 : PubMed Abstract를 기반으로 한 생물 의학 엔티티 링크 데이터 세트
WebMedqa
- 주소 : https://github.com/hejunqing/webmedqa
- 소개 : 의료 Q & A
만종
- 주소 : https://www.siphs.org/
- 소개 : 소셜 미디어의 의료 기관 링크 데이터. EMNLP2020에 게시
PubMedqa
- 주소 : https://arxiv.org/abs/1909.06146
- 소개 : PubMed 추출물을 기반으로 한 의료 Q & A 데이터 세트
메디카
- 주소 : https://sites.google.com/view/mediqa2021
- 소개 : 텍스트 요약
ChatDoctor DataSet-1
- 주소 : https://drive.google.com/file/d/1lyfqiwllsclhgrcutwuee_iacnq6xnut/view?usp=sharing
- 소개 : HealthCaremagic.com의 환자와 의사 간의 10 만 회의 실제 대화
ChatDoctor DataSet-2
- 주소 : https://drive.google.com/file/d/1zkbqgyqwc7djhs3n9tqyqvpddqmzacla/view?usp=sharing
- 소개 : 10K ICLINIQ.com의 환자와 의사 간의 실제 대화
생체 내장
- 주소 : https://github.com/bio-nlp/biointruct
- 소개 : Q & A (QA), 정보 추출 (IE) 및 텍스트 생성을 포함하여 생의학 작업에 맞게 25,000 개 이상의 지침
시각적 Med-Alpaca 데이터
- 주소 : https://github.com/cambridgeltl/visual-med-alpaca/tree/main/data
- 소개 : Bigbio, Roco 및 GPT-3.5-Turbo에서 파생 된 Visual Med-Alpaca 교육 데이터
Chexpert Plus
- 주소 : https://github.com/stanford-aimi/chetrit-plus
- 소개 : 방사선 분야에서 가장 큰 텍스트 데이터 세트는 총 3,600 만 개의 텍스트 토큰이 있으며, 모두 DICOM 형식의 고품질 이미지뿐만 아니라 다양한 임상 및 사회 그룹뿐만 아니라 많은 병리학 적 태그 및 래드 그래프 주석을 다루는 수많은 이미지 및 환자 메타 데이터를 갖추고 있습니다.
↥ 위로 돌아갑니다
4. VLM 데이터 세트
| 데이터 세트 | 종이 | github | 키워드 |
|---|
| medtrinity-25m | 링크 | 링크 | 25 million images , 10 modalities , 65 diseases , VQA , EN |
| llava-med | 링크 | 링크 | 630k images , VQA , EN |
| 중국-균사 | - | 링크 | 60k images , VQA , ZH |
| huatuogpt-vision | 링크 | 링크 | 647k images , VQA , EN |
| medvidqa | 링크 | 링크 | 7k videos , VQA , EN |
| chimed-vl | 링크 | 링크 | 1M images , VQA , EN , ZH |
| radfm | 링크 | 링크 | 16M images , 5000 diseases , VQA , EN , 2D/3D |
| 바이오 의식 전파 | 링크 | 링크 | 6.8 million image-mask-description 45 biomedical image segmentation datasets 9 modalities EN 2D |
| Omnimedvqa | 링크 | 링크 | 118,010 images , 12 modalities , 2D , 20 human anatomical regions |
| prect | 링크 | 링크 | 160K volumes , 42M slices , 3D , CT |
| GMAI-VL-5.5M | 링크 | 링크 | 5.5m image and text , 219 specialized medical imaging datasets , 2D , VQA |
| SA-MED2D-20M | 링크 | 링크 | 4.6 million 2D medical images and 19.7 million corresponding masks , 2D , EN |
| Imis-Bench | 링크 | 링크 | 6.4 million images, 273.4 million masks (56 masks per image), 14 imaging modalities, and 204 segmentation targets , EN |
↥ 위로 돌아갑니다
5. 오픈 소스 사전 훈련 된 모델
5.1 Medical PLM
Biobert :
- 주소 : https://github.com/naver/biobert-preated
- 소개 : Biobert는 생물 의학 과학 분야의 언어 표현 모델로, 생물 의학이라는 이름의 기업 인식, 관계 추출, 질문 및 답변 등과 같은 생물 의학 텍스트 마이닝 작업에 특별히 사용됩니다.
5.2 의료 LLM
5.2.1 다국어 의료 모델
아폴로 메 :
- 주소 : https://github.com/freedomintelligence/apollomoe
- 소개 : 언어 가족 전문가의 혼합을 통해 50 개의 언어 의약품에서 LLM을 효과적으로 민주화합니다.
아폴로:
- 주소 : https://github.com/freedomintelligence/apollo
- 소개 : 가벼운 다국어 의학 LLM, 의료 인공 지능을 60 억 명의 사람들에게 대중화합니다.
mmedlm :
- 주소 : https://github.com/magic-ai4med/mmedlm
- 소개 : 최초의 오픈 소스 다국어 의료 언어 모델
5.2.2 중국 의료 빅 언어 모델
- Bentsao :
- 주소 : https://github.com/scir-hi/huatuo-llama-med-chinese
- 소개 : Bentsao는 LLAMA-7B를 기반으로하며 중국 의료 지침/지침의 미세 조정을 통해 얻습니다. 연구원들은 의료 지식 그래프 및 GPT3.5 API를 통해 중국 의료 지침 데이터 세트를 구성했으며,이를 기반으로 미세 조정 된 LLAMA 지침을 작성하여 의료 분야에서 LLAMA의 Q & A 효과를 향상 시켰습니다.
- 양고기 :
- 주소 : https://github.com/scutcyr/bianque
- 소개 : 지침과 여러 라운드의 문의 대화에 의해 미세 조정되는 의료 대화 모델. Clueai/Chatyuan-Large-V2를 기본으로 사용하여 중국 의료 의료 질문 및 대답 지침과 미세 조정을위한 여러 라운드의 문의 대화의 혼합 데이터 세트를 사용합니다.
- SoulChat :
- 주소 : https://github.com/scutcyr/soulchat
- 소개 : Lingxin은 ChatGLM-6B를 초기화 모델로 사용하고 심리 상담 분야에서 중국의 긴 텍스트 지침을 미세 조정하고 모델의 공감 능력을 향상시키고 사용자의 대화 능력을 안내하며 합리적인 제안을 제공합니다.
- Doctorglm :
- 주소 : https://github.com/xionghonglin/doctorglm
- 소개 : ChatGLM-6B를 기반으로 한 중국 상담 모델. 이 모델은 중국 의료 대화 데이터 세트를 통해 미세 조정되어 LORA, P-TUNINGV2 등을 포함한 미세 조정 및 배치를 실현합니다.
- huatuogpt :
- 주소 : https://github.com/freedomintelligence/huatuogpt
- 소개 : HUA TUO GPT는 중국 의료 지침 미세 조정/교육 미세 조정 (명령 조정)에 의해 얻은 GPT와 같은 모델입니다. 이 모델은 의료 상담을 위해 특별히 설계된 중국 LLM입니다. 교육 데이터에는 ChatGpt에서 증류 된 데이터와 의사의 실제 데이터가 포함됩니다. RLHF의 피드백은 훈련 과정에서 추가됩니다.
- Huatuogpt-II :
- 주소 : https://github.com/freedomintelligence/huatuogpt-ii
- 소개 : HUA TUO GPT2는 혁신적인 현장 적응 방법을 채택하여 의학적 지식과 대화 능력을 크게 향상시킵니다. 그것은 여러 의료 벤치 마크에서 최고 수준의 성능을 보여 주었고, 특히 전문가 평가 및 새로운 의료 실무 자격 시험에서 GPT-4를 능가했습니다.
5.2.3 영어 의료 언어 모델
- Gatortron :
- 주소 : https://github.com/uf-hobi-informatics-lab/gatortron
- 소개 : 의료 분야의 초기 모형 모델은 구조화되지 않은 전자 건강 사례를 사용하는 시스템이 수십억 개의 매개 변수가있는 의료 모형의 혜택을받는 방법에 전념합니다.
- Codex-Med :
- 주소 : https://github.com/vlievin/medical-reasoning
- 소개 : GPT-3.5 모델의 실제 의학적 문제에 대한 답변과 이유에 전념합니다. 의료 시험 데이터 세트 USMLE 및 MEDMCQA 및 의료 읽기 이해 데이터 세트 PubMedQa.
- galactica :
- 주소 : https://galactica.org/
- 소개 : Galactica는 과학 분야의 정보 과부하를 해결하기 위해 최선을 다하고 있으며 의료 및 건강 분야를 포함한 과학적 지식을 저장하고 있습니다. Galactica는 큰 논문과 참고 문헌에 대해 교육을 받았으며 다른 분야의 연구 간의 잠재적 관계를 발견하려고합니다.
- Deid-Gpt :
- 주소 : https://github.com/yhydhx/chatgpt-api
- 소개 : 식별 정보를 자동으로 식별하고 삭제할 수있는 혁신적인 GPT4 가능성 탈신 탈퇴 프레임 워크.
- chatDoctor :
- 주소 : https://github.com/kent0n-li/chatdoctor
- 소개 : 의료 분야의 기본 지식을 사용하여 라마를 기반으로 미세 조정하여 얻은 의료 대화 모델.
- 메달 파카 :
- 주소 : https://github.com/kbreakm/medalpaca
- 소개 : Medalpaca는 의료 시스템의 개인 정보 보호 문제를 해결하기위한 오픈 소스 전략을 채택합니다. 이 모델은 70 억 및 130 억 매개 변수로 라마를 기반으로합니다.
- PMC-Llama :
- 주소 : https://github.com/chaoyi-wu/pmc-llama
- 소개 : PMC-Llama는 의료 분야의 능력을 향상시키기 위해 총 480 만 개의 생의학 학술 논문에서 LLAMA-7B를 조절하여 의료 지식을 더욱 심화시키는 오픈 소스 언어 모델입니다.
- 시각적 Med-Alpaca :
- 주소 : https://github.com/cambridgeltl/visual-med-alpaca
- 소개 : Visual Med-Alpaca는 오픈 소스의 매개 변수 효율적인 생체 의학 기본 모델로, 복합 생물 의학 작업을 위해 의학의 "비전 전문가"와 통합 될 수 있습니다. 이 모델은 LLAMA-7B 아키텍처를 기반으로 구축되며 GPT-3.5-Turbo 및 Human Experts가 큐 레이트 한 지침 세트를 사용하여 교육을받습니다.
- GatorTrongpt :
- 주소 : https://github.com/uf-hobi-informatics-lab/gatortrongpt
- 소개 : GatorTrongpt는 의료 생성 대형 언어 모델입니다. 이 모델은 GPT-3에 구축되었으며 50 억 또는 200 억 매개 변수를 포함합니다. 이 모델은 2,770 억 단어가 포함 된 거대한 임상 및 영어 텍스트를 사용합니다.
- Medagi :
- 주소 : https://github.com/joshuachou2018/medagi
- 소개 : Medagi는 가장 낮은 비용으로 도메인 별 의료 언어 모델을 통합하여 일반적인 의료 인공 지능을 구현할 수있는 가능한 방법을 제공합니다.
- llava-med :
- 주소 : https://github.com/microsoft/llava-med
- 소개 : LLAVA-MED는 초기화를 위해 일반 도메인 LLAVA를 사용한 다음 코스 학습 방식으로 지속적으로 교육을 받았습니다 (먼저 생물 의학 개념 정렬, 포괄적 인 교육 조정).
- Med-Flamingo :
- 주소 : https://github.com/snap-stanford/med-flamingo
- 소개 : Med-Flamingo는 이미지와 텍스트가 포함 된 인터레이스 된 멀티 모달 데이터를 처리하도록 특별히 설계된 시각적 언어 모델입니다. Flamingo를 기반으로 Med-Flamingo는 다양한 의료 분야에서 다양한 멀티 모달 지식 소스를 사전 훈련시킴으로써 이러한 의료 분야의 기능을 더욱 향상시킵니다.
5.3 의료 VLM
| 모델 | 종이 | github |
|---|
| Medvint | 링크 | 링크 |
| 메드 플라밍고 | 링크 | 링크 |
| llava-med | 링크 | 링크 |
| Qilin-Med-VL | 링크 | 링크 |
| radfm | 링크 | 링크 |
| meddr | 링크 | 링크 |
| huatuogpt-vision | 링크 | 링크 |
| Biomedgpt | 링크 | 링크 |
| 메드 모트 | 링크 | 링크 |
| r-llava | 링크 | - |
| MED-2E3 | 링크 | - |
| GMAI-VL | 링크 | 링크 |
5.4 의료 VLM 벤치 마크
| 기준 | 종이 | github |
|---|
| gmai-mmbench | 링크 | 링크 |
| Omnimedvqa | 링크 | 링크 |
| 음 | 링크 | 링크 |
| 다중 의식 | 링크 | 링크 |
| WorldMedqa-v | 링크 | - |
↥ 위로 돌아갑니다
6. 관련 서류
6.1 chatgpt 시대에 도움이 될 수있는 논문
대형 언어 모델 코딩 임상 지식 논문 주소 : https://arxiv.org/abs/2212.13138
USMLE에 대한 ChatGpt의 성과 : 대형 언어 모델을 사용하여 AI 지원 의료 교육의 잠재력 종이 주소 : https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198
Chatgpt의 의료 조언 논문 주소 테스트 (Turing) : https://arxiv.org/abs/2301.10035
Toolformer : 언어 모델은 도구 용지 주소를 사용하여 자체적으로 가르 칠 수 있습니다 : https://arxiv.org/abs/2302.04761
사실을 확인하고 다시 시도하십시오 : 외부 지식과 자동 피드백을 사용하여 대형 언어 모델 용지를 개선하십시오 : https://arxiv.org/abs/2302.12813
의료 도전에 대한 GPT-4 기능 종이 주소 : https://arxiv.org/abs/2303.13375
6.2 개요 기사
- 생의학 분야의 미리 훈련 된 언어 모델 : 체계적인 설문 조사 논문 주소
- 의료 딥 러닝 가이드 논문 주소 자연 의학의 논문 주소 요약
- 건강 관리 분야에서 큰 언어 모델의 논문 주소 검토
6.3 작업 별 기사
전자 의료 기록과 관련된 기사
- 전자 건강 기록의 섹션 예측에 대한 의학 문헌에서 학습을 전송하여 종이 주소
- MUFASA : 전자 건강 기록에 대한 멀티 모달 퓨전 아키텍처 검색 종이 주소
의료 관계 추출
- 신경 의료 관계 추출 종이 주소를위한 의존성 숲 활용
의료 지식 그래프
- 전자 의료 기록 종이 주소에서 건강 지식 그래프 학습
보조 진단
- 예술적 지능을 사용한 소아 질환의 평가 및 정확한 진단
의료 기관 연결 (표준화)
- 삼중 항 네트워크 종이 주소를 사용한 의료 기관 연결
- 생의학 개념 정상화 용지 주소를위한 시맨틱 유형 정규화를 갖춘 생성 및 순위 프레임 워크
- 의료 개념을위한 깊은 신경 모델 사용자 생성 텍스트 종이 주소
6.4 회의 지수
ACL2020의 의학 분야의 관련 논문 목록
- 생의학 개념 정상화 용지 주소를위한 시맨틱 유형 정규화를 갖춘 생성 및 순위 프레임 워크
- 동의어 소외 논문 주소를 가진 생의학 실적 표현
- 의료 도메인 논문 주소에서 문서 간 정보 검색에 대한 문서 번역 대 쿼리 번역
- MIE : 의료 대화에 대한 의료 정보 추출기 종이 주소
- 코퍼스 수준의 통계 논문 주소에서 의료 관계 예측 합리화
AAAI2020 의료 NLP 관련 서류 목록
- 의학적 질문 응답의 생성에서 종이 주소
- Latte : 종이 주소를 연결하는 생의학 실체에 대한 잠재 유형 모델링
- 의료 텍스트 논문 주소를위한 개념적 컨텍스트 임베드 학습
- 흩어져있는 키워드 관심과 의료 대화 이해 및 응답 종이 주소에서 약한 감독
- 언급 수준 감독 종이 주소없이 실체를 동시에 연결하고 생물 의학 텍스트에서 관계를 추출합니다.
- 임베드가 의료 용어를 적절하게 표현할 수 있습니까? 새로운 대규모 의료 용어 유사성 데이터 세트가 답이 있습니다! 종이 주소
EMNLP2020 의료 NLP 관련 서류 목록
- 의료기 독해를 향해 구조 지식 및 일반 텍스트 종이 주소를 가진 이해력
- Meddialog : 대규모 의료 대화 데이터 세트 용지 주소
- COCETA : 소셜 미디어 논문 주소에 연결하는 의료 기관을위한 코퍼스
- 시퀀스 라벨링 용지 주소로서 생의학 이벤트 추출
- Feded : 의료 관계 추출 용지 주소 논문 분석을위한 앙상블 증류를 통한 연합 학습 : Feded : 의료 관계 추출을위한 연합 학습 (융합 증류에 근거)
- 건강 질문에 대한 질병 지식을 불러에 주입하여 답변, 의학적 추론 및 질병 이름 인식 논문 주소
- 다중 응시를위한 지식 중심 생성 모델 중국 의료 절차 실체 정규화 논문 주소
- Biomegatron : 더 큰 생물 의학 도메인 언어 모델 용지 주소
- 신문 주소에서 의료 청구에 대한 장르를 가로 질러 쿼리
↥ 위로 돌아갑니다
7. 오픈 소스 툴킷
- 단어 파티션 도구 : PKUSEG 프로젝트 주소 프로젝트 설명 : Peking University에서 시작한 다중 도메인 중국어 단어 분사 도구는 의료 분야의 선택을 지원합니다.
↥ 위로 돌아갑니다
8. 산업 등급의 제품 솔루션
영적 약 지혜
왼손잡이 의사
YIDU Cloud Research Institute-Medical Natural Language Processing
바이두 - 의료 텍스트 구조
알리바바 클라우드 - 의료 자연어 처리
↥ 위로 돌아갑니다
9. 블로그 공유
- Alpaca : 강력한 오픈 소스 지침 다음 모델
- 의료 분야에서 자연어 가공 시스템 구축에서 배운 교훈
- 빅 데이터 시대의 의료 공개 데이터베이스 및 데이터 마이닝 기술 소개
- ACL 2021의 의료 분야에서 NLP 개발을보고 자원 다운로드
↥ 위로 돌아갑니다
10. 친절한 링크
- Awesome_chinese_medical_nlp
- 중국 NLP 데이터 세트 검색
- 의료 데이터 (대규모 의료 관련 데이터)
- Tianchi 데이터 세트 (여러 의료 NLP 데이터 세트 포함)
↥ 위로 돌아갑니다
11. 참조
@misc { medical_NLP_github ,
author = { Xidong Wang, Ziyue Lin and Jing Tang, Rongsheng Wang, Benyou Wang } ,
title = { Medical NLP } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/FreedomIntelligence/Medical_NLP} }
}