Medical_nlp
Резюме медицинской оценки домена NLP/конкуренции, наборов данных, бумаги и предварительно обученных модельных ресурсов.
Сводка медицинских оценок НЛП/соревнований, наборов данных, документов и предварительно обученных моделей.
Новости
- ? 2024/11/14 Добавлен
4. VLM数据集, 5.3 医疗VLM , 5.4 医疗VLM Benchmark . В будущем основное внимание будет уделено поддержанию соответствующих ресурсов, связанных с направлением медицинского обслуживания VLM . Репо будет поддерживаться Ронгшенг Ванг. - ? До 2024/11/14 , когда Крис Ли покинул медицинское поле NLP в 2021 году, в настоящее время этот репо поддерживается Xidong Wang, Ziyue Lin, Jing Tang.
Содержимое
- 1. Оценка
- 1.1 Китайский медицинский эталонный базовый баллов Оценка: CMB / CMEXAM / QUINCEDCBLUE
- 1.2 Английская медицинская оценка оценки:
- 2. Конкурс
- 2.1 Продолжительные матчи
- 2.2 Конечная игра
- 3. Набор данных LLM
- 3.1 Китайский
- 3.2 английский
- 4. Набор данных VLM
- 5. Предварительно обученная модель с открытым исходным кодом
- 5.1 Медицинский PLM
- 5.2 Medical LLM
- 5.3 Медицинский VLM
- 5.4 Медицинский эталон VLM
- 6. Связанные документы
- 6.1 Документы, которые могут быть полезны в эпоху после чатгпта
- 6.2 Обзор статьи
- 6.3 Статьи о конкретном задании
- 6.4 Индекс встречи
- 7. Инструментарий с открытым исходным кодом
- 8. Решения продукта промышленного уровня
- 9. Обмен блогами
- 10. Дружелюбные ссылки
1. Оценка
1.1 Китайский медицинский эталонный базовый баллов Оценка: CMB / CMEXAM / QUINCEDCBLUE
CMB
- Адрес: https://github.com/freedomintelligence/cmb
- Источник: экзамены в различных клинических медицинских работах на всех этапах; Консультации по клиническим комплексным случаям
Cmexam
- Адрес: https://github.com/williamliujl/cmexam
- Источник: Квалификационный экзамен на практическом враче. Вопросы предыдущего года
Rackclue
- Адрес: https://github.com/michael-wzhu/promptcblue
- Источник: CBLUE
Rackclue
- Адрес: https://github.com/cbluebenchmark/cblue
- Источник: наборы данных предыдущих соревнований по академической оценке и медицинский поисковый бизнес Ali Quark предыдущих академических обзоров
Медбенч
- Адрес: https://arxiv.org/abs/2312.12806
- Источник: содержит 40 041 вопроса из медицинских осмотров и отчетов, охватывающих все специальности.
1.2 Английская медицинская оценка оценки:
Мультимедбенч
- Введение: это большая модель мультимодальной генерации, полученная из Google
↥ Вернуться к вершине
2. Конкурс
2.1 Продолжительные матчи
2.2 Конечная игра
2.2.1 Английский конкурс
2.2.2 Китайская конкуренция
Визуализация NLP - генерация диагностических отчетов о медицинской визуализации
- Адрес: https://gaiic.caai.cn/ai2023/
- Источник: 2023 Глобальный инновационный конкурс технологий искусственного интеллекта. Трек 1
Простая задача сортировки для нестандартных требований к заболеваниям 2.0
- Адрес: http://challenge.xfyun.cn/topic/info?type=disease-claims-2022&ch=ds22-dw-sq03
- Источник: iflytek
Задача оценки 8 -й Китайской конференции по обработке информации о здоровье (CHIP2022)
- Адрес: http://cips-chip.org.cn/
- Источник: Chip2022
Iflytek-Medical Entity и задача идентификации отношений
- Адрес: http://www.fudan-disc.com/sharedtask/imcs21/index.html
- Источник: iflytek
«Печень» мягкая и мягкая, а большая модель создает новую схему интерактивных услуг для врачей и пациентов при заболевании печени.
- Адрес: http://www.fudan-disc.com/sharedtask/imcs21/index.html^(https://www.dcic-china.com/competitions/10090
- Источник: Комитет по организационному саммите по строительству цифрового Китая
↥ Вернуться к вершине
3. Набор данных LLM
3.1 Китайский
HUATUO-26M
- Адрес: https://github.com/freedomintelligence/huatuo-26m
- ВВЕДЕНИЕ: Huatuo-26M, безусловно, является крупнейшим набором данных о вопросах и ответах китайской медицины.
Набор данных китайского медицинского диалога
- Адрес: https://github.com/toyhom/chinese-medical-dialogue-data
- Введение: Медицинские вопросы и ответы, содержащие шесть отделов
Cblue
- Адрес: https://github.com/cbluebenchmark/cblue
- Введение: охватывание извлечения информации о медицинской текстовой информации (распознавание организации, извлечение отношений)
CMEDQA2 (108K)
- Адрес: https://github.com/zhangsheng93/cmedqa2
- Введение: более 100 000 вопросов и наборов данных ответов в китайской медицине
xywy-kg (294 тыс. Тройной)
- Адрес: https://github.com/baiyang2464/chatbot-base-on-conceledge-граф
- Введение: 44,1K Entity 294.1K Triple
39Health-KG (210K тройной)
- Адрес: https://github.com/zhihao-chen/qasystemonmedicegraph
- Введение: включает в себя 15 пунктов информации, в том числе 7 типов организаций, около 37 000 организаций и 210 000 отношений организации.
Медицинская диалога-система
- Адрес: https://github.com/ucsd-ai4h/medical-dialogue-system
- Набор данных Meddialog (китайский) содержит разговоры между врачами и пациентами (китайцы). Этот набор данных имеет 1,1 миллиона разговоров и 4 миллиона заявлений. Данные все еще растут, и в будущем будет добавлено больше разговоров.
Данные китайского медицинского диалога
- Адрес: https://github.com/toyhom/chinese-medical-dialogue-data
- Этот набор данных содержит в общей сложности 792 099 данных из шести различных отделов, включая ортопедию, педиатрию, акушерство и гинекологию, внутреннюю медицину, хирургию и онкологию.
Yidu-S4K
- Адрес: http://openkg.cn/dataset/yidu-s4k
- Введение: Признание объекта, сущность и извлечение атрибутов
Yidu-N7K
- Адрес: http://openkg.cn/dataset/yidu-n7k
- Введение: стандартизация клинического языка
Набор данных о китайской медицине и ответах
- Адрес: https://github.com/zhangsheng93/cmedqa2
- Введение: медицинские вопросы и ответы
Китайские данные о вопросах и ответах. Данные диалога
- Адрес: https://github.com/ucsd-ai4h/medical-dialogue-system
- Введение: медицинские вопросы и ответы
Cpubmed-kg (4,4 м тройной)
- Адрес: https://cpubmed.openi.org.cn/graph/wiki
- Введение: высококачественные полнотекстовые данные журнала Китайской медицинской ассоциации
Граф китайских медицинских знаний Cmekg (1 м тройка)
- Адрес: http://cmekg.pcl.ac.cn/
- Введение: CMEKG (График китайского медицинского знания)
Оценка чипа прошлых лет (официальная оценка)
- Адрес: http://cips-chip.org.cn/2022/callforeval; http://www.cips-chip.org.cn/2021/; http://cips-chip.org.cn/2020/
- ВВЕДЕНИЕ: Оценка чипа прошлых лет (Официальная оценка)
Набор данных диабета больницы Ruijin (диабет)
- Адрес: https://tianchi.aliyun.com/competition/entrance/231687/information
- Введение: набор данных диабета больницы Ruijin (диабет)
Соревнование по матчу вопросов Tianchi Covid-19 (новый коронавирус)
- Адрес: https://tianchi.aliyun.com/competition/entrance/231776/information
- Введение: Данные этого конкурса включают в себя: пары данных по медицинской проблеме и данные маркировки после десенсибилизации.
3.2 английский
Медицины
- Адрес: https://github.com/chanzuckerberg/medmentions
- Введение: набор данных биомедицинской сущности на основе Abstract PubMed Abstract
webmedqa
- Адрес: https://github.com/hejunqing/webmedqa
- Введение: медицинские вопросы и ответы
Комета
- Адрес: https://www.siphs.org/
- Введение: Данные о ссылках медицинской организации в социальных сетях. Опубликовано на EMNLP2020
PubMedqa
- Адрес: https://arxiv.org/abs/1909.06146
- Введение: Медицинский набор данных и ответов на основе Extract PubMed
Медика
- Адрес: https://sites.google.com/view/mediqa2021
- Введение: резюме текста
Набор данных чатдоктора-1
- Адрес: https://drive.google.com/file/d/1lyfqiwllsclhgrcutwuee_iacnq6xnut/view?usp=sharing
- Введение: 100 000 реальных разговоров между пациентами и врачами из HealthCaremagic.com
Набор данных чатдоктора-2
- Адрес: https://drive.google.com/file/d/1zkbqgyqwc7djhs3n9tqyqvpddqmzacla/view?usp=sharing
- Введение: 10K реальные разговоры между пациентами и врачами из iCliniq.com
Биоинструкция
- Адрес: https://github.com/bio-nlp/bioinstruct
- Введение: более 25 000 инструкций, адаптированных для биомедицинских задач, включая, помимо прочего, Q & A (QA), извлечение информации (IE) и генерация текста
Визуальные данные Med-Alpaca
- Адрес: https://github.com/cambridgeltl/visual-med-alpaca/tree/main/data
- Введение: Данные для визуального обучения Med-Alpaca, полученные из Bigbio, Roco и GPT-3.5-Turbo
Chexpert Plus
- Адрес: https://github.com/stanford-aimi/chetrit-lus
- ВВЕДЕНИЕ: самый большой текстовый набор данных, опубликованный в области радиологии, в общей сложности 36 миллионов текстовых токенов, и все они оснащены высококачественными изображениями в формате DICOM, а также большое количество изображений и метаданных пациентов, охватывающих широкий спектр клинических и социальных групп, а также множество патологических бир
↥ Вернуться к вершине
4. Набор данных VLM
| Набор данных | Бумага | GitHub | Ключевые слова |
|---|
| Medtrinity-25m | связь | связь | 25 million images , 10 modalities , 65 diseases , VQA , EN |
| Ллава-Мед | связь | связь | 630k images , VQA , EN |
| Китайский-Ллева-Мед | - | связь | 60k images , VQA , ZH |
| Huatuogpt-vision | связь | связь | 647k images , VQA , EN |
| Medvidqa | связь | связь | 7k videos , VQA , EN |
| Chimed-vl | связь | связь | 1M images , VQA , EN , ZH |
| Radfm | связь | связь | 16M images , 5000 diseases , VQA , EN , 2D/3D |
| BiomedParsedata | связь | связь | 6.8 million image-mask-description , 45 biomedical image segmentation datasets , 9 modalities , EN , 2D |
| Omnimedvqa | связь | связь | 118,010 images , 12 modalities , 2D , 20 human anatomical regions |
| Урегулированный | связь | связь | 160K volumes , 42M slices , 3D , CT |
| GMAI-VL-5,5 м | связь | связь | 5.5m image and text , 219 specialized medical imaging datasets , 2D , VQA |
| SA-MED2D-20M | связь | связь | 4.6 million 2D medical images and 19.7 million corresponding masks , 2D , EN |
| Имис-Бенч | связь | связь | 6.4 million images, 273.4 million masks (56 masks per image), 14 imaging modalities, and 204 segmentation targets , EN |
↥ Вернуться к вершине
5. Предварительно обученная модель с открытым исходным кодом
5.1 Медицинский PLM
Biobert:
- Адрес: https://github.com/naver/biobert-pretred
- Введение: BioBert - это модель представления языка в области биомедицинской науки, которая специально используется для задач добычи биомедицинского текста, таких как признание биомедицинских названных сущностей, извлечение отношений, вопрос и ответ и т. Д.
5.2 Medical LLM
5.2.1 Многоязычная медицинская модель
Аполломо:
- Адрес: https://github.com/freedomintelligence/apollomoe
- Введение: Эффективно демократизировать LLM в 50 языковых лекарственных средствах через сочетание экспертов по языку семьи
Аполлон:
- Адрес: https://github.com/freedomintelligence/apollo
- Введение: легкая многоязычная медицина LLM, популяризация медицинского искусственного интеллекта для 6 миллиардов человек
Mmedlm:
- Адрес: https://github.com/magic-ai4med/mmedlm
- Введение: первая многоязычная модель медицинского языка с открытым исходным кодом
5.2.2 Модель на большом языке китайского медицинского языка
- Бентсао:
- Адрес: https://github.com/scir-hi/huatuo-lama-med-chinese
- Введение: Bentsao основан на Llama-7B и получен путем точной настройки китайских медицинских инструкций/инструкций. Исследователи построили китайский набор данных медицинских инструкций через график медицинских знаний и API GPT3.5, а также тонко настроенные инструкции Llama на этой основе, улучшив эффект Q & A Llama в области медицины.
- Бьянк:
- Адрес: https://github.com/scutcyr/bianque
- Введение: модель медицинского диалога, которая настраивается в соответствии с инструкциями и несколькими раундами диалога запроса. Используя в качестве базы Clueai/Chatyuan-Large-V2, он использует китайские медицинские инструкции по вопросам и ответам и смешанный набор данных с несколькими раундами диалога исследования для точной настройки.
- Soulchat:
- Адрес: https://github.com/scutcyr/soulchat
- Введение: Lingxin использует Chatglm-6b в качестве модели инициализации и тонко настраивает китайские длинные текстовые инструкции в области психологического консультирования и множество раундов диалога эмпатии, чтобы улучшить способность модели эмпатией, руководство способностью пользователей говорить и предоставлять разумные предложения.
- Doctorglm:
- Адрес: https://github.com/xionghonglin/doctorglm
- ВВЕДЕНИЕ: китайская модель консультаций, основанная на Chatglm-6B. Эта модель точно настроена через набор данных китайского медицинского диалога, который реализует точную настройку и развертывание, включая LORA, P-TUNINGV2 и т. Д.
- Huatuogpt:
- Адрес: https://github.com/freedomintelligence/huatuogpt
- Введение: Hua Tuo GPT-это GPT-подобная модель, полученная с помощью китайской медицинской инструкции. Модель представляет собой китайский LLM, разработанный специально для медицинских консультаций. Его обучающие данные содержат данные, переведенные из CHATGPT и реальные данные от врачей. Отзывы RLHF добавляются во время обучения.
- Huatuogpt-ii:
- Адрес: https://github.com/freedomintelligence/huatuogpt-ii
- Введение: Hua Tuo GPT2 принимает инновационный метод адаптации на местах, значительно улучшая свои медицинские знания и способность диалога. Он показал первоклассную производительность в нескольких медицинских показателях, особенно превзойдя GPT-4 в экспертной оценке и новых квалификационных экзаменах по медицинской практике.
5.2.3 Модель английского медицинского языка
- Gatortron:
- Адрес: https://github.com/uf-hobi-informatics-lab/gatortron
- ВВЕДЕНИЕ: Ранняя модель макета в области здравоохранения, посвященная тому, как системы, использующие неструктурированные электронные случаи здравоохранения, получают выгоду от медицинского макета с миллиардами параметров.
- Codex-Med:
- Адрес: https://github.com/vlievin/medical-reessing
- Введение: посвящено способности модели GPT-3.5 отвечать и разум для реальных медицинских проблем. Наборы данных по медицинским тестированию USMLE и MEDMCQA, и набор данных по пониманию прочитанного медицинского прочитанного PubMedQA.
- Галактика:
- Адрес: https://galactica.org/
- Введение: Galactica стремится к решению информационной перегрузки в области науки, а также в магазинах и включает в себя научные знания, включая медицинскую и медицинскую область. Galactica обучается на большом корпусе документов и ссылок, чтобы попытаться обнаружить потенциальные отношения между исследованиями в разных областях.
- Deid-gpt:
- Адрес: https://github.com/yhydhx/chatgpt-api
- Введение: инновационная структура де-идентификации с поддержкой GPT4, которая может автоматически идентифицировать и удалять идентификационную информацию.
- Чатхатор:
- Адрес: https://github.com/kent0n-li/chatdoctor
- Введение: модель медицинского диалога, полученная с помощью тонкой настройки на основе ламы, используя базовые знания в области медицины.
- Медальпака:
- Адрес: https://github.com/kbreakm/medalpaca
- Введение: Medalpaca принимает стратегию с открытым исходным кодом, посвященную решению вопросов конфиденциальности в системах здравоохранения. Модель построена на ламе с 7 миллиардами и 13 миллиардами параметров.
- PMC-LLAMA:
- Адрес: https://github.com/chaoyi-wu/pmc-llama
- Введение: PMC-Llama-это модель с открытым исходным кодом, которая дополнительно прививает медицинские знания, регулируя Llama-7B в общей сложности 4,8 миллиона биомедицинских академических документов для расширения своих возможностей в области медицины.
- Визуальный Med-Alpaca:
- Адрес: https://github.com/cambridgeltl/visual-med-alpaca
- ВВЕДЕНИЕ: Visual Med-Alpaca-это с открытым исходным исходным костюм, эффективной базовой модели с открытым исходным кодом, которая может быть интегрирована с «экспертами по видению» медицины для мультимодальных биомедицинских задач. Модель построена на архитектуре LLAMA-7B и обучается с использованием набора инструкций, курируемого GPT-3.5-Turbo и человеческими экспертами.
- GatorTrongpt:
- Адрес: https://github.com/uf-hobi-informatics-lab/gatortrongpt
- Введение: Gatortrongpt - это медицинская генеративная модель большой языка. Модель построена на GPT-3 и содержит 5 миллиардов или 20 миллиардов параметров. Модель использует огромное корпус клинических и английских текстов, содержащих 277 миллиардов слов.
- МЕДАГИ:
- Адрес: https://github.com/joshuachou2018/medagi
- Введение: Пример Medagi, объединяющий модели медицинского языка, специфичные для домена, по самой низкой стоимости обеспечивает возможный способ реализации общего медицинского искусственного интеллекта.
- Llava-Med:
- Адрес: https://github.com/microsoft/llava-med
- Введение: Llava-Med использует общую доменную лаву для инициализации, а затем непрерывно обучается в способе обучения курса (сначала с биомедицинским выравниванием концепции, за которой следует комплексная корректировка инструкций).
- Мед-Фламинго:
- Адрес: https://github.com/snap-stanford/med-flamingo
- Введение: Med-Flamingo-это модель визуального языка, разработанная специально для обработки межполосных мультимодальных данных, содержащих изображения и текст. Основываясь на Flamingo, Med-Flamingo дополнительно расширяет свои возможности в этих медицинских областях, предварительно обучая различные мультимодальные источники знаний в различных медицинских дисциплинах.
5.3 Медицинский VLM
| Модель | Бумага | GitHub |
|---|
| Medvint | связь | связь |
| Мед-Фламинго | связь | связь |
| Ллава-Мед | связь | связь |
| Qilin-Med-Vl | связь | связь |
| Radfm | связь | связь |
| Меддр | связь | связь |
| Huatuogpt-vision | связь | связь |
| Biomedgpt | связь | связь |
| Медмоч | связь | связь |
| R-Llava | связь | - |
| MED-2E3 | связь | - |
| Gmai-vl | связь | связь |
5.4 Медицинский эталон VLM
| Эталон | Бумага | GitHub |
|---|
| Gmai-Mmbench | связь | связь |
| Omnimedvqa | связь | связь |
| МММУ | связь | связь |
| Мультимедован | связь | связь |
| WorldMedqa-V | связь | - |
↥ Вернуться к вершине
6. Связанные документы
6.1 Документы, которые могут быть полезны в эпоху после чатгпта
Клиническое знание
Производительность CHATGPT на USMLE: потенциал для медицинского образования с помощью AI-ассистентного использования с использованием больших языковых моделей.
Тестирование (Тьюринга) для медицинской консультации CHATGPT Адрес: https://arxiv.org/abs/2301.10035
Toolformer: Языковая модель можно преподавать само по себе, используя адрес инструментальной бумаги: https://arxiv.org/abs/2302.04761
Проверьте свои факты и попробуйте еще раз: улучшить бумаги с большими языками, используя внешние знания и автоматическую обратную связь: https://arxiv.org/abs/2302.12813
Возможности GPT-4 на медицинские проблемы.
6.2 Обзор статьи
- Предварительно обученная языковая модель в области биомедицинской науки: систематическое обращение в документ обследования
- Краткое изложение бумаги адреса здравоохранения
- Обзор бумажном адреса модели большого языка в области здравоохранения
6.3 Статьи о конкретном задании
Статьи, связанные с электронными медицинскими картами
- Передача обучения из медицинской литературы для прогнозирования разделов в электронных медицинских записях.
- Mufasa: мультимодальная фьюжн -архитектура Поиск электронных медицинских записей.
Извлечение медицинских отношений
- Использование леса зависимостей для обращения к нейронным медицинским отношениям.
График медицинских знаний
- Изучение графа здравоохранения по адресу электронных медицинских записей.
Вспомогательный диагноз
- Оценка и точная диагностика детских заболеваний с использованием художественного интеллекта
Медицинское лицо связывание (стандартизация)
- Медицинская организация, связывающая с использованием адреса триплета сетевой бумаги
- Генератная и ранга с рамки с регуляризацией семантического типа для биомедицинской концепции.
- Глубокие нейронные модели для нормализации медицинской концепции при полученных пользовательских текстовых текстах.
6.4 Индекс встречи
Список связанных документов в области медицины в ACL2020
- Генератная и ранга с рамки с регуляризацией семантического типа для биомедицинской концепции.
- Представления биомедицинских сущностей с синонимом маргинализационного адреса бумаги
- Перевод документа в отношении перевода запросов для перевода информации о получении информации в документе медицинской области.
- Mie: экстрактор медицинской информации в отношении медицинских диалогов бумажный адрес
- Рационализация прогнозирования медицинских отношений из статистического адреса на уровне корпуса
AAAI2020 Medical NLP Список бумажных бумаг
- На генерации медицинских паров вопросов-бумажный адрес бумаги
- Латте: Моделирование латентного типа для биомедицинского объекта Связывание бумаги Адрес
- Обучение концептуально-контекстуальному встраиванию для адреса медицинской текстовой бумаги
- Понимание медицинских разговоров с рассеянным ключевым словом вниманием и слабым надзором по адресу ответов.
- Одновременно связывание сущностей и извлечение отношений из биомедицинского текста без упоминания Наблюдение за надзором.
- Могут ли встраивать адекватно представлять медицинскую терминологию? Новые крупномасштабные наборы данных сходства медицинских терминов имеют ответ! Бумажный адрес
EMNLP2020 Medical NLP Список бумаг, связанных с NLP
- На пути к пониманию прочитанного в медицинской машине со структурными знаниями и адресом простых текстовых документов
- Meddialog: крупномасштабные наборы данных медицинского диалога бумажный адрес
- COMETA: Корпус для медицинской организации, связывающий в обратном обращении в социальных сетях
- Извлечение биомедицинского события в виде адреса маркировки последовательности
- Федеральное: федеративное обучение с помощью ансамблевой дистилляции для извлечения медицинских отношений.
- Вливание знаний о заболеваниях в BERT для ответа на вопросы о здоровье, медицинский вывод и название заболевания.
- Дворчатая модель, основанная на знаниях для многоменения китайская медицинская процедура.
- BiomeGatron: более крупный адрес модели биомедицинского домена.
- Запрос в разных жанрах для медицинских претензий по адресу новостей
↥ Вернуться к вершине
7. Инструментарий с открытым исходным кодом
- Инструмент раздела Word: Адрес проекта Pkuseg Описание проекта: Многодоменный инструмент для участия в китайском языке, запущенный Peking University, поддерживает выбор медицинских областей.
↥ Вернуться к вершине
8. Решения продукта промышленного уровня
Мудрость духовной медицины
Левша доктор
Инайна-институт научно-исследовательских наук илучает обработку естественного языка
Baidu - медицинская структура текста
Alibaba Cloud - медицинская обработка естественного языка
↥ Вернуться к вершине
9. Обмен блогами
- Alpaca: мощная инструкция с открытым исходным кодом следующей модели
- Уроки, извлеченные из построения систем обработки естественного языка в медицинской области
- Введение в медицинскую публичную базу данных и технологии интеллектуального анализа данных в эпоху больших данных
- Глядя на разработку NLP в области медицины от ACL 2021, с загрузкой ресурсов
↥ Вернуться к вершине
10. Дружелюбные ссылки
- Awesome_chinese_medical_nlp
- Китайский поиск набора данных NLP
- Медицинские базы (массовые данные, связанные с медицинской помощью)
- Набор данных Tianchi (включая несколько медицинских наборов данных NLP)
↥ Вернуться к вершине
11. Ссылка
@misc { medical_NLP_github ,
author = { Xidong Wang, Ziyue Lin and Jing Tang, Rongsheng Wang, Benyou Wang } ,
title = { Medical NLP } ,
year = { 2023 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/FreedomIntelligence/Medical_NLP} }
}