Torchmoji와 Deepmoji가 석방 된 지 1 년이 지났습니다. 우리는 앞으로 개선하고 더 나은 모델을 디자인 할 수 있도록 어떻게 사용되는지 이해하려고 노력하고 있습니다.
이 4- 질문 Google 양식에 답변하여이를 달성하는 데 도움이 될 수 있습니다. 지원해 주셔서 감사합니다!
구현 프로세스에 대한 블로그 게시물을 여기에서 읽으십시오.
Torchmoji는 Bjarke Felbo, Alan Mislove, Anders Søgaard, Iyad Rahwan 및 Sune Lehmann이 개발 한 Deepmoji 모델의 Pytorch 구현입니다.
이 모델은 언어가 감정을 표현하는 데 어떻게 사용되는지 이해하기 위해 이모티콘과 12 억 개의 트윗을 훈련했습니다. 전송 학습을 통해 모델은 많은 감정 관련 텍스트 모델링 작업에서 최첨단 성능을 얻을 수 있습니다.
이것에 대한 DeepMoji의 온라인 데모를 사용해 보시겠습니까? 공간! 자세한 내용은 논문, 블로그 게시물 또는 FAQ를 참조하십시오.
시작하려면 예/ 디렉토리를 살펴보십시오. DeepMoji를 사용하여 이모티콘 예측을 추출하는 방법에 대한 점
모델이나 코드를 사용하는 경우 DeepMoji의 논문을 인용하는 것을 고려하십시오 (인용은 아래 참조).
PIP가 설치된 Python 2.7-3.5를 사용하고 있다고 가정합니다.
먼저, 현재 : Pytorch (버전 0.2+)를 설치해야합니다.
conda install pytorch -c pytorch현재 단계에서 모델은 CUDA를 효율적으로 사용할 수 없습니다. Hugging Face 블로그 게시물의 세부 사항을 참조하십시오.
Pytorch가 설치되면 루트 디렉토리에서 다음을 실행하여 나머지 종속성을 설치하십시오.
pip install -e .다음의 종속성을 설치합니다.
그런 다음 다운로드 스크립트를 실행하여 여기에서 사전에 사기꾼 Torchmoji 가중치 (~ 85MB)를 다운로드하여 모델/ 디렉토리에 넣습니다.
python scripts/download_weights.py테스트를 실행하려면 코를 설치하십시오. 설치 후 테스트/ 디렉토리로 이동하여 실행하십시오.
cd tests
nosetests -v기본적으로 이것은 또한 결제 테스트를 실행합니다. 이 테스트는 One Epoch의 모델을 훈련시킨 다음 결과 정확도를 점검하여 몇 분이 걸릴 수 있습니다. 그것들을 제외하고 싶다면 다음을 대신 실행하십시오.
cd tests
nosetests -v -a ' !slow ' 이 코드는 Ubuntu 16.04 및 Macos Sierra Machines에서 Python 2.7 및 3.5에서 작동하도록 테스트되었습니다. 효율성을 위해 최적화되지는 않았지만 대부분의 목적을 위해 충분히 빠르야합니다. 우리는 버그가 없다는 보장을 제공하지 않습니다. 자신의 책임에 코드를 사용하십시오!
무언가가 향상 될 수 있다고 생각되면 풀 요청을 환영합니다. 또한 가장 최근의 트윗을 쓸 때 느꼈던 느낌을 알려 주면서 우리를 크게 도울 수 있습니다. 기부하려면 여기를 클릭하십시오.
이 코드와 사전 처리 된 모델은 MIT 라이센스에 따라 라이센스가 부여됩니다.
벤치 마크 데이터 세트는 편의 목적으로만이 저장소에 업로드됩니다. 그들은 우리에 의해 석방되지 않았으며 우리는 그들에 대한 권리를 주장하지 않습니다. 귀하의 책임에 데이터 세트를 사용하고 릴리스 된 라이센스를 이행하십시오. 벤치 마크 데이터 세트를 사용하는 경우 원래 저자를 인용하는 것을 고려하십시오.
@inproceedings{felbo2017,
title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},
author={Felbo, Bjarke and Mislove, Alan and S{o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},
booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},
year={2017}
}