TorchmojiとDeepmojiが釈放されてから1年が経ちました。私たちは、それがどのように使用されているかを理解しようとしており、将来改善され、より良いモデルを設計できるようにしています。
この4質問のGoogleフォームに答えることで、これを達成するのを手伝うことができます。ご支援ありがとうございます!
ここで実装プロセスに関するブログ投稿を読んでください。
Torchmojiは、Bjarke Felbo、Alan Mislove、AndersSøgaard、Iyad Rahwan、Sune Lehmannによって開発されたDeepmojiモデルのPytorchの実装です。
このモデルは、言語が感情を表現するためにどのように使用されるかを理解するために、絵文字と12億のツイートを訓練しました。転送学習を通じて、モデルは多くの感情関連のテキストモデリングタスクで最先端のパフォーマンスを取得できます。
これについてDeepMojiのオンラインデモを試してみませんか?空間!詳細については、論文、ブログ投稿、またはFAQを参照してください。
まず、例/ディレクトリの内部をご覧ください。 deepmojiを使用して絵文字の予測を抽出する方法については、score_texts_emojis.pyを参照してください。ecode_texts.pyテキストを2304次元の感情的特徴ベクトルに変換する方法またはFinetune_youtube_last.py新しいデータセットでの転送学習にモデルを使用する方法。
モデルまたはコードを使用する場合は、DeepMojiの論文を引用することを検討してください(引用については以下を参照)。
Python 2.7-3.5を使用してPIPをインストールしていると仮定しています。
まず、Pytorch(バージョン0.2+)をインストールする必要があります。現在:
conda install pytorch -c pytorch現在の段階では、モデルはCUDAを効率的に使用できません。 Hugging Faceブログ投稿の詳細をご覧ください。
Pytorchがインストールされたら、ルートディレクトリで以下を実行して、残りの依存関係をインストールします。
pip install -e .これにより、次の依存関係がインストールされます。
次に、ダウンロードスクリプトを実行して、ここから前提条件のTorchmoji Weights(〜85MB)をダウンロードし、モデル/ディレクトリに入れます。
python scripts/download_weights.pyテストを実行するには、ノーズを取り付けます。インストール後、テスト/ディレクトリに移動して実行します。
cd tests
nosetests -vデフォルトでは、これもFinetuningテストを実行します。これらのテストでは、モデルを1つのエポックでトレーニングし、結果の精度を確認します。それらを除外したい場合は、代わりに次のことを実行します。
cd tests
nosetests -v -a ' !slow ' このコードは、Ubuntu 16.04およびMacos SierraマシンでPython 2.7および3.5で動作するようにテストされています。効率のために最適化されていませんが、ほとんどの目的で十分に速くなるはずです。バグがないという保証はありません - あなた自身の責任についてコードを使用してください!
何かが改善される可能性があると感じたら、プルのリクエストを歓迎します。また、最新のツイートを書くときにどのように感じたかを教えてくれることで、大いに役立ちます。ここをクリックして貢献してください。
このコードと前提条件のモデルは、MITライセンスの下でライセンスされています。
ベンチマークデータセットは、便利な目的でのみこのリポジトリにアップロードされます。彼らは私たちによって釈放されておらず、私たちは彼らの権利を主張していません。あなたの責任でデータセットを使用し、それらがリリースされたライセンスを満たしていることを確認してください。ベンチマークデータセットのいずれかを使用する場合は、元の著者を引用することを検討してください。
@inproceedings{felbo2017,
title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},
author={Felbo, Bjarke and Mislove, Alan and S{o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},
booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},
year={2017}
}