PROMPTKGファミリー:迅速な学習とKG関連の研究作品、ツールキット、紙リストのギャラリー。
| ディレクトリ | 説明 |
|---|
| 研究 | •迅速な学習関連の研究モデルの実装のコレクション |
| ラムダク | • PLMベースのKG埋め込みおよびアプリケーション用のライブラリ |
| deltakg | • PLMベースのKG埋め込みを動的に編集するライブラリ |
| チュートリアルノートブック | •初心者向けのチュートリアルノートブック |
目次
チュートリアル
- ゼロおよび少数のショットNLPは、優先言語モデルを備えています。 AACL 2022チュートリアル[PPT]
- データ効率の良い知識グラフ構造。 CCKS2022チュートリアル[PPT]
- 効率的でRobutsの知識グラフ構造。 AACL-IJCNLPチュートリアル[PPT]
- 知識に基づいた迅速な学習。 MLNLP 2022チュートリアル(中国語)[PPT]
調査
- デルタチューニング:事前に訓練された言語モデルのパラメーター効率的な方法の包括的な研究(ARXIV 2021)[Paper]
- プリトレイン、プロンプト、および予測:自然言語処理におけるプロンプトメソッドの体系的な調査(ACMコンピューティング調査2021)[Paper]
- 再構築されたプリトレーニング(ARXIV 2022)[論文]
- 事前に訓練された言語モデルを使用した知識集約型NLPの調査(ARXIV 2022)[論文]
- 知識が強化された事前訓練を受けた言語モデルの調査(ARXIV 2022)[論文]
- ナレッジベースとしての言語モデルに関するレビュー(ARXIV 2022)[Paper]
- 生成知識グラフ構造:レビュー(EMNLP、2022)[論文]
- 言語モデルのプロンプトとの推論:調査(ARXIV 2022で)[論文]
- さまざまな種類の知識グラフを超える推論:静的、時間、マルチモーダル(ARXIV 2022)[Paper]
- 大きな言語モデルの知識のライフサイクル:調査(Arxiv 2022)[紙]
- 大規模な言語モデルと知識グラフの統一:ロードマップ(ARXIV 2023で)[紙]
論文
迅速な知識
言語理解
- Neurips 2020での知識集約型NLPタスクの検索された生成。[PDF]
- レルム:ICML 2020の検索された語学モデル前訓練。[PDF]
- ACL 2022で、事前に訓練された言語モデルをより優れた少数のショット学習者にする。[PDF]
- PTR:Openai 2022でのテキスト分類のルールを使用した迅速な調整。[PDF]
- EMNLP 2021での効果的なゼロおよび少数のショット関係抽出のための言語化と含意ラベル。[PDF]
- RelationPrompt:EMNLP 2022(調査結果)で、ゼロショット関係のトリプレット抽出の合成データを生成するためのプロンプトを活用します。 [PDF]
- 知識豊富なプロンプトチューニング:ACL 2022のテキスト分類のための迅速な言語化器に知識を組み込む。[PDF]
- PPT:ACL 2022でのいくつかのショット学習のための事前に訓練されたプロンプトチューニング。[PDF]
- EMNLP 2022(調査結果)の事前に訓練された言語モデルの対照的なデモンストレーションチューニング。 [PDF]
- ADAPROMPT:ARXIV 2022でのプロンプトベースのNLPの適応モデルトレーニング。[PDF]
- KnowPrompt:www 2022での関係抽出の相乗的最適化を伴う知識を認識しているプロンプトチューニング。[PDF]
- Sigir 2023で、プロンプトとしてのスキーマアウェアリファレンスは、データ効率の高い知識グラフ構造を改善します。[PDF]
- 暗記からの知識の分離:検索された迅速な学習、Neurips2022。[PDF]
- オープンブック試験としての関係抽出:Sigir 2022での検索強化プロンプトチューニング。[PDF]
- Lightner:Coling 2022で、プラグ可能なプロンプトを介した低リソースNERの軽量チューニングパラダイム。[PDF]
- ACL 2022でのユニバーサル情報抽出のための統一構造生成。[PDF]
- Lasuie:潜在的な適応構造認識生成言語モデルによる情報抽出、Neurips 2022。[PDF]
- Atlas:Arxiv 2022で、検索拡張言語モデルを使用した少数のショット学習。[PDF]
- プロンプトしないで、検索してください! ACL 2022の言語モデルを使用した鉱業ベースのゼロショット学習。[PDF]
- EMNLP 2022で、自然言語理解のための事前に訓練された言語モデルでの知識プロンプト。[PDF]
- CIKM 2022の顧客サービスダイアログの事前トレーニングを促進する統一知識。[PDF]
- EMNLP 2022で、自然言語理解のための事前に訓練された言語モデルでの知識プロンプト。[PDF]
- 自己内容:ARXIV 2022の自己生成命令を備えた言語モデル。[PDF]
- 1つの埋め込み、あらゆるタスク:arxiv 2022の命令finetunedテキスト埋め込み。[PDF]
- NAACL 2022で、コンテキスト学習のプロンプトを取得することを学ぶ[PDF]
- トレーニングデータは、あなたが思っているよりも価値があります。ACL2022で、トレーニングデータから取得することによるシンプルで効果的な方法。[PDF]
- すべてのドメインの1つのモデル:ARXIV 2023のクロスドメインNERのコラボレーションドメイン-PREFIXチューニング。[PDF]
- REPLUG:ARXIV 2023の検索されたブラックボックス言語モデル。[PDF]
- Zero-Shot Knowledge Graphのプロンプトの知識補助言語モデルArxiv 2023での質問応答。[PDF]
マルチモーダル
- 優れた視覚ガイダンスにより、より優れた抽出装置が作成されます。NAACL2022(調査結果)で、マルチモーダルエンティティと関係抽出の階層視覚プレフィックス。 [PDF]
- ECCV 2022の視覚的なプロンプトチューニング。[PDF]
- CPT:EMNLP 2022で、事前に訓練されたビジョン言語モデルのカラフルな迅速な調整。[PDF]
- IJCV 2022でビジョン言語モデルの促進を学ぶ。[PDF]
- 視覚言語モデルでのゼロショット一般化のテスト時間プロンプトチューニング、Neurips2022。[PDF]
高度なタスク
- 言語処理としての推奨事項(RLP):ACM Recsys 2022の統一されたプレレイン、パーソナライズされたプロンプトおよび予測パラダイム(P5)。[PDF]
- KDD 2022の知識強化プロンプト学習による統一された会話推奨システムに向けて。[PDF]
- PROMPTEM:VLDB 2023での低リソースの一般化エンティティマッチングのプロンプトチューニング。[PDF]
- VIMA:Arxiv 2022で、マルチモーダルプロンプトによる一般的なロボット操作。[PDF]
- ARXIV 2022で、切断プロンプトを使用したレトロシンセシス言語モデルの拡張を解除する。[PDF]
- Progprompt:ARXIV 2022で大規模な言語モデルを使用した状況ロボットタスク計画を生成します。[PDF]
- Neurips 2022ワークショップラレルで、具体化された推論のための言語モデルと協力しています。 [PDF]
知識のプロンプト(PLMS)
知識調査
- 言語モデルのパラメーターにどのくらいの知識を詰め込むことができますか? EMNLP 2020で。[PDF]
- 知識ベースとしての言語モデル? EMNLP 2019で。[PDF]
- CSRR 2022で、Commonsense Transformersの実現知識ベース。[PDF]
- TACL2022の時間的知識ベースとしての時間認識言語モデル。 [PDF]
- 生成事前訓練を受けた言語モデルは、クローズドブックQAの知識ベースとして機能することができますか? ACL2021で。 [PDF]
- 知識ベースとしての言語モデル:EACL2021のエンティティ表現、ストレージ容量、および言い換えクエリについて。 [PDF]
- 生物医学知識ベースの完了のための科学言語モデル:AKBC 2021の実証研究。[PDF]
- 多言語ラマ:EACL2021の多言語の前提条件モデルの知識の調査。 [PDF]
- どの言語モデルが知っているかをどうやって知ることができますか? TACL 2020で。[PDF]
- AKBC 2020で、文脈が言語モデルの事実上の予測にどのように影響するか。[PDF]
- コペン:EMNLP 2022の事前訓練を受けた言語モデルの概念知識を調査する。[PDF]
- ACL 2022で、事前に訓練された言語モデルからの直mile知識の調査。[PDF]
ナレッジグラフの埋め込み(ライブラリとベンチマークLambdakgを提供します)
- KG-BERT:ARXIV 2020の知識グラフの完了のためのBert。[PDF]
- 訓練を受けた言語モデルを使用した知識グラフの完了のためのマルチタスク学習2020年。[PDF]
- www 2021の効率的な知識グラフの完了のための構造の高度テキスト表現学習。[PDF]
- ケプラー:知識の埋め込みと事前に訓練された言語表現のための統一されたモデル、TACL 2021 [PDF]
- Statik:NAACL 2022の誘導知識グラフの構造とテキスト。[PDF]
- コリンの知識グラフの完了のための共同言語セマンティックと構造埋め込み。 [PDF]
- 知識はフラットです:Colingでのさまざまな知識グラフ完了のためのSEQ2SEQ生成フレームワーク。 [PDF]
- 事前に訓練されたモデルは知識グラフの完了に利益をもたらしますか? ACL 2022での信頼できる評価と合理的なアプローチ。[PDF]
- 知識の埋め込みとしての言語モデル、IJCAI 2022。[PDF]
- 差別から世代へ:www 2022の生成トランスによる知識グラフの完了。[PDF]
- 暗記による推論:最近隣人の知識グラフ埋め込み、ARXIV 2022。[PDF]
- SIMKGC:ACL 2022の事前に訓練された言語モデルを使用した単純なコントラストナレッジグラフの完了。[PDF]
- ACL 2022でのシーケンスシーケンスナレッジグラフの完了と質問応答。[PDF]
- LP-BERT:ARXIV 2022で、リンク予測のためのマルチタスク前の知識グラフBERT。[PDF]
- マスクと理由:KDD 2022の複雑な論理クエリ用のトレーニング前の知識グラフ変圧器。[PDF]
- 知識はフラットです:Coling 2022でのさまざまな知識グラフの完了のためのSEQ2SEQ生成フレームワーク。[PDF]
分析
- 知識豊富なまたは教育を受けた推測? ACL 2021の知識ベースとして言語モデルを再検討します。[PDF]
- プローブ前の言語モデルを促すことができますか? ACL 2022で、因果ビューからの目に見えないリスクを理解する[PDF]
- 事前に訓練された言語モデルは、どのように事実に基づいた知識を捉えていますか? ACL 2022での因果関係のある分析。[PDF]
- ARXIV 2022での大規模な言語モデルの緊急能力。[PDF]
- ACL 2022の前処理された変圧器の知識ニューロン。[PDF]
- EMNLP 2022で、事前に訓練されたトランスベースの言語モデルでスキルニューロンを見つける。[PDF]
- プロンプトは、自然言語を使用してNLPタスクを解決しますか? Arxiv2022で。[PDF]
- デモンストレーションの役割を再考する:コンテキスト内学習が機能する理由は何ですか? EMNLP 2022で。[PDF]
- プロンプトベースのモデルは、プロンプトの意味を本当に理解していますか? NAACL 2022で。[PDF]
- 言語モデルを信頼しない場合:ARXIV 2022でのパラメトリックおよびノンパラメトリックメモリの有効性と制限の調査[PDF]
- GPTがコンテキスト内を学ぶことができるのはなぜですか?言語モデルは、2022年のArxivでメタオプティマイザーとしてグラジエント降下を密かに実行します。[PDF]
- 幻想的に注文されたプロンプトとそれらを見つける場所:ACL 2022でのいくつかのショットプロンプトの注文感度を克服します。[PDF]
- 大規模な言語モデルの編集:問題、方法、機会、Arxiv 2023。[PDF]
連絡先
decutsを使用したヘルプまたは問題については、GitHubの問題を提出してください。