Dieses Projekt ist eine Leseliste von Artikel, die von der Scientific Research Society zusammengestellt wurden. Wir konzentrieren uns auf viele hochmoderne Bereiche der künstlichen Intelligenz, wie z.
Wir lesen und teilen jede Woche die neuesten Top-up-Artikel. Klicken Sie hier, um die von unseren Mitgliedern veröffentlichten Top -Artikeln zu überprüfen.


【Dialoggenerierung 】【 Textsuche 】【 Multimodale Suche 】【 Ursache und Wirkung Inferenz 】【 Textgenerierung 】【 Informationsextraktion 】【 Präzise Arbeit 】【 Andere】
(ACL 2021) Bob: Bert über Bert für personenbezogene Dialogmodelle aus begrenzten personalisierten Daten. [Video] [PPT]
(ACL 2021) Auswahl der Dialogreaktion mit hierarchischem Lehrplanlernen. [Video] [PPT]
(ACL 2020) Lernen, Modellstrukturen für wenige Aufgaben zur Generierung von Dialoggenerierungen anzupassen [Video] [PPT]
(ACL 2021) Lernen aus Störungen: vielfältiger und informativer Dialoggenerierung mit inverser kontroversem Training [Video] [PPT]
(ACL 2022) Planet: Dynamische Inhaltsplanung in autoregressiven Transformatoren für Langformtextengenerierung [Video] [PPT]
(EMNLP 2020) Werde ich wie ich klingen? Verbesserung der Persönlichkeitskonsistenz in Dialogen durch pragmatisches Selbstbewusstsein [Video] [PPT]
(EMNLP 2020) Regularisierung der Dialoggenerierung durch Imitation impliziter Szenarien [Video] [PPT]
(Sigir 2021) Partner ist wichtig! Eine empirische Studie zur Verschmelzung von Personen für die Auswahl der personalisierten Reaktion in Abrufbasis Chatbots [Video] [PPT]
(ACL 2022) Beyond Goldfish Memory: Langzeit-Open-Domain-Konversation [Video] [PPT]
(ACL 2020) Generieren, Löschen und Umschreiben: Ein dreistufiges Rahmen zur Verbesserung der Persönlichkeitskonsistenz der Dialoggenerierung [Video] [PPT]
(ACL 2022) Eine modellagnostische Datenmanipulationsmethode für die personenbasierte Dialoggenerierung [Video] [PPT]
(AAAI 2022) Rufen Sie eine individuelle Konversation an: Spezifische Gesprächs Erdungspersönlichkeit und Wissen [Video] [PPT]
(EMNLP 2021) Einfache entitätszentrierte Fragen Herausforderung Dense Retriever [Video] [PPT]
(ACL 2021) Bewertung der Disambiguierung der Entität und der Rolle der Popularität bei Abrufbasis NLP [Video] [PPT]
(Sigir 2021) Optimieren Sie das Training des dichten Retrieval -Modells mit harten Negativen [Video] [PPT]
(Neurips 2021) Beir: Ein heterogener Benchmark für die Bewertung von Informationsabrufmodellen [Video] [PPT]
(ACL 2022) Trainingsdaten sind wertvoller als Sie denken: Eine einfache und effektive Methode durch Abrufen von Trainingsdaten [Video] [PPT]
(ACL 2021) Herausforderungen bei der suchenden QA: Unbewertbare Fragen und Absatzabruf [Video] [PPT]
.
(ICLR 2021) VERSARISCHER Retriever-Ranker für dichte Textabnahme [Video] [PPT]
(EMNLP 2021) Kondensator: Eine Architektur vor der Training für dichte Abruf [Video] [PPT]
[Sigir-Forum] Überdenkens Suche: Domänenexperten aus Dilettanten [Video] [PPT] machen
(EMNLP 2021) Lernen mit Instanzbündeln für das Leseverständnis [Video] [PPT]
(ACL 2022) Simulation des Banditenlernens aus dem Benutzer Feedback für extraktive Frage Beantwortung [Video] [PPT]
(ACL 2022) Hey AI, können Sie komplexe Aufgaben lösen, indem Sie mit Agenten sprechen? [Video] [PPT]
(ACL 2022) Wahrnehmung der Welt: Fragestugedes Verstärkungslernen für textbasierte Spiele [Video] [PPT]
(ACL 2021) Beantwortung mehrdeutiger Fragen durch generative Evidenzfusion und Roundtrip-Vorhersage [Video] [PPT]
(ACL 2022) Beantwortung von Multi-Answer-Fragen mit Open-Domain-Fragen über einen REC-Then-Verify-Framework [Video] [PPT]
(ACL 2022) Multi-View-Dokument-Repräsentation Lernen für die Dense Abruf von Open-Domänen [Video] [PPT]
(ARXIV) Trainingssprachmodelle mit Gedächtnisvergrößerung [PPT]
(Sigir 2022) LOL: Ein vergleichender Niedergangsverlust gegenüber Abfragereformationsverlusten für Pseudo-Relevanz-Feedback [Video] [PPT]
(ARXIV) VIRV: Verbesserung von repräsentationsbasierten Modellen für die virtuelle Interaktion von Text-Matching-Durchläufen [VIDEO] [PPT]
(ACL 2022) Division und Eroberung: Text Semantische Übereinstimmung mit entwirrten Schlüsselwörtern und Absichten [Video] [PPT]
(ICLR 2022) P-Adapters extrahieren sachliche Informationen aus Sprachmodellen mit verschiedenen Eingabeaufforderungen [Video] [PPT]
(ACL 2022) Null-Shot-dichter Abruf mit dynamaler domäne invariante Darstellungen [Video] [PPT]
(SIGIR 2021) Dynamische Modalitätsinteraktionsmodellierung für das Bild-Text-Abrufen [Video] [PPT]
(ACL 2021) Visualsparta: Ein peinlich einfacher Ansatz für die Suche nach Text-zu-Image-Suchen in großem Maßstab mit gewichteten Wörtern [Video] [PPT]
(CVPR 2022) Ausgeglichenes multimodales Lernen über die Fliege-Gradientenmodulation [Video] [PPT]
(ACM MM 2021) Eroberung: Kontextualer Abfrage-bewusstes Ranking für Video Corpus Moment Abruf [Video] [PPT]
(ICML 2022) Charakterisierung und Überwindung der gierigen Natur des Lernens in multimodalen tiefen neuronalen Netzwerken [Video] [PPT]
(ICCV 2021) Fragen Sie & bestätigen Sie: Aktive Detailanreicherung für das Cross-Modal-Abruf mit Teilabfrage [Video] [PPT]
(SIGIR 2022) Modalitätsausbettung für Video-Abrufen [Video] [PPT]
(Neurips 2021) Ausrichtung vor der Sicherung: Vision und Sprachdarstellung Lernen mit Impulsdestillation [Video] [PPT]
(NAACl 2022) MCSE: Multimodales kontrastives Lernen von Satzeinbettungen [Video] [PPT]
(CVPR 2021) Gegenfaktuale VQA: Ein Ursache-Wirkungs-Blick auf Sprachverzerrung [Video] [PPT]
(ACL 2022) Kann Sondenmodelle mit vorbereiteten Sprachmodellen verlangen? Verständnis der unsichtbaren Risiken aus einer kausalen Ansicht [Video] [PPT]
(ICLR 2021) KOKON: Ein selbstbewerteter Ansatz für die kontrollierte Textgenerierung [Video] [PPT]
(NAACL 2021) Fudge: kontrollierte Textgenerierung mit zukünftigen Diskriminatoren [Video] [PPT]
(Neurips 2021) kontrollierte Textgenerierung als kontinuierliche Optimierung mit mehreren Einschränkungen [Video] [PPT]
(ACL 2022) Ein gut komponierter Text ist halb fertig! Kompositionsabtastung für eine vielfältige bedingte Generation [Video] [PPT]
(ACL 2022) Mischen und Übereinstimmung: Lernfreie kontrollierbare Textgenerierung unter Verwendung von Energiesprachmodellen [Video] [PPT]
(ACL 2022) Erzeugung der kontrollierbaren natürlichen Sprache mit kontrastiven Präfiten [Video] [PPT]
(ARXIV) Schneider: Ein prompt-basierter Ansatz für die Attribut-basierte kontrollierte Textgenerierung [Video] [PPT]
(AAAI 2022) Suchen und Lernen: Verbesserung der semantischen Berichterstattung für Daten zu Textgenerierung [Video] [PPT]
(NAACL 2022) Lernen, Eingabeaufforderungen für die Textgenerierung zu übertragen [Video] [PPT]
(ARXIV) Lernen, die Schleife zu brechen: Analyse und Minderung von Wiederholungen für die Erzeugung neuronaler Text [Video] [PPT]
(NAACL 2022) RE2G: Rufen, erneutes, erstellen [Video] [PPT]
(Neurips 2022) Entkopplung von Wissen aus dem Auswendiglernen: Abrufen-ausgebildetes promptes Lernen [Video] [PPT]
,
(Neurips 2022) Diffusion-LM verbessert die kontrollierbare Textgenerierung [Video] [PPT]
(ACL 2020) Flach: Chinesischer Ner mit Flat-Gitter-Transformator [Video] [PPT]
(ACL 2021) De-Biasing Distant beaufsichtigte benannte Entitätserkennung durch kausale Intervention [Video] [PPT]
(CIKM 2020) Bergbau-Seltene hochwertige Phrasen aus domänenspezifischen Korpora [Video] [PPT]
(KDD 2021) UCPhrase: unbeaufsichtigter kontextbewusster Qualitäts-Phrase-Tagging [Video] [PPT]
(NAACL 2021) Ein frustrierend einfacher Ansatz für Entität und Beziehungsextraktion [Video] [PPT]
(ACL 2022) Packed Levitated Marker für Entität und Beziehungsextraktion [Video] [PPT]
(ACL 2020) Ein neuartiges Binär -Tagging -Framework für die relationale Dreifachextraktion [Video] [PPT]
(Coling 2020) TPLINKER: Einstufige gemeinsame Extraktion von Entitäten und Beziehungen durch Tokenpaarverbinden [Video] [PPT]
(CVPR 2021) Transformationsgetriebenes visuelles Denken [Video] [PPT]
(EMNLP 2020) Jenseits der Sprache: Lernkommonsense aus Bildern zum Denken [Video] [PPT]
(Neurips 2021) Unsicherheitskalibrierung für Ensemble-basierte Debiasing-Methoden [Video] [PPT]
(EMNLP 2021) Adaptive Informationen suchen nach Open-Domain-Frage [Video] [PPT]
(AAAI 2021) Skizzieren und Anpassen: Ein kontrafaktischer Story -Generator [Video] [PPT]
(EMNLP 2021) Transductuctuctive Lernen für unbeaufsichtigte Übertragung im Textstil [Video] [PPT]
(TASLP) Verteilungsabstand regulierte Sequenzdarstellung für die Textübereinstimmung in asymmetrischen Domänen [Video] [PPT]
(WSDM 2021) Gegentliche Immunisierung für die zertifizierbare Robustheit für Diagramme [Video] [PPT]
(Natur) Hoch genaue Proteinstrukturvorhersage mit Alphafold [Video] [PPT Teil 1] [PPT Part2]
(DeepMind) Verbesserung der Sprachmodelle, indem Sie aus Billionen Token [Video] [PPT] zurückkehren, [PPT]
(ICLR 2022) In Richtung einer einheitlichen Ansicht des parameter-effizienten Transferlernens. [Video] [PPT]
(ACL 2021) Kenntnisse oder gebildete Vermutungen? Überarbeitung von Sprachmodellen als Wissensbasis [Video] [PPT]
(ACL 2022) Debias kontrastives Lernen von unbeaufsichtigten Satzdarstellungen [Video] [PPT]
(ACL 2022) Virtuelle Augmentation unterstützte das kontrastive Lernen von Satzrepräsentationen [Video] [PPT]
(EMNLP 2021) SIMCSE: Einfaches kontrastives Lernen von Satzbettdings [Video] [PPT]
(EMNLP 2021) Übertragen Transformatormodifikationen über Implementierungen und Anwendungen hinweg? [Video Teil 1] [Video Teil 2] [PPT Teil 1] [PPT Teil 2]
(ACL 2022) Eine einfache, aber effektive Suchentabelle für Steckerentität für vorgebrachte Sprachmodelle [Video] [PPT]
(Neurips 2021) R-Drop: Regulierter Ausfall für neuronale Netze [Video] [PPT]
(ICLR 2022) Sprachmodellierung über stochastische Prozesse [Video] [PPT]
,
(ARXIV) Diffusionsmodelle verstehen: Eine einheitliche Perspektive [Video Part1] [Video Part2] [Video Part3] [Video Part4] [PPT Part1] [PPT Part2] [PPT Part3] [PPT Part4]
Weitere Inhalte finden Sie in unserem WeChat Official Account und B Station Account.
Gleichzeitig können wir gerne Ihre eigenen oder die Top -Artikel anderer teilen. Bitte füllen Sie das Papier -Lese -Sammlungsformular für Einsendungen aus.