ProldKg Family: una galería de aprendizaje rápido y trabajos de investigación relacionados con KG, kits de herramientas y lista de papel.
| Directorio | Descripción |
|---|
| investigación | • Una colección de implementaciones rápidas del modelo de investigación relacionado con el aprendizaje |
| lambdakg | • Una biblioteca para incrustaciones y aplicaciones de KG basadas en PLM |
| deltakg | • Una biblioteca para editar dinámicamente incrustaciones de KG basadas en PLM |
| Tutorial-Notebooks | • Tutoriales de cuadernos para principiantes |
Tabla de contenido
- Tutoriales
- Encuestas
- Papeles
- Conocimiento como rápido
- 1. Comprensión del lenguaje
- 2. Multimodal
- 3. Tareas avanzadas
- Aviso (PLMS) para el conocimiento
- 1. Probación de conocimiento
- 2. Incrustación de gráficos de conocimiento
- 3. Análisis
- Información del contacto
Tutoriales
- PNL de cero y pocos disparos con modelos de lenguaje previos a la aparición. Tutorial AACL 2022 [PPT]
- Construcción de gráficos de conocimiento eficiente de datos. Tutorial CCKS2022 [PPT]
- Construcción de gráficos de conocimiento eficiente y de Robuts. Tutorial AACL-IJCNLP [PPT]
- Conocimiento informado de aprendizaje rápido. Tutorial MLNLP 2022 (chino) [PPT]
Encuestas
- Ajuste del Delta: un estudio exhaustivo de métodos eficientes de parámetros para modelos de lenguaje previamente capacitados (en ARXIV 2021) [papel]
- Precinete, aviso y predicen: una encuesta sistemática de métodos de solicitación en el procesamiento del lenguaje natural (ACM Computing Surveys 2021) [documento]
- Pre-capacitación reestructurada (en ARXIV 2022) [Paper]
- Una encuesta de PNL intensiva en conocimiento con modelos de lenguaje previamente capacitados (en ARXIV 2022) [documento]
- Una encuesta de modelos de lenguaje previamente capacitados mejorados por el conocimiento (en ARXIV 2022) [documento]
- Una revisión sobre modelos de idiomas como bases de conocimiento (en ARXIV 2022) [Papel]
- Construcción de gráficos de conocimiento generativo: una revisión (EMNLP, 2022) [documento]
- Razonamiento con indicación del modelo de idioma: una encuesta (en ARXIV 2022) [documento]
- Razonamiento sobre diferentes tipos de gráficos de conocimiento: estático, temporal y multimodal (en ARXIV 2022) [Papel]
- El ciclo de vida del conocimiento en los modelos de grandes idiomas: una encuesta (en ARXIV 2022) [documento]
- Unificación de modelos de idiomas grandes y gráficos de conocimiento: una hoja de ruta (en ARXIV 2023) [Documento]
Papeles
Conocimiento como rápido
Comprensión del idioma
- Generación de recuperación auggada para tareas de PNL intensivas en conocimiento, en Neurips 2020. [PDF]
- Realm: pre-entrenamiento del modelo de lenguaje de recuperación de recuperación, en ICML 2020. [PDF]
- Hacer que los modelos de lenguaje previamente entrenados sean mejores estudiantes de pocos disparos, en ACL 2022. [PDF]
- PTR: ANTINGUNO PROBLEMA CON REGLAS PARA LA CLASIFICACIÓN DE TEXTO, en OpenAI 2022. [PDF]
- Verbalización de etiquetas y implicación para una extracción efectiva de relación cero y pocas disparos, en EMNLP 2021. [PDF]
- RelationPrompt: Aprovechando las indicaciones para generar datos sintéticos para la extracción de triplete de relación de disparo cero, en EMNLP 2022 (hallazgos). [PDF]
- Ajuste de inmediato: incorporar el conocimiento en el verbalizador rápido para la clasificación de texto, en ACL 2022. [PDF]
- PPT: ajuste de pedido previamente capacitado para un aprendizaje de pocos disparos, en ACL 2022. [PDF]
- Ajuste de demostración contrastante para modelos de lenguaje previamente capacitados, en EMNLP 2022 (hallazgos). [PDF]
- Adaprpt: capacitación de modelos adaptativos para PNL basado en el aviso, en ARXIV 2022. [PDF]
- KnowPrompt: Conocimiento de conocimiento con la optimización sinérgica para la extracción de relaciones, en www 2022. [PDF]
- La referencia de Schema-Aware como un indicador mejora la construcción de gráficos de conocimiento eficiente en datos, en Sigir 2023. [PDF]
- Conocimiento de desacoplamiento de la memorización: aprendizaje rápido de recuperación, en Neurips 2022. [PDF]
- Extracción de la relación como examen de libro abierto: ajuste rápido de recuperación, en Sigir 2022. [PDF]
- Lightner: un paradigma de ajuste liviano para NER de baja recursos a través de la solicitud de enchufes, en Coling 2022. [PDF]
- Generación de estructura unificada para la extracción de información universal, en ACL 2022. [PDF]
- LASUIE: Extracción de información de unificación con el modelo de lenguaje generativo de estructura adaptativa latente, en Neurips 2022. [PDF]
- Atlas: Aprendizaje de pocos disparos con modelos de lenguaje aumentado de recuperación, en ARXIV 2022. [PDF]
- ¡No se presenten, busque! Aprendizaje cero basado en minería con modelos de idiomas, en ACL 2022. [PDF]
- Involucrar el conocimiento en el modelo de lenguaje previamente capacitado para la comprensión del lenguaje natural, en EMNLP 2022. [PDF]
- Conocimiento unificado Precurimiento previo para los diálogos de servicio al cliente, en CIKM 2022. [PDF]
- Involucrar el conocimiento en el modelo de lenguaje previamente capacitado para la comprensión del lenguaje natural, en EMNLP 2022. [PDF]
- Autoestructo: alineación del modelo de lenguaje con instrucciones auto-generadas, en ARXIV 2022. [PDF]
- Un incrustador, cualquier tarea: incrustaciones de texto de instrucción finalizada, en ARXIV 2022. [PDF]
- Aprender a recuperar indicaciones para el aprendizaje en contexto, en NAACL 2022. [PDF]
- Los datos de capacitación son más valiosos de lo que piensas: un método simple y efectivo al recuperar los datos de capacitación, en ACL 2022. [PDF]
- Un modelo para todos los dominios: ajuste de prefijo de dominio colaborativo para el dominio cruzado NER, en ARXIV 2023. [PDF]
- Repluja: modelos de lenguaje de caja negra de recuperación de recuperación, en ARXIV 2023. [PDF]
- El modelo de lenguaje de conocimiento de conocimiento solicita la respuesta del gráfico de conocimiento de cero, en ARXIV 2023. [PDF]
Multimodal
- La buena guía visual hace un mejor extractor: prefijo visual jerárquico para entidad multimodal y extracción de relaciones, en NAACL 2022 (hallazgos). [PDF]
- Ajuste visual de inmediato, en ECCV 2022. [PDF]
- CPT: Colorido ANTINGUNO ANTERIOR para los modelos de visión previamente capacitados, en EMNLP 2022. [PDF]
- Aprender a solicitar modelos en idioma de visión, en IJCV 2022. [PDF]
- Tiempo de prueba ANTINGUNO PARA GENERALIZACIÓN DE LA VISIÓN EN MODELOS DE VISIÓN, EN NEURIPS 2022. [PDF]
Tareas avanzadas
- Recomendación como procesamiento del lenguaje (RLP): un pretrén unificado, aviso personalizado y predicen paradigma (P5), en ACM RECSYS 2022. [PDF]
- Hacia un sistema de recomendación conversacional unificado a través del aprendizaje rápido mejorado con el conocimiento, en KDD 2022. [PDF]
- PREVIO: Aviso para la coincidencia de entidad generalizada de baja recursos, en VLDB 2023. [PDF]
- Vima: Manipulación de robot general con indicaciones multimodales, en ARXIV 2022. [PDF]
- Improbando modelos de lenguaje de retrosíntesis con indicaciones de desconexión, en ARXIV 2022. [PDF]
- ProgPrompt: Generación de planes de tareas de robot situados utilizando modelos de lenguaje grandes, en ARXIV 2022. [PDF]
- Colaborando con modelos de lenguaje para razonamiento incorporado, en el taller Neurips 2022 Workshop Larel. [PDF]
Aviso (PLMS) para el conocimiento
Sondeo de conocimiento
- ¿Cuánto conocimiento puede empacar en los parámetros de un modelo de idioma? En EMNLP 2020. [PDF]
- ¿Modelos de idiomas como bases de conocimiento? En EMNLP 2019. [PDF]
- Bases de conocimiento materializadas de transformadores de sentido común, en CSRR 2022. [PDF]
- Modelos de lenguaje conscientes del tiempo como bases de conocimiento temporal, en TACL2022. [PDF]
- ¿Pueden los modelos de lenguaje generativos previamente capacitados servir como bases de conocimiento para el control de calidad de libros cerrados? En ACL2021. [PDF]
- Modelos de idiomas como bases de conocimiento: en representaciones de entidades, capacidad de almacenamiento y consultas parafraseadas, en EACL2021. [PDF]
- Modelos de lenguaje científico para la finalización de la base de conocimiento biomédico: un estudio empírico, en AKBC 2021. [PDF]
- LAMA multilingüe: investigar el conocimiento en modelos de lenguaje previo a la apartación multilingüe, en EACL2021. [PDF]
- ¿Cómo podemos saber lo que saben los modelos de idiomas? En TACL 2020. [PDF]
- Cómo el contexto afecta las predicciones fácticas de los modelos de lenguaje, en AKBC 2020. [PDF]
- Copen: sondeo de conocimiento conceptual en modelos de idiomas previamente capacitados, en EMNLP 2022. [PDF]
- Probación de conocimiento simil de modelos de lenguaje previamente capacitados, en ACL 2022. [PDF]
Incrustación de gráficos de conocimiento (proporcionamos una biblioteca y un lambdakg de referencia)
- KG-Bert: Bert para la finalización del gráfico de conocimiento, en ARXIV 2020. [PDF]
- Aprendizaje de múltiples tareas para completar el gráfico de conocimiento con modelos de idiomas previamente capacitados, en Coling 2020. [PDF]
- Aprendizaje de representación de texto de estructura acuática para completar el gráfico de conocimiento eficiente, en WWW 2021. [PDF]
- Kepler: un modelo unificado para la incrustación del conocimiento y la representación del lenguaje previamente capacitado, TACL 2021 [PDF]
- Statik: Estructura y texto para el gráfico de conocimiento inductivo, en NAACL 2022. [PDF]
- Lenguaje conjunto semántico y de estructura integración para la finalización del gráfico de conocimiento, en Coling. [PDF]
- El conocimiento es plano: un marco generativo SEQ2SEQ para diversos conocimientos de finalización de gráficos, en Coling. [PDF]
- ¿Los modelos previamente capacitados benefician la finalización del gráfico de conocimiento? Una evaluación confiable y un enfoque razonable, en ACL 2022. [PDF]
- Modelos de idiomas como incrustaciones de conocimiento, en IJCAI 2022. [PDF]
- De la discriminación a la generación: finalización del gráfico de conocimiento con transformador generativo, en www 2022. [PDF]
- Razonamiento a través de la memorización: incrustaciones del gráfico de conocimiento del vecino más cercano, en ARXIV 2022. [PDF]
- SIMKGC: finalización del gráfico de conocimiento contrastante simple con modelos de lenguaje previamente capacitados, en ACL 2022. [PDF]
- Secuencia a la finalización del gráfico de conocimiento de secuencia y respuesta de preguntas, en ACL 2022. [PDF]
- LP-Bert: Gráfico de conocimiento de previa entrenamiento de tareas múltiples Bert para predicción de enlaces, en ARXIV 2022. [PDF]
- Máscara y razón: Transformadores de gráficos de conocimiento previo al entrenamiento para consultas lógicas complejas, en KDD 2022. [PDF]
- El conocimiento es plano: un marco generativo SEQ2SEQ para la finalización del gráfico de conocimientos, en Coling 2022. [PDF]
Análisis
- ¿Conocimiento bien informado o educado? Revisando modelos de lenguaje como bases de conocimiento, en ACL 2021. [PDF]
- ¿Puede la prueba de sondeo de modelos de lenguaje previos a la aparición? Comprender los riesgos invisibles desde una visión causal, en ACL 2022. [PDF]
- ¿Cómo capturan los modelos de idiomas previamente capacitados el conocimiento fáctico? Un análisis de inspiración causal, en ACL 2022. [PDF]
- Habilidades emergentes de modelos de idiomas grandes, en ARXIV 2022. [PDF]
- Neuronas de conocimiento en transformadores previos a la aparición, en ACL 2022. [PDF]
- Encontrar neuronas de habilidad en modelos de lenguaje basados en transformadores previamente capacitados, en EMNLP 2022. [PDF]
- ¿Las indicaciones resuelven tareas de PNL utilizando idiomas naturales? En ARXIV 2022. [PDF]
- Repensar el papel de las demostraciones: ¿Qué hace que el aprendizaje en contexto funcione? En EMNLP 2022. [PDF]
- ¿Los modelos basados en el aviso realmente entienden el significado de sus indicaciones? En NAACL 2022. [PDF]
- Cuando no confiará en los modelos de idiomas: investigando la efectividad y las limitaciones de las recuerdos paramétricos y no paramétricos, en ARXIV 2022. [PDF]
- ¿Por qué GPT puede aprender en contexto? Los modelos de idiomas realizan descenso en secreto como meta-optimizadores, en ARXIV 2022. [PDF]
- Sueltas fantásticamente ordenadas y dónde encontrarlas: superar la sensibilidad de pedido de pocos disparos, en ACL 2022. [PDF]
- Edición de modelos de idiomas grandes: problemas, métodos y oportunidades, en ARXIV 2023. [PDF]
Información del contacto
Para obtener ayuda o problemas utilizando los Tookits, envíe un problema de GitHub.