Prompt Engineering은 다양한 응용 프로그램 및 연구 주제에 대해 언어 모델 (LMS)을 효과적으로 사용하도록 프롬프트를 개발하고 최적화하도록 설계된 비교적 새로운 분야입니다. 팁 엔지니어링 기술은 대형 언어 모델 (LLM)의 기능과 한계를 더 잘 이해하는 데 도움이됩니다.
신속한 엔지니어링은 질문 및 답변 및 산술 추론과 같은 다양한 일반적이고 복잡한 작업에 대한 LLM의 기능을 향상시키는 데 사용될 수 있습니다. LLM 및 기타 도구와 인터페이스하는 강력하고 효과적인 프롬프트 기술을 설계합니다.
LLM 개발에 큰 관심을 기울이는이 팁 엔지니어링 가이드 자료 컬렉션은 팁 엔지니어링과 관련된 모든 최신 논문, 학습 가이드, 강의, 참조 및 도구를 포함하는 팁 엔지니어링 가이드 자료 컬렉션이 만들어졌습니다. (나는 당분간 3 일마다 업데이트 할 것입니다)
대부분의 콘텐츠는 현재 Dair-Ai (https://github.com/dair-ai/prompt-engineering-guide)에서 번역됩니다.
Dair-AI 노트북 및 슬라이드 쇼가 포함되어 있습니다.
Dair-Ai의 불화와 Dair-Ai의 트위터
플랫폼 (권장)
다음은 Dair-AI 개발을위한 팁 엔지니어링 안내서입니다. Dair-AI 가이드가 개발 중입니다. (나는 당분간 3 일마다 업데이트 할 것입니다)
다음은 신속한 엔지니어링 (출시일별로 정렬)에 관한 최신 논문입니다. 우리는이 논문을 매일 업데이트하고 새로운 논문을 추가합니다. 우리는이 논문의 초록을 매주 위의 가이드에 추가합니다.
설문 조사/개요 :
기술/방법 접근/기술 :
확장 가능한 언어 모델 반 감독 학습 팁 생성 (2023 년 2 월)
신속한 제약 조건으로 오픈 텍스트 생성에서 대형 언어 모델의 기능 범위를 정의하십시오 (2023 년 2 월)
à-la-carte 프롬프트 튜닝 (APT) : 복합 가능한 팁을 통한 다른 데이터 결합 (2023 년 2 월)
GraphPrompt : 그래픽 신경망 및 다운 스트림 작업에 대한 사전 훈련 통일 (2023 년 2 월)
도덕적 자기 실용에서 큰 언어 모델의 능력 (2023 년 2 월)
SwitchPrompt : 낮은 자원 영역에서 분류 된 학습을위한 게이트 영역에 대한 소프트 팁 (2023 년 2 월)
개별 신호의 견고성 평가 (2023 년 2 월)
맥락 학습의 조합 예 (2023 년 2 월)
하드 팁이 쉬워집니다 : 팁 조정 및 발견을위한 개별 그라디언트 기반 최적화 (2023 년 2 월)
언어 모델의 멀티 모달 사고 사고 추론 (2023 년 2 월)
대규모 언어 모델은 관련이없는 상황에 의해 쉽게 산만 해집니다 (2023 년 2 월)
합성 팁 : 대형 언어 모델에 대한 사고 시연 생성 (2023 년 2 월)
진보적 인 팁 : 언어 모델의 지속적인 학습 (2023 년 1 월)
배치 처리 팁 : LLM API의 효율적인 추론 (2023 년 1 월)
다시 생각해보십시오. 단계별로 생각하지 마십시오! 제로 포인트 추론의 편견과 독성 (2022 년 12 월)
헌법 AI : AI 피드백의 무해함 (2022 년 12 월)
연속 팁 : 복잡한 문제 해결 (2022 년 12 월)
모델별로 작성된 평가를 통해 언어 모델 행동 발견 (2022 년 12 월)
구조 팁 : 맥락 학습을 1,000 예로 확장 (2022 년 12 월)
PAL : 프로그램 지원 언어 모델 (2022 년 11 월)
대형 언어 모델은 인간 수준의 프롬프트 엔지니어입니다 (2022 년 11 월)
이전 팁을 무시하십시오 : 언어 모델 공격 기술 (2022 년 11 월)
기관 생성 텍스트 : 위협 모델 및 탐지 방법에 대한 포괄적 인 연구 (2022 년 11 월)
맥락 학습을 통한 알고리즘 추론 교육 (2022 년 11 월)
자연 언어 추론을 통한 미리 훈련 된 언어 모델의 자기 일관성과 성능 향상 (2022 년 11 월)
자연스럽게 묻습니다 : 프롬프트 언어 모델을위한 간단한 전략 (2022 년 10 월)
React : 언어 모델의 조정 된 추론 및 행동 (2022 년 10 월)
팁 GPT-3은 신뢰할 수 있습니다 (2022 년 10 월)
분해 팁 : 복잡한 작업을 해결하는 모듈 식 방법 (2022 년 10 월)
언어 모델은 탐욕스러운 추론 자입니다 : 사고 링크의 체계적인 형태 분석 (2022 년 10 월)
손으로 디자인 된 대적 사례를 통한 미리 훈련 된 언어 모델의 감수성 평가 (2022 년 9 월)
Promptagator : 8 가지 예에서 소량의 집중 검색을 받으십시오 (2022 년 9 월)
언어 모델이 나아지도록 추진하는 추론 (2022 년 6 월)
큰 언어 모델은 제로 포인트 추론 (2022 년 5 월)입니다.
MRKL 시스템 : 대형 언어 모델, 외부 지식 소스 및 개별 추론을 결합한 모듈 식 신경 기호 아키텍처 (2022 년 5 월)
프롬프트를 생성하여 독성 검출 (2022 년 5 월)
텍스트 생성을위한 학습 팁 (2022 년 5 월)
적은 수의 힌트를 가진 텍스트 추론 지침의 신뢰성 (2022 년 5 월)
텍스트-이미지 생성을위한 팁 수정 자 분류 (2022 년 4 월)
Promptchainer : 시각적 프로그래밍을 통해 대형 언어 모델 팁 연결 (2022 년 3 월)
일관성이있는 언어 모델 향상에 대한 이데올로기 적 연결 추론 (2022 년 3 월)
인간 피드백을 사용하여 언어 모델 교육 지침을 실행하십시오.
시연의 역할을 재검토 : 상황 학습을 성공적으로 만드는 이유는 무엇입니까? (2022 년 2 월)
아이디어 링크 팁은 큰 언어 모델에 대한 추론을 높입니다 (2022 년 1 월)
작품을 보여주십시오 : 언어 모델을 사용한 중간 컴퓨팅을위한 임시 등록 (2021 년 11 월)
지식 생성에 근거한 상식 추론 (2021 년 10 월)
멀티 태스킹 프롬프트 교육은 제로 슈팅 작업의 일반화를 달성 할 수 있습니다 (2021 년 10 월)
Refactoring Instruction은 GPTK의 언어에 적응하라는 프롬프트 (2021 년 9 월)
텍스트-이미지 생성 모델에 대한 설계 지침 (2021 년 9 월)
사전 예방 된 언어 모델을 더 나은 샘플이없는 학습자로 만드십시오 (2021 년 8 월)
마법 및 질서의 프롬프트 및 위치 : 소수의 신속한 시퀀스 감도를 극복 (2021 년 4 월)
Bertese : Bert와 대화하는 법 배우기 (2021 년 4 월)
유효한 매개 변수를 사용한 스케일 조정의 힘 (2021 년 4 월)
대형 언어 모델에 대한 팁 프로그래밍 : 소수의 팁 패러다임을 넘어서서 (2021 년 2 월)
사전 사용 교정 : 언어 모델의 작은 샘플 성능 향상 (2021 년 2 월)
접두사 조정 : 세대를위한 연속 프롬프트 최적화 (2021 년 1 월)
AutoPrompt : 자동으로 생성 된 프롬프트 (2020 년 10 월)를 통해 언어 모델의 신속한 지식
언어 모델은 소규모 학습자입니다 (2020 년 5 월)
언어 모델이 무엇을 알고 있는지 어떻게 알 수 있습니까? (2020 년 7 월)
응용 프로그램 :
컬렉션 :
뭔가 빠진 것으로 생각되면 PR을 제출하십시오. 피드백과 제안도 환영합니다.