대형 언어 모델 (LLMS)은 작업 전반에 걸쳐 인상적인 자연어 이해를 보여줍니다. 언어 모델 크기가 증가함에 따라 특정 작업에 적응하는 데 계산 비용이 많이 듭니다. 텍스트 내 학습은 LLM의 표준 미세 조정에 대한 대안으로 제안되었습니다. 그러나 프롬프트는 일반적으로 표준 미세 조정을 저조합니다. 또한 프로세스가 부서지기 때문에 최상의 프롬프트를 찾는 것은 간단하지 않습니다. 이러한 문제를 해결하기 위해 매개 변수 효율적인 미세 조정 (PEFT)이 제안되었습니다. 이 패러다임은 모듈 식 구성 요소를 미리 훈련 된 모델에 추가합니다. LLM이 업데이트되지 않은 동안 대상 작업에 미세 조정됩니다. PEFT 구성 요소는 태스킹 당 전용 용량을 가지고 있으며 이전 지식을 잊지 않고 모델을 업데이트 할 수있는 반면, 이러한 모듈의 구성은 LLM의 멀티 태스킹 기능을 향상시킬 수 있습니다. PEFT는 표준 미세 조정의 성능에 도달 할 수 있습니다. 이것은이 분야에 대한 연구에 동기를 부여했으며 최근에 많은 방법이 제안되었습니다. 그러나 일련의 작업에 적합한 모듈 식 접근법을 평가하려면 작업 당 선택한 모듈 식 접근법에 대한 실험이 필요합니다. 이를 위해서는 종종 방법과 하이퍼 파라미터에 대한 철저한 검색이 필요하며 실제로는 어렵습니다. 이 연구는 Fisher Information Matrix를 기반으로 한 새로운 기준을 제안하여 LLM을 특정 작업에 적응시키는 데 사용할 PEFT 접근법을 선택합니다. 이 소설은 프레내어의 FISHER 정보를 선택하여 변압기, FishPal을위한 접두사 조정, 어댑터 및 LORA를 선택하여 비용이 많이 드는 훈련 실험을 피하고 작업 당 하나의 조합 만 훈련합니다. 이 논문의 실험에서 FishPal은 다른 접착제 작업의 기준선보다 성능이 뛰어나며 총 모델 매개 변수의 2-4% 만 업데이트하고 추론 중에 기본 모델 매개 변수의 0.4% 만 추가합니다.
모든 실험은 1 개의 Google Cloud GPU (4VCPU가있는 NVIDIA T4 GPU 및 Zone US-WEST3-B에서 15GB RAM)에서 실행되었습니다.