LLM-Prepare mengonversi struktur dan file direktori proyek yang kompleks menjadi satu file datar atau set file datar, memfasilitasi pemrosesan menggunakan permintaan pembelajaran dalam-konteks (ICL).
Alat Node.js ini secara rekursif memindai direktori proyek berdasarkan argumen yang disediakan (setidaknya direktori). Ini menghasilkan tampilan tata letak yang disederhanakan yang mencakup semua direktori dan file yang cocok. Selain itu, ini menggabungkan tampilan tata letak ini dengan konten teks agregat dari seluruh proyek. Secara default, konten file agregat dilucuti komentar dan whitespace yang tidak perlu. Alat ini mendukung kompresi output untuk mengurangi penggunaan token dan dapat menangani proyek besar dengan memotong output. Contoh permintaan disertakan untuk panduan.
In-Context Learning (ICL) memungkinkan model untuk melakukan tugas dengan menafsirkan konteks yang disediakan dalam prompt, menghilangkan kebutuhan untuk pelatihan tambahan atau penyempurnaan.
Pelajari lebih lanjut tentang pembelajaran dalam konteks (ICL)
--config untuk memuat file konfigurasi JSON yang berisi argumen dan jalur yang telah ditentukan sebelumnya. .ignore untuk mengecualikan file atau direktori tertentu.CREATE TABLE berdasarkan Konten CSV yang disediakan.fs standar, memberikan metode tambahan dan dukungan janji..ignore mirip dengan .gitignore .yargs . Sebelum menginstal, pastikan Anda memiliki Node.js dan NPM (Node Package Manager) yang diinstal pada sistem Anda. Anda dapat mengunduh dan menginstal Node.js dari situs web resmi Node.js.
Untuk menginstal dan menggunakan LLM-Prepare, ikuti langkah-langkah ini:
Kloning Repositori: Mulailah dengan mengkloning repositori yang berisi LLM-Prepare ke mesin lokal Anda.
git clone https://github.com/samestrin/llm-prepare/Arahkan ke direktori root proyek Anda dan jalankan:
npm installUntuk membuat perbaikan LLM tersedia dari lokasi mana pun di sistem Anda, Anda perlu menginstalnya secara global. Anda dapat melakukan ini menggunakan NPM.
Jalankan perintah berikut di direktori proyek Anda:
npm link Ini akan membuat symlink global ke skrip Anda. Sekarang, Anda dapat menjalankan skrip menggunakan llm-prepare dari mana saja di terminal Anda.
Langkah-langkah instalasi yang disediakan harus berfungsi apa adanya untuk platform macOS dan Linux.
Untuk Windows, pastikan bahwa Node.js ditambahkan ke jalur Anda selama instalasi. Perintah npm link juga harus berfungsi di Windows PowerShell atau Command Prompt, memungkinkan Anda untuk menjalankan skrip secara global.
Untuk menjalankan skrip, Anda perlu memberikan satu argumen wajib: jalur ke direktori proyek ( --path-name atau -p ).
Ini akan memproses semua file dalam direktori proyek yang ditentukan, menghormati file .ignore apa pun, dan mengeluarkan konten dan struktur konsolidasi ke konsol Anda. Default pola file ke "*"
llm-prepare -p " /path/to/project "atau
llm-prepare --path " /path/to/project " Ini akan memproses semua file JavaScript di direktori proyek yang ditentukan, menghormati file .ignore apa pun, dan mengeluarkan konten dan struktur konsolidasi ke konsol Anda.
llm-prepare -p " /path/to/project " -f " *.js " Ini akan memproses semua file dalam direktori proyek yang ditentukan, menghormati file .ignore apa pun, dan mengeluarkan konten dan struktur konsolidasi ke output.txt .
llm-prepare -p " /path/to/project " -o " output.txt " Jika Anda tidak spesifik nama file, ini akan memproses semua file dalam direktori proyek yang ditentukan, menghormati file .ignore apa pun, dan menghasilkan konten dan struktur yang terkonsolidasi ke Project.txt . Nama file dihasilkan secara otomatis berdasarkan direktori tingkat atas dalam variabel path-name.
llm-prepare -p " /path/to/project " -oAnda secara opsional dapat mengatur variabel lingkungan LLM_PREPARE_OUTPUT_DIR . Jika variabel lingkungan LLM_PREPARE_OUTPUT_DIR diatur, file output ditulis ke direktori itu.
Jika Anda tidak ingin menyertakan file atau direktori tertentu, Anda dapat menentukan aturan menggunakan --custom-ignore-string .
llm-prepare -p " /path/to/project " -o --custom-ignore-string " *docs*,*test* " Jika Anda tidak ingin menyertakan file atau direktori tertentu, Anda dapat menentukan aturan menggunakan --custom-ignore-filename . Gunakan pemformatan file .gitignore.
llm-prepare -p " /path/to/project " -o --custom-ignore-filename " /path/to/.ignorefile " Jika Anda tidak ingin menyertakan file atau direktori tertentu, Anda dapat menentukan aturan menggunakan --custom-ignore-filename . Gunakan pemformatan file .gitignore.
llm-prepare -p " /path/to/project " -o --custom-ignore-filename " /path/to/.ignorefile " Anda dapat menggunakan file konfigurasi JSON untuk mendahului argumen dan jalur untuk dimasukkan dalam pemrosesan.
Contoh file config.json :
{
"args" : {
"output-filename" : " output.txt " ,
"compress" : true
},
"include" : [ " ./src/ " , " ./lib/ " ]
}Untuk menjalankan skrip dengan file konfigurasi:
llm-prepare -c " config.json " --help Show help [boolean]
-p, --path Path to the project directory[string] [required]
-f, --file-pattern Pattern of files to include, e.g., ' .js$ ' or
' * ' for all files [string] [default: " * " ]
-o, --output-filename Output filename [string]
-i, --include-comments Include comments ? (Default: false) [boolean]
-c, --compress Compress ? (Default: false) [boolean]
--chunk-size Maximum size (in kilobytes) of each file[number]
-s, --suppress-layout Suppress layout in output (Default: false)
[boolean]
--default-ignore Use a custom default ignore file [string]
--ignore-gitignore Ignore .gitignore file in the root of the
project directory [boolean]
--show-default-ignore Show default ignore file [boolean]
--show-prompts Show example prompts in your browser [boolean]
--custom-ignore-string Comma-separated list of ignore patterns [string]
--custom-ignore-filename Path to a file containing ignore patterns
[string]
--config Path to the config file [string]
-v, --version Display the version number [boolean]"Sementara finetuning dengan dataset lengkap masih merupakan opsi yang kuat jika data jauh melebihi panjang konteks, hasil kami menunjukkan bahwa ICL konteks panjang adalah alternatif yang efektif-perdagangan biaya finetuning waktu untuk peningkatan komputasi waktu inferensi. Karena efektivitas dan efisiensi dari banyak model konteks yang sangat panjang.
- Permintaan besar dapat mengungguli fine-tuning untuk LLMS, peneliti menemukan
In-context Learning (ICL) memungkinkan model bahasa besar (LLM) untuk melakukan tugas dengan menafsirkan konteks yang disediakan dalam prompt tanpa pelatihan tambahan atau penyesuaian. Pendekatan ini berbeda secara signifikan dari metode sebelumnya di mana model dilatih secara eksplisit pada tugas tertentu menggunakan dataset yang luas. Sebaliknya, ICL memanfaatkan basis pengetahuan pra-terlatih model-pemahaman komprehensif yang terakumulasi selama fase pelatihan awal yang luas.
Sebagai ukuran token - atau jumlah data yang dapat diproses dan dihasilkan oleh LLM dalam satu contoh - telah meningkat secara dramatis, nilai ICL telah menjadi lebih signifikan. Peningkatan ukuran token ini memungkinkan LLM untuk menangani input dan output yang lebih lama dan lebih kompleks, yang meningkatkan kemampuan mereka untuk memahami dan menghasilkan teks yang canggih.
In-Context Learning (ICL) meminta panduan model bahasa besar (LLM) dalam melakukan tugas dengan memberikan konteks yang relevan dalam prompt input. Permintaan ini biasanya mencakup contoh, instruksi, atau pola yang membantu model memahami cara menghasilkan respons yang tepat. Berikut adalah beberapa karakteristik dan contoh prompt ICL:
Kontribusi untuk proyek ini dipersilakan. Harap bayar repositori dan kirimkan permintaan tarik dengan perubahan atau perbaikan Anda.
Proyek ini dilisensikan di bawah lisensi MIT - lihat file lisensi untuk detailnya.