npm install promptl-aiPromptL menawarkan sintaks umum yang mudah digunakan untuk mendefinisikan prompt dinamis untuk LLMS. Ini adalah bahasa yang sederhana namun kuat yang memungkinkan Anda untuk mendefinisikan petunjuk dalam format yang dapat dibaca manusia, sambil tetap mampu memanfaatkan kekuatan penuh LLMS.
Berkat modul Wasm Universal kami dengan RPC, Anda dapat menggunakan promptl dalam bahasa apa pun yang dapat menjalankan Wasm secara asli atau melalui perpustakaan. Ini adalah binding resmi:
Sementara LLMS menjadi lebih kuat dan populer dari hari ke hari, mendefinisikan petunjuk untuk mereka bisa menjadi tugas yang menakutkan. Semua penyedia LLM utama, terlepas dari perbedaan mereka, telah mengadopsi struktur yang sama untuk dorongan mereka. Ini terdiri dari percakapan antara pengguna dan asisten, yang ditentukan oleh daftar pesan dan serangkaian opsi konfigurasi. Sebagai tanggapan, itu akan mengembalikan pesan asisten sebagai balasan.
Struktur ini terlihat seperti ini:
{
"model" : " <your-model> " ,
"temperature" : 0.6 ,
"messages" : [
{
"type" : " system " ,
"content" : " You are a useful AI assistant expert in geography. "
},
{
"type" : " user " ,
"content" : " Hi! What's the capital of Spain? "
}
]
}Struktur ini mungkin sederhana, tetapi bisa sulit bagi pengguna non-teknologi untuk memahami atau menulisnya dari awal. Selain itu, membuat prompt statis tunggal tidak berguna. Biasanya, pengguna perlu mendefinisikan percakapan secara dinamis, di mana aliran berubah berdasarkan input pengguna atau parameter peristiwa. Masalahnya adalah, menambahkan kode untuk memodifikasi percakapan berdasarkan parameter ini bisa menjadi membingungkan dan berulang - perlu dilakukan untuk setiap prompt secara individual.
Beginilah sintaksis promptl masuk. Ini mendefinisikan bahasa yang cukup sederhana untuk digunakan dan dipahami oleh pengguna mana pun. Dan, pada saat yang sama, ia menawarkan kekuatan besar bagi pengguna yang ingin memaksimalkan potensinya. Ini memungkinkan pengguna untuk mendefinisikan struktur yang sama yang akan mereka bangun sebelumnya, tetapi dengan cara yang lebih mudah dibaca. Plus, mereka dapat menambahkan logika dinamis khusus untuk membuat apa pun yang mereka butuhkan, semua hanya dalam satu file.
Lihatlah prompt yang sama seperti sebelumnya, menggunakan sintaks promptl:
---
model: <your-model>
temperature: 0.6
---
You are a useful AI assistant expert in geography.
<user>
Hi! What's the capital of {{ country_name }}?
</user>
Dalam hal ini, tidak hanya sintaksnya jauh lebih mudah dibaca dan dipelihara, tetapi juga memungkinkan untuk pembuatan prompt yang dinamis dengan menggunakan variabel seperti {{ country_name }} .
Ini hanyalah contoh kecil dari apa yang bisa dilakukan promptl. Ini adalah alat yang ampuh yang dapat membantu Anda mendefinisikan petunjuk dinamis untuk LLMS Anda dengan cara yang sederhana dan mudah, tanpa menyerahkan fitur atau fungsionalitas apa pun dari struktur asli.
Situs web | Dokumentasi
Untuk membangun perpustakaan JavaScript, jalankan pnpm build:lib .
Untuk membangun modul Wasm Universal dengan RPC, instal pertama javy dan kemudian jalankan pnpm build:rpc .