| judul | app_file | SDK | SDK_VERSION |
|---|---|---|---|
Dolly-Expert-Builder | app.py | gradio | 3.34.0 |
Asisten bertenaga Dolly-V2 yang ringan yang dapat menjawab pertanyaan khusus domain dan terus berbicara. Ini sistem ahli di era LLMS.
Pengajuan ke "So You Think You Can Hack": Open-Source LLMS (misalnya, OpenAssistant, MPT, Dolly, dll.) DevPost Hackathon.

Sistem ahli dulu besar dalam kecerdasan buatan. Mereka meniru kemampuan pengambilan keputusan seorang ahli manusia di bidang tertentu dan dapat memberikan nilai substansial dalam banyak kasus penggunaan. Kelemahan utama dari sistem pakar sekolah lama adalah bahwa mereka harus diprogram menggunakan pernyataan boolean atau logika serupa, mengambil waktu dan sumber daya yang cukup besar. Dalam banyak kesempatan, pendekatan ini mengalahkan tujuan memiliki ahli yang tersedia untuk tugas yang dihadapi.
Aplikasi LLM sumber tertutup seperti chatgpt3.5 dan chatgpt-4 adalah model raksasa yang sangat bagus sejumlah besar tugas. Mereka memang memiliki keterbatasan seperti halusinasi ketika mereka tidak tahu bagaimana merespons atau kapan jawabannya online dan mereka tidak memiliki akses ke internet atau file. Beberapa kali, halusinasi ini akan diceritakan dengan cara yang sangat meyakinkan dan kapan pun seseorang mencoba mengimplementasikannya, mereka akan berubah menjadi salah atau salah. Model -model ini memiliki jendela konteks yang sangat besar sehingga orang dapat membantu mereka melakukan tugas apa pun yang mereka perjuangkan dengan memberikan banyak informasi dan menerapkan teknik rekayasa yang cepat. Ini membuat lebih dari satu berpikir bahwa hanya perusahaan besar dengan kode sumber tertutup yang dapat mengembangkan dan menggunakan aplikasi LLM.
Dolly Expert Lite memanfaatkan Dolly-V2-3B, versi ringan Dolly-V2-12B, model bahasa besar (LLM) Sumber Open-Source untuk menjawab pertanyaan khusus domain menggunakan pengambilan dalam database vektor yang dibuat khusus. Dalam contoh ini, penempatan, pembangun-ahli dolly mengambil informasi dari kode bangunan Ontario (Kanada) untuk menjawab pertanyaan spesifik tentang konstruksi, pipa ledeng, kabel listrik dan ventilasi sesuai kode pemerintah resmi. Dolly-Expert-Builder dapat memberikan informasi yang koheren dan benar secara faktual dengan sumber dan dapat berfungsi sebagai panduan yang cocok untuk pedagang (tukang ledeng, tukang listrik, mekanik, pembangun rumah) serta insinyur dan arsitek untuk membantu kepatuhan peraturan saat melakukan pekerjaan.
Dengan mengikuti metode ini, individu dan organisasi dapat menggunakan data lokal mereka untuk membuat asisten ahli dapat menjawab pertanyaan khusus domain. Kasus penggunaan yang mungkin termasuk:
Karena alatnya sangat baru, beberapa divergensi dari kasus penggunaan standar menyebabkan kesalahan. Misalnya:
persists_directory dalam inisialisasi Chromadb dan tidak akan memuat nanti dalam contoh terpisah karena metode .Persists () tidak dipanggil. Ini harus diperbaiki dan dilakukan lagi agar database akhirnya tersedia.Mampu membuat prototipe ringan fungsional dari aplikasi LLM menggunakan model open-source seperti Dolly dan menggunakannya sebagai ruang permukaan pelukan. Mampu menunjukkan bahwa aplikasi LLM adalah untuk semua orang dan bahwa ekosistem open-source sama mampunya dengan pelopor sumber tertutup.
Dalam hal pengetahuan pengembangan perangkat lunak umum, saya belajar untuk memecahkan masalah yang saling bertentangan, mengetahui bahwa Python harus dimulai kembali tergantung pada dependensi apa yang dipasang atau bahwa kadang -kadang lebih baik untuk memadukan tugas daripada mencoba melakukan semuanya sekaligus. Saya juga belajar dasar -dasar gradio untuk dapat membuat aplikasi. Dan yang paling penting, saya belajar untuk menavigasi masalah gitub dan postflowfflow dengan lebih baik untuk menemukan solusi untuk masalah yang saya temui.
Dalam hal pengetahuan terkait LLM, saya belajar tentang pentingnya rekayasa cepat dan bagaimana hal itu dapat secara dramatis meningkatkan hasil inferensi Anda, saya belajar menavigasi terminologi pemrosesan bahasa alami (NLP) lebih banyak, dan saya belajar tentang jenis memori rantai pertanyaan. Saya juga belajar bahwa model open-source memberikan kemungkinan untuk mengembangkan dan menggunakan aplikasi LLM kepada siapa pun yang tertarik dan menempatkan dalam waktu untuk meneliti dokumentasi dan memecahkan masalah atau masalah saat ini.