| Titel | app_file | SDK | sdk_version |
|---|---|---|---|
Dolly-Expert-Builder | app.py | Gradio | 3.34.0 |
Ein leichter Assistent von Dolly-V2, der domänenspezifische Fragen beantworten und ein Gespräch führen kann. Es sind Expertensysteme in der Ära von LLMs.
Einreichung bei "So denkst du, du kannst hacken": Open-Source LLMs (z. B. Openssistant, MPT, Dolly usw.) DevPost-Hackathon.

Expertensysteme waren in der künstlichen Intelligenz groß. Sie ahmen die Entscheidungsfähigkeiten eines menschlichen Experten in einem bestimmten Bereich nach und können in vielen Anwendungsfällen einen erheblichen Wert bieten. Der Hauptnachteil der Expertensysteme für alte Schule bestand darin, dass sie mit booleschen Aussagen oder einer ähnlichen Logik programmiert werden mussten, wobei sie erhebliche Zeit und Ressourcen in Anspruch nehmen mussten. In vielen Fällen besiegte dieser Ansatz den Zweck, einen leicht verfügbaren Experten für die jeweilige Aufgabe zu haben.
LLM-Anwendungen mit geschlossenen Source wie ChatGPT3.5 und Chatgpt-4 sind gigantische Modelle, die eine große Anzahl von Aufgaben sehr gut sind. Sie haben Einschränkungen wie Halluzinationen, wenn sie nicht wissen, wie sie reagieren sollen oder wenn die Antwort online ist und sie keinen Zugriff auf das Internet oder die Dateien haben. Manchmal werden diese Halluzinationen auf sehr überzeugende Weise erzählt, und wenn man versucht, sie umzusetzen, werden sie sich als falsch oder falsch herausstellen. Diese Modelle haben enorme Kontextfenster, damit die Menschen ihnen helfen können, jede Aufgabe zu erledigen, mit der sie zu kämpfen haben, indem sie viele Informationen bereitstellen und schnelle technische Techniken implementieren. Dies macht mehr als einer der Meinung, dass nur die großen Unternehmen mit geschlossenem Quellcode LLM -Anwendungen entwickeln und bereitstellen können.
Dolly Expert Lite nutzt Dolly-V2-3B, die leichte Version von Dolly-V2-12B, ein Open-Source-Großsprachmodell (LLM) zur Beantwortung domänenspezifischer Fragen unter Verwendung des Abrufens in benutzerdefinierten Vektordatenbanken. In diesem Beispiel ruft Dolly-Expert-Builder Informationen aus dem Gebäudecode von Ontario (Kanada) ab, um spezifische Fragen zu Bau, Sanitär, elektrischer Verkabelung und Belüftung gemäß dem offiziellen Regierungskodex zu beantworten. Der Dolly-Expert-Builder kann kohärente und sachlich korrigierte Informationen mit Quellen liefern und als Anleitungen für Handelsärzte (Klempner, Elektriker, Mechaniker, Wohnungsbauunternehmen) sowie Ingenieure und Architekten dienen, um bei der Durchführung von Arbeiten bei der Durchführung der Vorschriften zu helfen.
Durch die Befolgung dieser Methode können Einzelpersonen und Organisationen ihre lokalen Daten verwenden, um Expertenassistenten in der Lage zu machen, domänenspezifische Fragen zu beantworten. Mögliche Anwendungsfälle umfassen:
Da die Tools so neu sind, verursachen einige Unterschiede aus den Standard -Anwendungsfällen Fehler. Zum Beispiel:
persists_directory in der Chromadb -Initialisierung gespeichert wurde, und es würde später in einer separaten Instanz nicht geladen, da die .peristen () -Methode nicht aufgerufen wurde. Dies musste erneuert und erneut verpflichtet werden, damit die Datenbank endlich verfügbar war.In der Lage zu sein, einen funktionalen leichten Prototyp einer LLM-Anwendung mithilfe eines Open-Source-Modells wie Dolly zu erstellen und es als Umarmungsfläche bereitzustellen. In der Lage zu sein, zu zeigen, dass LLM-Anwendungen für alle sind und dass das Open-Source-Ökosystem genauso fähig ist wie die Pioniere für geschlossene Quellen.
In Bezug auf das allgemeine Kenntnis der Softwareentwicklung habe ich gelernt, Pakete zu beheben, die miteinander in Konflikt stehen, und er lernte, dass Python neu gestartet werden muss, je nachdem, welche Abhängigkeiten installiert sind oder dass es manchmal besser ist, Aufgaben zu unterteilen, anstatt zu versuchen, alles gleichzeitig zu tun. Ich habe auch die Grundlagen von Gradio gelernt, um die App erstellen zu können. Und vor allem habe ich gelernt, Github -Probleme und Stackoverflow -Beiträge besser zu navigieren, um Problemumgehungen für die Probleme zu finden, die ich begegnete.
In Bezug auf das LLM-bezogene Wissen habe ich erfahren, wie wichtig es ist, Ihre Inferenzergebnisse dramatisch zu verbessern. Ich habe auch gelernt, dass Open-Source-Modelle die Möglichkeit bieten, LLM-Anwendungen für denjenigen zu entwickeln und bereitzustellen, der interessiert ist, und die Zeit für die Erforschung der Dokumentation und der Fehlerbehebung oder der aktuellen Probleme.