很棒的生成AI遇到朱莉娅编程语言
与朱莉娅相关的/for/for/for/for/for/for/for/for Julia的综合指南。
朱莉娅(Julia)是一种用于技术计算的高级高性能动态语言。
生成的AI涵盖了利用大规模机器学习的算法和模型,以生成新内容(跨许多模式),自动化,理解,解析,提取等,并适应超出内容创建内容以外的广泛应用程序。
内容
- 生成的AI项目和朱莉娅
- 型号
- API SDK
- 模型提供商
- 云服务提供商
- 向量数据库
- 具有向量指数支持的通用DBM
- 软件包
- JLL软件包
- 基准/比较
- 应用/产品
- 教程/学习
- 值得注意的提及
- 必须知道的Python项目
- 其他很棒的列表
生成的AI项目和朱莉娅
- Juliagenai组织 - 一个GitHub组织和朱莉娅开发人员和研究人员的社区。
型号
在朱莉娅(Julia)建立,训练和部署大型语言模型(以及其他方式)。
- Flux.jl -Flux是朱莉娅的机器学习库,它具有灵活性并允许构建复杂的模型。但是,在撰写本文时,我不知道是否有任何大型语言模型(LLM)已在不断变化中实施和培训。
- Transformers.jl-Transformers.jl是一个Julia软件包,提供了用于使用预训练的变压器模型的高级API。它还允许使用
@hgf_str宏字符串从拥抱脸部集线器中下载任何型号。 - Pickle.jl-将Pytorch重量加载到Julia的绝佳包装(如果您想自己实现模型)。
- bytepairencoding.jl-字节对编码(BPE)算法的纯Julia实现。它被Transformer.jl使用用于tokenize文本。
- llama2.jl -llama2.jl提供了基于llama2.c的基于Llama2语言模型的推理和培训的简单代码。它支持GGUF格式(
q4_K_S变体)的加载量化权重。其他类似的项目:languagemodels.jl - Llama.jl-朱莉娅接口到Llama.cpp,一个在本地运行语言模型的C/C ++库。支持广泛的模型。
- hisper.jl-朱莉娅(Julia)接口whisper.cpp,这是Openai的Whisper自动语音识别(ASR)模型的C/C ++的高性能推论。
API SDK
模型提供商
通过官方API访问生成AI模型。
- Openai.jl-一个社区维护了OpenAI API的朱莉娅包装。
云服务提供商
通过流行的云服务提供商的SDK访问生成AI模型。
- GoogleCloud.jl- Google Cloud的SDK。有一个开放的PR来启用顶点AI端点。
- GoogleGenai.jl- Google Gemini API的非官方包装器。
向量数据库
- pinecone.jl- pinecone.io vector数据库的SDK。
具有向量指数支持的通用DBM
| 姓名 | 朱莉娅客户 | 用法示例 |
|---|
| Elasticsearch | elasticsearchclient.jl | gptseachplugin与Elasticsearch |
| OpenSearch | elasticsearchclient.jl | gptseachplugin和Opensearch |
| PostgreSQL + PGVECTOR | libpq.jl | Julia的PGVECTOR示例 |
软件包
- replgpt.jl-将chatgpt接口作为朱莉娅替补模式。
- helpgpt.jl-调用chatgpt解释朱莉娅代码中的任何错误。
- gengpt3.jl-包裹OpenAI API的Gen.jl生成函数。
- 提示tools.jl-通过包装即将到来的API,通过模板重新使用提示,并在不同的模型提供商之间轻松过渡(例如,EG,OpenAI,Ollama),通过包装即将到来的提示来帮助朱莉娅的大型语言模型的日常应用。 (免责声明:我是此软件包的作者。)
- llmtextanalysis.jl-利用大型语言模型在大型文档集合中发现,评估和标记主题/概念/光谱。 (免责声明:我是此软件包的作者。)
- Aihelpme.jl-通过利用包装文档(检索增强生成)来增强AI代码的帮助。预先包装用于常见的Julia软件包,但可用于任何软件包。
- aihelpui.jl-基于aihelpme.jl的基于Web的图形接口,构建在stipple.jl顶部。
- Protoportal.jl-提示tools.jl的基于Web的图形接口,具有额外的提示模板和功能(Julia Code执行和自动固定,元数据启动,自动批评,语音到文本输入)。类似于Chatgpt,但针对Julia。
JLL软件包
jll是预先建立的库和可执行文件,可轻松安装和调用非朱利娅项目(例如,c/c ++)。通常,它们是迈向带有惯用界面的朱莉娅软件包的第一步。
- llama_cpp_jll.jl- llama.cpp的jll软件包,量化llama2风格型号的最佳接口。
基准/比较
- Julia LLM排行榜 - 在一系列任务中各种大型语言模型的Julia语言生成功能的比较。如果您想帮助选择适合应用程序的模型,请访问。
- Humaneval.jl-朱莉娅(Julia)的Openai/Human -Eval版本。它将原始的Python问题重写为Julia版本,并通过几个最新的LLM提供评估结果。
应用/产品
使用朱莉娅语言“起作用”的应用和产品。
- GitHub副驾驶仪 - 借助OpenAI模型,出色的内联建议。它与Julia语言的重复任务非常有效,一次是一行,但是较大的代码块很少正确。
- Codium.AI-大IDE或VSCODE插件,用于代码分析,建议和生成测试套件。尽管测试的写作更多的是用pytest而不是惯用的朱莉娅(Julia)编写。它有一个免费的层。
- REPLIT- REPLIT的REPL由支持Julia语言的内部模型提供动力。
- Codeium-大多数编辑者的GitHub副副词的免费替代品。
- 光标 - 基于AI驱动代码完成和建议的VSCODE的替代IDE。它与朱莉娅的语言非常好。
使用LLMS的Julia附属应用和产品
- Juliahub Askai -Askai是Juliahub的抹布(检索增强生成)应用程序,允许用户询问有关Julia语言及其生态系统的问题。它是免费的,但是您需要登录到朱利亚霍(Juliahub)才能使用它。
- Genie UI助理-Genie UI助理是GPT -4供电UI构建器,帮助Genie.jl的用户使用自然语言更快地创建UIS。
- Comind-朱莉娅(Julia)建造的社交网络,消息传递和LLM界面。
候诊室
仍在等待证明自己并收集足够明星的新项目。
- flashrank.jl-快速和本地文档排名,可以在任何计算机上运行的模型(基于CPU)。基于Python的闪存车。
- semanticcaches.jl-具有微小嵌入模型的Genai应用程序的智能缓存 - 一次降低延迟,一次请求。
- Spehulak.jl-用于调试LLM电话的Genai可观察性平台。与stressingtools.jl完全集成。
未发行,实验性但功能性:
- MILVUS.JL-朱莉娅(Julia)Milvus Vectordb客户的最低限度和非正式实施。
存档的项目
- gptcodingtools.jl-具有有用的及时模板和自我修复功能(ALA OpenAI代码解释器)的Julia语言代码生成工具。它确实有效,但是发展已被放弃。 (免责声明:我是此软件包的作者。)
教程/学习
- 使用LLM与Transformers.jl一起使用的教程 - 关于如何使用Transformers.jl从HuggingFace Hub访问LLMS的简短教程。
- 通过dataframes.jl文档构建抹布聊天机器人 - 动手指南 - 关于如何仅使用最小依赖项在dataframes.jl文档上构建抹布聊天机器人的动手指南。
- Genai Mini任务:从(。*)提取数据?别再看! - 关于结构化数据提取的教程。 Genai可以完成的有关小型任务的大型教程的一部分。
- 微小的二进制抹布 - 关于语义搜索的极好的深度深度(抹布中的“ R”)。它显示出有100行Julia,您可以在<20ms中搜索15m的块(〜Wikipedia的大小)。
值得注意的提及
以下某些项目不一定是朱莉娅(Julia)特定的,但值得注意的是在生成的AI空间中提到,对朱莉娅(Julia)开发人员来说很有趣。
本地部署
- Ollama-对于那些希望在当地举办大型语言模型的人来说,这是最佳选择。只需启动服务器并使用http.jl发送请求。
- LM Studio-一个用于托管和与LLMS互动的桌面应用程序。对于那些想使用LLM而不编码的人来说,这是一个不错的选择。它是免费的。
生成AI-上一代
- GenerativeModels.jl-有用的库来培训更多传统的生成模型,例如VAE。它建在flux.jl.
###有用的实用程序
- stipple.jl-用于在纯Julia(genie.jl生态系统的一部分)中构建交互式数据应用程序。非常适合用于Genai应用的基于Web的界面。
- TARO.JL-各种文档的功能强大解析器(与Java Interop)。对于构建检索提示的生成(RAG)应用非常有用。
必须知道的Python项目
Python处于生成AI革命的前沿。幸运的是,我们有pythoncall.jl允许我们轻松调用以下所有Python软件包。
- HuggingFace Transformers - 最受欢迎的库,用于访问LLM和其他型号。它可以主要通过transformer.jl(见上文)使用。
- Langchain-在LLMS之上构建应用程序的最佳选择(例如,链,代理商)。它具有许多用于常见模型,数据库和其他服务的适配器。
- LLAMA指数 - 类似于Langchain,但重点关注以数据为中心的应用程序。
- 讲师 - OpenAI API顶部的简单但功能强大的结构化提取框架。非常适合了解功能与Pydantic一起致电API的力量。
- Marvin-强大的构建块可以快速构建AI应用程序并通过准备生产的API暴露它们。
- 打开解释器 - 让LLMS在计算机上运行代码(例如Python,JavaScript,Shell等)。 OpenAI代码解释器的开源本地替代方案。
其他很棒的列表
- 很棒的生成AI-所有生成AI的好列表。这个列表的灵感!