Shell de la máquina, corazón humano.
YesImbot/Athena es un complemento Koishi diseñado para permitir que los modelos de IA participen en las discusiones de chat grupal.
El nuevo sitio de documento está en línea: https://yesimbot.ccalliance.tech
Fácil de personalizar: el nombre, la personalidad, las emociones y otros mensajes adicionales de BOT se pueden modificar fácilmente en la configuración del complemento.
Equilibrio de carga: puede configurar múltiples interfaces de API de modelo grande, y Athena llamará a cada API de manera uniforme.
Percepción inmersiva: el gran modelo percibe la información de fondo actual, como la fecha y la hora, el nombre del chat grupal, el mensaje, etc.
Inyección anti-prompt: Athena bloqueará mensajes que pueden inyectar modelos grandes para evitar que el robot sea destruido por otros.
Entrada automática rápida: no es necesario hacerlo usted mismo, una variedad de indicaciones de alta calidad están disponibles fuera de la caja.
Y más ...
Importante
Antes de continuar, asegúrese de usar la última versión de Athena.
Precaución
Lea esta sección con cuidado, es importante.
La siguiente es una explicación del uso de archivos de configuración:
# 会话设置
Group :
# 记忆槽位,每一个记忆槽位都可以填入一个或多个会话id(群号或private:私聊账号),在一个槽位中的会话id会共享上下文
AllowedGroups :
- 114514 # 收到来自114514的消息时,优先使用这个槽位,意味着bot在此群中无其他会话的记忆
- 114514, private:1919810 # 收到来自1919810的私聊消息时,优先使用这个槽位,意味着bot此时拥有两个会话的记忆
- private:1919810, 12085141, 2551991321520
# 规定机器人能阅读的上下文数量
SendQueueSize : 100
# 机器人在每个会话开始发言所需的消息数量,即首次触发条数
TriggerCount : 2
# 以下是每次机器人发送消息后的冷却条数由LLM确定或取随机数的区间
# 最大冷却条数
MaxPopNum : 4
# 最小冷却条数
MinPopNum : 2
# 每次收到 @ 消息,机器人马上开始做出回复的概率。 取值范围:[0, 1]
AtReactPossibility : 0.50 # 以前这里写错成了 AtReactPossiblilty,现在已经修正了
# 过滤的消息。这些包含这些关键词的消息将不会加入到上下文。
# 这主要是为了防止 Bot 遭受提示词注入攻击。
Filter :
- You are
- 呢
- 大家
# LLM API 相关设置
API :
# 这是个列表,可以配置多个 API,实现负载均衡。
APIList :
# API 返回格式类型,可选 OpenAI / Cloudflare
- APIType : OpenAI
# API 基础 URL,此处以 OpenAI 为例
# 若你是 Cloudflare, 请填入 https://api.cloudflare.com/client/v4
BaseURL : https://api.openai.com/
# 你的 API 令牌
APIKey : sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXX
# 模型
AIModel : gpt-4o-mini
# 若你正在使用 Cloudflare,不要忘记下面这个配置
# Cloudflare Account ID,若不清楚可以看看你 Cloudflare 控制台的 URL
UID: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
# 机器人设定
Bot :
# 名字
BotName : 胡梨
# 原神模式(什
CuteMode : true
# Prompt 文件的下载链接或文件名。如果下载失败,请手动下载文件并放入 koishi.yml 所在目录
# 非常重要! 如果你不理解这是什么,请不要修改
PromptFileUrl :
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt.mdt " # 一代 Prompt,所有 AI 模型适用
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next.mdt " # 下一代 Prompt,效果最佳,如果你是富哥,用的起 Claude 3.5 / GPT-4 等,则推荐使用
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next-short.mdt " # 下一代 Prompt 的删减版,适合 GPT-4o-mini 等低配模型使用
# 当前选择的 Prompt 索引,从 0 开始
PromptFileSelected : 2
# Bot 的自我认知
WhoAmI : 一个普通群友
# Bot 的性格
BotPersonality : 冷漠/高傲/网络女神
# 屏蔽其他指令(实验性)
SendDirectly : true
# 机器人的习惯,当然你也可以放点别的小叮咛
BotHabbits : 辩论
# 机器人的背景
BotBackground : 校辩论队选手
... # 其他应用于prompt的角色设定。如果这些配置项没有被写入prompt文件,那么这些配置项将不会体现作用
# 机器人消息后处理,用于在机器人发送消息前的最后一个关头替换消息中的内容,支持正则表达式
BotSentencePostProcess :
- replacethis : 。$
tothis : ' '
- replacethis : 哈哈哈哈
tothis : 嘎哈哈哈
# 机器人的打字速度
WordsPerSecond : 30 # 30 字每秒
... # 其他配置项参见文档站Luego, tira del robot al grupo correspondiente. El robot se sumergirá por un tiempo primero, dependiendo de la configuración de Group.TriggerCount . Cuando el número de mensajes nuevos alcanza este valor, Bot comenzará a participar en la discusión (esto también está muy restaurado a la situación humana real, no es así).
Consejo
Si cree que Bot es demasiado activo, también puede aumentar Group.MinPopNum .
Advertencia
La configuración de frecuencia debe mantener la siguiente relación: Group.MinPopNum < Group.MaxPopNum < Group.SendQueueSize , de lo contrario causará problemas.
A continuación, puede ajustar las opciones en la configuración del robot de acuerdo con la situación real. Puedes jugar libremente a este respecto. Pero si está utilizando la IA de los trabajadores de Cloudflare, puede encontrar que su robot habla sin sentido. Esto es causado por el pobre corpus chino de los modelos gratuitos de los trabajadores de Cloudflare AI. Si desea elegir un modelo de IA que sea más económico al tiempo que garantiza la calidad del discurso de IA, entonces ChatGPT-4O-Mini puede ser una buena elección. Por supuesto, no necesariamente tiene que usar la API oficial de OpenAI. Athena admite cualquier interfaz API utilizando el formato oficial de OpenAI.
Nota
Después de las pruebas, el modelo Claude 3.5 funcionó mejor en este escenario.
Después de descargar el archivo ind.mdt localmente, si cree que no estamos escribiendo bien o tenemos sus propias ideas novedosas, es posible que desee personalizar esta parte. A continuación te enseñaremos cómo hacer esto.
Primero, debe desactivar la opción每次启动时尝试更新Prompt 文件en la configuración del complemento, que se encuentra en el elemento de configuración de la herramienta de depuración en la parte inferior de la página de configuración. Después de eso, puede encontrar el archivo propt.mdt en el explorador de Koishi. Puede modificar libremente este archivo en el editor que viene con Koishi, pero hay algunos puntos a los que debe prestar atención:
${config.Bot.BotName} -> 机器人的名字
${config.Bot.WhoAmI} -> 机器人的自我认知
${config.Bot.BotHometown} -> 机器人的家乡
${config.Bot.BotYearold} -> 机器人的年龄
${config.Bot.BotPersonality} -> 机器人的性格
${config.Bot.BotGender} -> 机器人的性别
${config.Bot.BotHabbits} -> 机器人的习惯
${config.Bot.BotBackground} -> 机器人的背景
${config.Bot.CuteMode} -> 开启|关闭
${curYear} -> 当前年份 # 2024
${curMonth} -> 当前月份 # 11
${curDate} -> 当前日期 # 25
${curHour} -> 当前小时 # 10
${curMinute} -> 当前分钟 # 30
${curSecond} -> 当前秒数 # 15
${curGroupName} -> 触发此次调用的消息所在会话的名字。如果是私聊,则为“bot与xxx的私聊”
<img src="https://xxxxx.jpg base64="xx_xxxx"> -> 将交由图片查看器处理的图片 # 没想到吧系统提示词里也可以插图片
[
{
time: "", // 时间戳,格式为yyyy/mm/dd/hh/min/sec
session_id: "", // 此消息所在的会话id,示例:"123456789","private:9876543210"
id: "", // 消息id,bot在需要引用消息时,用它来确定在select中填写的值
author: "", // 消息发送者的名字
author_id: "", // 消息发送者的id
msg: "" // 消息本体
},
{
time: "",
session_id: "",
id: "",
author: "",
author_id: "",
msg: ""
},
...
]
{
"status": "success", // "success" 或 "skip" (跳过回复)
"session_id": "123456789", // 要把finReply发送到的会话id
"nextReplyIn": 2, // 下次回复的冷却条数,让LLM参与控制发言频率
"logic": "", // LLM思考过程
"reply": "", // 初版回复
"check": "", // 检查初版回复是否符合 "消息生成条例" 过程中的检查逻辑。
"finReply": "", // 最终版回复,让LLM在开头添加<quote id=""/>来指定引用回复的消息id
"execute":[] // 要运行的指令列表
}
Nota
Al modificar el propt usted mismo, asegúrese de que la respuesta de la LLM cumpla con el formato JSON requerido. ¿Pero no parece importar si faltan algunas entradas? Σ (っ ° д °;) っ
Recomendamos encarecidamente que use API de facturación no token, porque el aviso de Athena de Athena cada conversación consume muchas fichas. Puede usar algunas API que Bill para llamadas, como:
Nuestro objetivo final es que incluso si su cuenta está conectada con Athena algún día, los miembros del grupo no pueden encontrar ninguna pista: todas nuestras mejoras están funcionando para esto.
Gracias a los contribuyentes, fuiste tú quien hizo posible Athena.
Bienvenido a publicar un problema o unirse directamente al grupo de Exchange & Test de Athena: 857518324, ¡damos la bienvenida a su visita en cualquier momento!