機器殼,人類心。
YesImBot / Athena 是一個Koishi 插件,旨在讓人工智能大模型也能參與到群聊的討論中。
新的文檔站已上線:https://yesimbot.ccalliance.tech
輕鬆自定義:Bot 的名字、性格、情感,以及其他額外的消息都可以在插件配置中輕易修改。
負載均衡:你可以配置多個大模型的API 接口, Athena 會均衡地調用每一個API。
沉浸感知:大模型感知當前的背景信息,如日期時間、群聊名字,At 消息等。
防提示注入:Athena 將會屏蔽可能對大模型進行注入的消息,防止機器人被他人破壞。
Prompt 自動獲取:無需自行配製,多種優質Prompt 開箱即用。
AND MORE...
Important
繼續前, 請確保正在使用Athena 的最新版本。
Caution
請仔細閱讀此部分, 這很重要。
下面來講解配置文件的用法:
# 会话设置
Group :
# 记忆槽位,每一个记忆槽位都可以填入一个或多个会话id(群号或private:私聊账号),在一个槽位中的会话id会共享上下文
AllowedGroups :
- 114514 # 收到来自114514的消息时,优先使用这个槽位,意味着bot在此群中无其他会话的记忆
- 114514, private:1919810 # 收到来自1919810的私聊消息时,优先使用这个槽位,意味着bot此时拥有两个会话的记忆
- private:1919810, 12085141, 2551991321520
# 规定机器人能阅读的上下文数量
SendQueueSize : 100
# 机器人在每个会话开始发言所需的消息数量,即首次触发条数
TriggerCount : 2
# 以下是每次机器人发送消息后的冷却条数由LLM确定或取随机数的区间
# 最大冷却条数
MaxPopNum : 4
# 最小冷却条数
MinPopNum : 2
# 每次收到 @ 消息,机器人马上开始做出回复的概率。 取值范围:[0, 1]
AtReactPossibility : 0.50 # 以前这里写错成了 AtReactPossiblilty,现在已经修正了
# 过滤的消息。这些包含这些关键词的消息将不会加入到上下文。
# 这主要是为了防止 Bot 遭受提示词注入攻击。
Filter :
- You are
- 呢
- 大家
# LLM API 相关设置
API :
# 这是个列表,可以配置多个 API,实现负载均衡。
APIList :
# API 返回格式类型,可选 OpenAI / Cloudflare
- APIType : OpenAI
# API 基础 URL,此处以 OpenAI 为例
# 若你是 Cloudflare, 请填入 https://api.cloudflare.com/client/v4
BaseURL : https://api.openai.com/
# 你的 API 令牌
APIKey : sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXX
# 模型
AIModel : gpt-4o-mini
# 若你正在使用 Cloudflare,不要忘记下面这个配置
# Cloudflare Account ID,若不清楚可以看看你 Cloudflare 控制台的 URL
UID: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
# 机器人设定
Bot :
# 名字
BotName : 胡梨
# 原神模式(什
CuteMode : true
# Prompt 文件的下载链接或文件名。如果下载失败,请手动下载文件并放入 koishi.yml 所在目录
# 非常重要! 如果你不理解这是什么,请不要修改
PromptFileUrl :
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt.mdt " # 一代 Prompt,所有 AI 模型适用
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next.mdt " # 下一代 Prompt,效果最佳,如果你是富哥,用的起 Claude 3.5 / GPT-4 等,则推荐使用
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next-short.mdt " # 下一代 Prompt 的删减版,适合 GPT-4o-mini 等低配模型使用
# 当前选择的 Prompt 索引,从 0 开始
PromptFileSelected : 2
# Bot 的自我认知
WhoAmI : 一个普通群友
# Bot 的性格
BotPersonality : 冷漠/高傲/网络女神
# 屏蔽其他指令(实验性)
SendDirectly : true
# 机器人的习惯,当然你也可以放点别的小叮咛
BotHabbits : 辩论
# 机器人的背景
BotBackground : 校辩论队选手
... # 其他应用于prompt的角色设定。如果这些配置项没有被写入prompt文件,那么这些配置项将不会体现作用
# 机器人消息后处理,用于在机器人发送消息前的最后一个关头替换消息中的内容,支持正则表达式
BotSentencePostProcess :
- replacethis : 。$
tothis : ' '
- replacethis : 哈哈哈哈
tothis : 嘎哈哈哈
# 机器人的打字速度
WordsPerSecond : 30 # 30 字每秒
... # 其他配置项参见文档站然後,將機器人拉到對應的群組中。機器人首先會潛水一段時間,這取決於Group.TriggerCount的配置。當新消息條數達到這個值之後,Bot 就要開始參與討論了(這也非常還原真實人類的情況,不是嗎)。
Tip
如果你認為Bot 太活躍了,你也可以將Group.MinPopNum數值調高。
Warning
頻次配置應保持如下關係: Group.MinPopNum < Group.MaxPopNum < Group.SendQueueSize ,否則會導致問題。
接下來你可以根據實際情況調整機器人設定中的選項。在這方面你大可以自由發揮。但是如果你用的是Cloudflare Workers AI,你可以會發現你的機器人在胡言亂語。這是Cloudflare Workers AI 的免費模型效果不夠好,中文語料較差導致的。如果你想要在保證AI 發言質量的情況下盡量選擇價格較為經濟的AI 模型,那麼ChatGPT-4o-mini 或許是明智之選。當然,你也不一定必須使用OpenAI 的官方API,Athena 支持任何使用OpenAI 官方格式的API 接口。
Note
經過測試, Claude 3.5 模型在此場景下表現最佳。
將prompt.mdt文件下載到本地後,如果你覺得我們寫得不好,或者是有自己新奇的想法,你可能會想要自定義這部分內容。接下來我們就來教你如何這麼做。
首先,你需要在插件的配置中關閉每次启动时尝试更新Prompt 文件這個選項,它在配置頁面最下面的調試工具配置項中。之後,你可以在koishi的資源管理器中找到prompt.mdt這個文件。你可以在koishi自帶的編輯器中自由地修改這個文件,不過下面有幾點你需要注意:
${config.Bot.BotName} -> 机器人的名字
${config.Bot.WhoAmI} -> 机器人的自我认知
${config.Bot.BotHometown} -> 机器人的家乡
${config.Bot.BotYearold} -> 机器人的年龄
${config.Bot.BotPersonality} -> 机器人的性格
${config.Bot.BotGender} -> 机器人的性别
${config.Bot.BotHabbits} -> 机器人的习惯
${config.Bot.BotBackground} -> 机器人的背景
${config.Bot.CuteMode} -> 开启|关闭
${curYear} -> 当前年份 # 2024
${curMonth} -> 当前月份 # 11
${curDate} -> 当前日期 # 25
${curHour} -> 当前小时 # 10
${curMinute} -> 当前分钟 # 30
${curSecond} -> 当前秒数 # 15
${curGroupName} -> 触发此次调用的消息所在会话的名字。如果是私聊,则为“bot与xxx的私聊”
<img src="https://xxxxx.jpg base64="xx_xxxx"> -> 将交由图片查看器处理的图片 # 没想到吧系统提示词里也可以插图片
[
{
time: "", // 时间戳,格式为yyyy/mm/dd/hh/min/sec
session_id: "", // 此消息所在的会话id,示例:"123456789","private:9876543210"
id: "", // 消息id,bot在需要引用消息时,用它来确定在select中填写的值
author: "", // 消息发送者的名字
author_id: "", // 消息发送者的id
msg: "" // 消息本体
},
{
time: "",
session_id: "",
id: "",
author: "",
author_id: "",
msg: ""
},
...
]
{
"status": "success", // "success" 或 "skip" (跳过回复)
"session_id": "123456789", // 要把finReply发送到的会话id
"nextReplyIn": 2, // 下次回复的冷却条数,让LLM参与控制发言频率
"logic": "", // LLM思考过程
"reply": "", // 初版回复
"check": "", // 检查初版回复是否符合 "消息生成条例" 过程中的检查逻辑。
"finReply": "", // 最终版回复,让LLM在开头添加<quote id=""/>来指定引用回复的消息id
"execute":[] // 要运行的指令列表
}
Note
自己修改prompt時,請確保LLM 的回复符合要求的JSON格式。但缺少某些條目好像也沒關係? Σ(っ°Д °;)っ
我們強烈推薦大家使用非Token 計費的API,這是因為Athena 每次對話的前置Prompt 本身消耗了非常多的Token。你可以使用一些以調用次數計費的API,比如:
我們的終極目標是——即使哪一天你的賬號接入了Athena,群友也不能發現任何端倪——我們一切的改進都是朝這方面努力的。
感謝貢獻者們, 是你們讓Athena 成為可能。
歡迎發布issue,或是直接加入Athena 官方交流& 測試群:857518324,我們隨時歡迎你的來訪!