Maschinenhülle, menschliches Herz.
Yesimbot/Athena ist ein Koishi-Plug-In, mit dem KI-Modelle an Gruppen-Chat-Diskussionen teilnehmen können.
Die neue Dokumentseite ist online: https://yesibot.ccalliance.tech
Einfach anpassen: Name des Bots, Persönlichkeit, Emotionen und andere zusätzliche Nachrichten können in der Plug-in-Konfiguration einfach geändert werden.
Lastausgleich: Sie können mehrere API-Schnittstellen mit großem Model konfigurieren, und Athena ruft jede API gleichmäßig auf.
Eintauchende Wahrnehmung: Das große Modell wahrnimmt aktuelle Hintergrundinformationen wie Datum und Uhrzeit, Gruppen -Chat -Name, bei Nachricht usw.
Anti-Prompt-Injektion: Athena blockiert Botschaften, die große Modelle injizieren können, um zu verhindern, dass der Roboter von anderen zerstört wird.
Schnell automatisch GET: Keine Notwendigkeit, es selbst zu machen, sind eine Vielzahl hochwertiger Eingabeaufforderungen erhältlich.
Und mehr ...
Wichtig
Stellen Sie vor dem Fortfahren sicher, dass Sie die neueste Version von Athena verwenden.
Vorsicht
Bitte lesen Sie diesen Abschnitt sorgfältig durch, es ist wichtig.
Das Folgende ist eine Erläuterung der Verwendung von Konfigurationsdateien:
# 会话设置
Group :
# 记忆槽位,每一个记忆槽位都可以填入一个或多个会话id(群号或private:私聊账号),在一个槽位中的会话id会共享上下文
AllowedGroups :
- 114514 # 收到来自114514的消息时,优先使用这个槽位,意味着bot在此群中无其他会话的记忆
- 114514, private:1919810 # 收到来自1919810的私聊消息时,优先使用这个槽位,意味着bot此时拥有两个会话的记忆
- private:1919810, 12085141, 2551991321520
# 规定机器人能阅读的上下文数量
SendQueueSize : 100
# 机器人在每个会话开始发言所需的消息数量,即首次触发条数
TriggerCount : 2
# 以下是每次机器人发送消息后的冷却条数由LLM确定或取随机数的区间
# 最大冷却条数
MaxPopNum : 4
# 最小冷却条数
MinPopNum : 2
# 每次收到 @ 消息,机器人马上开始做出回复的概率。 取值范围:[0, 1]
AtReactPossibility : 0.50 # 以前这里写错成了 AtReactPossiblilty,现在已经修正了
# 过滤的消息。这些包含这些关键词的消息将不会加入到上下文。
# 这主要是为了防止 Bot 遭受提示词注入攻击。
Filter :
- You are
- 呢
- 大家
# LLM API 相关设置
API :
# 这是个列表,可以配置多个 API,实现负载均衡。
APIList :
# API 返回格式类型,可选 OpenAI / Cloudflare
- APIType : OpenAI
# API 基础 URL,此处以 OpenAI 为例
# 若你是 Cloudflare, 请填入 https://api.cloudflare.com/client/v4
BaseURL : https://api.openai.com/
# 你的 API 令牌
APIKey : sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXX
# 模型
AIModel : gpt-4o-mini
# 若你正在使用 Cloudflare,不要忘记下面这个配置
# Cloudflare Account ID,若不清楚可以看看你 Cloudflare 控制台的 URL
UID: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
# 机器人设定
Bot :
# 名字
BotName : 胡梨
# 原神模式(什
CuteMode : true
# Prompt 文件的下载链接或文件名。如果下载失败,请手动下载文件并放入 koishi.yml 所在目录
# 非常重要! 如果你不理解这是什么,请不要修改
PromptFileUrl :
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt.mdt " # 一代 Prompt,所有 AI 模型适用
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next.mdt " # 下一代 Prompt,效果最佳,如果你是富哥,用的起 Claude 3.5 / GPT-4 等,则推荐使用
- " https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next-short.mdt " # 下一代 Prompt 的删减版,适合 GPT-4o-mini 等低配模型使用
# 当前选择的 Prompt 索引,从 0 开始
PromptFileSelected : 2
# Bot 的自我认知
WhoAmI : 一个普通群友
# Bot 的性格
BotPersonality : 冷漠/高傲/网络女神
# 屏蔽其他指令(实验性)
SendDirectly : true
# 机器人的习惯,当然你也可以放点别的小叮咛
BotHabbits : 辩论
# 机器人的背景
BotBackground : 校辩论队选手
... # 其他应用于prompt的角色设定。如果这些配置项没有被写入prompt文件,那么这些配置项将不会体现作用
# 机器人消息后处理,用于在机器人发送消息前的最后一个关头替换消息中的内容,支持正则表达式
BotSentencePostProcess :
- replacethis : 。$
tothis : ' '
- replacethis : 哈哈哈哈
tothis : 嘎哈哈哈
# 机器人的打字速度
WordsPerSecond : 30 # 30 字每秒
... # 其他配置项参见文档站Ziehen Sie dann den Roboter in die entsprechende Gruppe. Der Roboter taucht zuerst je nach Konfiguration von Group.TriggerCount für eine Weile ein. Wenn die Anzahl der neuen Nachrichten diesen Wert erreicht, wird Bot an der Diskussion teilnehmen (dies ist auch sehr in der wirklichen menschlichen Situation wiederhergestellt, nicht wahr).
Tipp
Wenn Sie der Meinung sind, dass Bot zu aktiv ist, können Sie auch Group.MinPopNum umstellen.
Warnung
Die Frequenzkonfiguration sollte die folgende Beziehung beibehalten: Group.MinPopNum < Group.MaxPopNum < Group.SendQueueSize , sonst verursacht sie Probleme.
Als nächstes können Sie die Optionen in den Robotereinstellungen entsprechend der tatsächlichen Situation anpassen. Sie können in dieser Hinsicht frei spielen. Wenn Sie jedoch CloudFlare Workers AI verwenden, können Sie Ihren Roboter als Unsinn spricht. Dies wird durch das arme chinesische Korpus der Cloudflare -Arbeiter -KI -kostenlosen Modell verursacht. Wenn Sie ein KI-Modell auswählen möchten, das wirtschaftlicher ist und gleichzeitig die Qualität der AI-Sprache sicherstellt, ist Chatgpt-4O-Mini möglicherweise eine kluge Wahl. Natürlich müssen Sie nicht unbedingt die offizielle API von Openai verwenden. Athena unterstützt jede API -Schnittstelle mit dem offiziellen Format von OpenAI.
Notiz
Nach dem Test hat das Claude 3.5 -Modell in diesem Szenario am besten durchgeführt.
Wenn Sie der Meinung sind, dass wir nicht gut schreiben oder Ihre eigenen neuartigen Ideen haben, können Sie diesen Teil nach dem Herunterladen der Eingabeaufforderung.MDT -Datei lokal heruntergeladen. Als nächstes werden wir Ihnen beibringen, wie das geht.
Zunächst müssen Sie die Option deaktivieren每次启动时尝试更新Prompt 文件, die sich im Debugging -Tool -Konfigurationselement am Ende der Konfigurationsseite befindet. Danach finden Sie die Datei ProPt.mdt in Koishis Explorer. Sie können diese Datei im Editor, die mit Koishi geliefert werden, frei ändern, aber es gibt einige Punkte, auf die Sie achten müssen:
${config.Bot.BotName} -> 机器人的名字
${config.Bot.WhoAmI} -> 机器人的自我认知
${config.Bot.BotHometown} -> 机器人的家乡
${config.Bot.BotYearold} -> 机器人的年龄
${config.Bot.BotPersonality} -> 机器人的性格
${config.Bot.BotGender} -> 机器人的性别
${config.Bot.BotHabbits} -> 机器人的习惯
${config.Bot.BotBackground} -> 机器人的背景
${config.Bot.CuteMode} -> 开启|关闭
${curYear} -> 当前年份 # 2024
${curMonth} -> 当前月份 # 11
${curDate} -> 当前日期 # 25
${curHour} -> 当前小时 # 10
${curMinute} -> 当前分钟 # 30
${curSecond} -> 当前秒数 # 15
${curGroupName} -> 触发此次调用的消息所在会话的名字。如果是私聊,则为“bot与xxx的私聊”
<img src="https://xxxxx.jpg base64="xx_xxxx"> -> 将交由图片查看器处理的图片 # 没想到吧系统提示词里也可以插图片
[
{
time: "", // 时间戳,格式为yyyy/mm/dd/hh/min/sec
session_id: "", // 此消息所在的会话id,示例:"123456789","private:9876543210"
id: "", // 消息id,bot在需要引用消息时,用它来确定在select中填写的值
author: "", // 消息发送者的名字
author_id: "", // 消息发送者的id
msg: "" // 消息本体
},
{
time: "",
session_id: "",
id: "",
author: "",
author_id: "",
msg: ""
},
...
]
{
"status": "success", // "success" 或 "skip" (跳过回复)
"session_id": "123456789", // 要把finReply发送到的会话id
"nextReplyIn": 2, // 下次回复的冷却条数,让LLM参与控制发言频率
"logic": "", // LLM思考过程
"reply": "", // 初版回复
"check": "", // 检查初版回复是否符合 "消息生成条例" 过程中的检查逻辑。
"finReply": "", // 最终版回复,让LLM在开头添加<quote id=""/>来指定引用回复的消息id
"execute":[] // 要运行的指令列表
}
Notiz
Wenn Sie den Propt selbst ändern, stellen Sie bitte sicher, dass die Antwort des LLM das erforderliche JSON -Format erfüllt. Aber es scheint keine Rolle zu sein, ob einige Einträge fehlen? Σ (っ ° д °;) っ
Wir empfehlen dringend, dass Sie nicht-um-Abrechnungs-APIs verwenden, da die Vorderseite von Athena jedes Gespräch viele Token verbraucht. Sie können einige APIs verwenden, die für Anrufe in Rechnung gestellt werden, z. B.:
Unser letztendliches Ziel ist, dass Gruppenmitglieder auch dann, wenn Ihr Konto eines Tages mit Athena verbunden ist, keine Hinweise finden können, alle unsere Verbesserungen darauf hinarbeiten.
Dank der Mitwirkenden war es Sie, die Athena möglich gemacht haben.
Willkommen, um ein Problem zu veröffentlichen oder direkt an der Athena Official Exchange & Test Group teilzunehmen: 857518324, begrüßen wir Ihren Besuch jederzeit!