本帖不叙述 wireguard 的具体配置步骤,仅谈论它的意义 如果你想要知道 wireguard 的配置方法,那么在论坛中搜索下,会有更多资料 我是一个喜欢自建服务的人,我很早就在自己的机器上维护了一批自己使用的东西,但是我希望能在互联网上访问它们 最开始我也是使用 frp 这类著名的穿透工具来提供访问,但后面我切换为了自建私有网络的道路。因为自己的东西主要是自用,或者几个人范围内使用,不需要提供任意来源的公网访问 对于这种场景,wireguard 等内网技术是更好的一种方案。 它能够: 让你定义一个自己的私有网段,然后将自己的设备加进去,当然,每一个设备都应运行 wireguard。在 nat 后的设备,应当将中继作为自己的 peer 让其中一个节点成为 wireguard 的网关,或称中继,一般 vps 充当这个角色。从而让自己的内网中的所有设备能够互相通信 杜绝了自己的服务被陌生人任意访问的风险 自从使用了 wireguard, 我认为我不会再回头去使用任何一种专门的内网穿透工具了。将自己的设备组装为同一个网络,带来的便利性和安全性是巨大的 下面的佬友认为,这种方案存在问题: 国内很可能导致被干扰和中断 ,因为它特征明显 这个问题很可能存在,不能排除 我只谈论下自己的经历,仅供参考:我所有设备都在国内,我不用这一工具来作为我翻墙的路径之一。我使用的疼薰云的 vps 作为中继,其他设备用的是移不动或者电不信的网络,我在中国防护相对严格的一个城市(可能),我和 vps 在两个不同的省份。日常使用似乎没有观察到 qos 问题 11 个帖子 - 10 位参与者 阅读完整话题
另外,一直疑惑开了TUN模式,还需要开系统代理模式吗?有佬解答一下嘛?谢谢。 12 个帖子 - 12 位参与者 阅读完整话题
直接说要生成的图片就有了,甚至2选一,询问用户那个更好,我甚至以为这个是竞技场了 。奇怪的是,为什么女主播名字都带鹿鹿的??? 10 个帖子 - 5 位参与者 阅读完整话题
有没有佬友交流下,如何才能更好的运用Ai,有没有什么方法论,比如运用skill,mcp,Harness Engineering 可以交流下,怎么才能在工作中运用起来让脑子可以不那么累 2 个帖子 - 2 位参与者 阅读完整话题
感觉指令跟随更好,即梦有时候有点听不懂人话的感觉?按理来说都是同样的模型(4.5)啊。是我用的不对吗? 1 个帖子 - 1 位参与者 阅读完整话题
越来也快了,比Qwen3.5-35B-A3B效果要更好,当前单卡部署了ud-Q4-K-XL.gguf 目前已知4090 180+toks/s, 3090 100+toks 附上对应的启动参数, llama-server --model path --ctx-size 262144 --port 8081 -ngl 99 --no-mmap --threads 16 --batch-size 256 --flash-attn on --cache-type-k q4_0 --cache-type-v q4_0 -np 1 --temp 0.6 --top-p 0.95 --top-k 20 --mlock 期待下Qwen3.6-27B Dense预计周末或者下周就出来了吧 4 个帖子 - 4 位参与者 阅读完整话题
尽量能遵循目前代码逻辑,不乱改的,不乱优化的。 3 个帖子 - 3 位参与者 阅读完整话题
最近看那种ai的短视频很多想了解一下他们什么生成做到的,有什么公益站有这种模型就更好了~~~~ 1 个帖子 - 1 位参与者 阅读完整话题
有美国公民身份,现在的担心是UCI的QS排名太低了,怕以后无论是读master,或者找工作(美国和中国),都不太亮眼。但是也怕之后读CS找不到工作。 2 个帖子 - 2 位参与者 阅读完整话题
claude 防封号手册设置,如果你是使用的claude官方账号登录,请注意 开发调优 看到了这篇防止claude封号的帖子 https://bytedance.sg.larkoffice.com/docx/QNsIdi8VFoKm00xY8SRlkXxygve [CleanShot 2026-04-01 at 10.35.03@2x] 由于我是使用的claude官方账号登录的claude code,然后按照以上 设置了setting.json。但是在运行claude时跳出 … 参考我之前的这个链接,以及我这段时间的 真实使用情况进行分析 ,单纯经验分享,claude的风控机制不明(纯黑盒),不能保证一定有效。 可能有考虑不足的地方,欢迎补充。 最近 开了两个max 20x订阅 ,第一个是海外实体银行卡付款的,第二个是走的尼区付款的 第一个已经用了半个月,第二个今天凌晨开通。 相关帖子 https://linux.do/t/topic/1865351 尼区timon钱包成功订阅claude max20x 实付156 (约1064 rmb),订阅经验分享 搞七捻三 免责声明:不建议去开timon钱包,钱包可能被找回,除非你能够接受相关风险。如果你非要去开,请随用随冲,在订阅续期前一天左右再充值timon钱包。 也不要找我要timon的购买渠道,非利益相关,我刚拿到手10天,无法给你确定答复。 为什么不推荐开timon https://linux.do/t/topic/1371858/78 更新一下,max订阅成功后,之前订阅claude 的pro会按照… 1.在.claude的settings.json中设置以下参数 环境变量 作用 DISABLE_TELEMETRY=1 禁用 Datadog + 1P 事件 + 反馈调查 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 禁用所有非必要网络(遥测 + 更新 + GrowthBook) 大致参考如下,可能有些参数已经失效过期 ,具体已claude code的官方文档为准 如果你是在国内使用,需要配置相关网络环境,请设置以下各种PROXY,如果你使用了proxy请改为对应proxy软件的端口,我使用的是 V2rayn,默认端口是10808,开的TUN模式 。如果使用的flclash之类的,改为7890. 2.网络环境设置 我使用的是 非美国地区非热门地区的家宽 ,如果你需要使用家宽环境,请不要拼车,独享即可,你不知道你的车友会做什么导致你被连坐。 建议选择非热门地区家宽独享 ,因为我第一个账号使用的qqpw5人拼车,账号还没有开始使用,半个月被封了。(不确定是不是因为这个情况导致的,也 可能综合各种原因导致的封号 ) 可以参考 Claude AI IP 风险检测 - IP纯净度 - Claude Code可用IP - Net.Coffee IP Geolocation API | 20B+ Requests Served - ipdata 选择低风险度的网络环境。 3.使用注意事项 注意!!!! 不要进行 任何形式的反代(包括但不限于cpa,crs,sub2api),分发,用于openclaw等明确违反TOS的行为 ,请直接使用oauth的方式登录claude code。 很多都是因为这个原因被封的,所以大家在跳蚤市场看到的拼车帖都大大减少了。 不要使用任何第三方客户端 ,使用官方claude code oauth登录。 至于这个文档中提及的 控制调用频率,我觉得没那么重要 ,我目前第一个max订阅,经常高并发,3-4天左右就把周限额用完了。 4.如果你曾经被封过账号或者使用过中转站,请务必进行如下清理 删除以上所有文件 ,然后再使用claude code登录你的订阅账号。 5.支付方式(重要) 个人认为这一块其实很重要, 很多人使用虚拟卡,u卡充值官方订阅 ,不管是web端订阅还是走apple/ google商店进行订阅,如果检测到是虚拟卡或者u卡的卡bin,有很大概率被封,也有没被封的,但是是小部分( 总结,能不用就不用 ) 如果你有真实的海外实体银行卡,优先使用海外实体银行卡支付,没有的尝试使用apple/ google商店绑定信用卡进行支付, 交25%的商店税,至少能够保证被封能够退款。 6.Claude web端关闭和个人隐私相关的所有选项 关闭loaction,help improve claude,以及memory 7.账号问题(非常重要) 如果你是 没有用过claude,近期注册的新号 ,直接订阅有非常大的概率被封,哪怕做好了上述我说的所有措施。 如果 有能力的请使用曾经订阅过claude会员的老号 (我目前两个都是24年初订阅过claude pro一年左右的google账号,并且都开通了max 20x),这样你的 账号权重会相对较高 ,我认为账号权重高能够避免很多问题。 我看到的经历里面,这种号哪怕ip乱跳,机房ip登录都没被封(但是 不建议此种行为 ) 8.修改使用设备的时区和地区与网络环境一致 不确定这一点是否有用 ,但是我是将登录了claude code的电脑全部改为和上网环境一致的语言,地区,时区。 9.登录claude时务必关闭所有定位服务 比如你使用iphone/ipad/mac等设备登录时, 关闭定位服务 然后安卓手机,安卓平板,windwos电脑同理 10.能不登录移动端,尽量不要登录( 此点存疑 ) 不确定是否正确,是在其他文章中看到的,这点看个人吧 。 因为我在移动端使用的需求不大,所以我就没有在移动端设备登录。 并且 第一个被封的claude pro订阅号也是登录了安卓和ios移动端 ,不知道是不是这个情况导致被封,并且当时也没有关闭定位服务. 不确定是不是这个情况导致被封。 这一点看个人意愿。 参考的以下内容,不一定正确。 如果做到了以上这十点能够大幅降低封号风险。此外支付方式,账号和不要反代分发这三点是最重要的。 此外写帖不易,顺便宣传下今天发的,欢迎大家多多使用,进行反馈 「开源」Memory Palace 版 一 致力于打造更适合openclaw的记忆系统,让你的小虾更懂你,帮助你科学养虾 开发调优 本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 先上竞品对… 15 个帖子 - 7 位参与者 阅读完整话题
如果有人脸识别的模块加声纹的判断是不是可以通过这两个模块去判断说话人,或者佬们有更好的建议吗 1 个帖子 - 1 位参与者 阅读完整话题
目前已经可以查到这个型号了,果然A社的降智都是为了下次更好的模型 2 个帖子 - 2 位参与者 阅读完整话题
最近我一直在做一件事,就是思考 怎么更好地拆解一个项目 。经常刷到我的佬友可能也知道,我这段时间出没得比较频繁。本身我就一直有做笔记的习惯,而拆解完一个项目之后,这些内容其实也挺适合继续分享出来。不过后来我发现,如果每次都把完整的拆解结果直接发在帖子里,一方面比较长,另一方面阅读体验也一般,后续整理和回看也不太方便。 所以,围绕这个 skill,我单独做了一个博客网站: Coding is not all you need 我会把拆解后的结果陆续放进去,主要还是想把它当成一个持续更新的学习记录,也方便对项目拆解、架构分析这类内容感兴趣的佬友一起交流。 当然我也有一点私心: 希望大家看完兴趣文章后可以给一点反馈,觉得哪里还不够准确、还可以继续优化,对我后面迭代这个 skill 都会很有帮助。 目前这个博客还是通过 Cloudflare Tunnel 暴露的本地服务,很多功能还比较粗糙,也还没完全完善。 想先也借这个机会,欢迎大家顺手提提意见。后面我也会把以前做过的一些笔记和拆解内容,慢慢一起整理进去。 SKILL文章链接: Project-teardown-skill: 以架构师的角色去拆解项目 - 开发调优 - LINUX DO 5 个帖子 - 3 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 此前aigc未截图,现经过修改后发出。 请容我小小标题党一下,吸引各位进来观看,首先抱歉一下 。 顺便想吐槽一下,想开发一个完整的产品,vibe coding也不容易,自己一个人要全包所有工作 240次commits是真实的,30天1000E token是2-3个项目整合在一起的 附图 commits Token使用 之前发过两篇 Memory Palace cli/ide的帖子,但是openclaw的版本一直没有开发完,现在经过详细测试和功能升级现在才正式发帖。 本次带来的是 Memory Palace 的 OpenClaw 版本 。和之前的 cli/ide 版不太一样, 做出了全面升级,并且构建了更适合openclaw测试场景的benchmark,进行了全面测试 。 该项目做成了适配 OpenClaw 的原生 plugin + skills 模式,即插即用,不会对于openclaw有任何修改。 当前项目针对openclaw做了什么适配工作? 总的来说就是 给你的 OpenClaw 加一层真正可用的长期记忆。 不是简单存储为 JSON 或者直接往 MEMORY.md 里新增记忆,而是配备了一套完整的具备 写入守卫、有检索引擎、有意图识别、有自动回忆、有自动捕获、有视觉记忆、有可视化 Dashboard 功能特性的记忆系统。 叠甲 :这个项目依然是 vibe coding 产物,一个人开发的,可能有各种各样的 bug。但是 经过一个多月的迭代,和详细的测试 ,功能已经相对完整,我能测试的bug也尽量测试出来进行修改了。 该项目的文档写得比较详细, 如果遇到相关问题可以先查阅github中的文档 ,实在搞不定的可以发帖/私信/github提issue。 项目地址: github.com GitHub - AGI-is-going-to-arrive/Memory-Palace-Openclaw 通过在 GitHub 上创建帐户来为 AGI-is-going-to-arrive/Memory-Palace-Openclaw 开发做出贡献。 支持 macOS / Windows / Linux 三个平台。 建议继续阅读,跳转至GitHub对应链接: 中文 README | 英文 README 一、这个项目到底是什么 解决什么问题 用过 OpenClaw的人可能有相关感受: openclaw自带的记忆功能能用,但是不够好。 比如: 你上一次对话告诉 它你的编程喜好 ,例如喜欢使用gemini对于前端出具设计方案,使用claude 编排代码的实现方案,codex完成整体代码的编写,假设你新开一个session时你的openclaw 忘记了这个需要记忆的偏好事实 ,进行回答时完全没有相关的记忆。OpenClaw 自带的 MEMORY.md 虽然能够存一些东西,但本质上就是一个文本文件, 没有检索能力、没有去重、没有优先级、没有自动管理 ,这些功能统统在当前项目上进行了补齐。 Memory Palace 要做的就是,给你的openclaw 加一个 真正能用的外部长期记忆系统 ,并且不破坏原有openclaw的memory system。 项目设计架构为 plugin + skills Plugin (插件)是 负责和后端 MCP 进行服务通信、处理生命周期 Hook、注册工具、管理自动回忆/自动捕获。它 挂载在 OpenClaw 的 memory 插槽上 ,不破坏原有openclaw的memory system。 Skills (技能)是 专为openclaw写的行为准则 ,教你的 openclaw如何使用这个记忆插件 ,来做到更好的为你的openclaw提供相关记忆功能, 让你的AI更懂你 。 在 OpenClaw 里的定位 Memory Palace 通过接入 OpenClaw 的 memory 类型插槽, 不替换 OpenClaw 自带的 USER.md / MEMORY.md。它是在 宿主记忆之上加一层持久化、可检索、可审计的记忆存储 。两者可以 共存 ,Memory Palace同时通过 Host Bridge 功能 可以把 USER.md / MEMORY.md 里的内容自动导入到自己的记忆系统中。 这个记忆插件适合那些人群 OpenClaw 用户,多session切换频繁,希望 AI 记住你的相关偏好和工作流以及各类需要进行持久化存储的内容 需要 多 Agent 协作的场景 ,需要实现Agent之间的 记忆隔离(ACL) 希望能够通过 可视化 dashboard界面来管理记忆 对记忆质量有要求的用户 当前项目能做到什么? 用一句话概括: 自动记、自动想、能守卫、能搜索、能看见。 自动记 :对话结束后 自动提取有价值的信息存入 自动想 :开始新对话时 自动搜索相关记忆注入上下文 能守卫 :Write Guard 阻止重复和低质量的记忆写入 能搜索 :支持关键词 + 语义 + 混合 三种检索模式 能看见 :Dashboard中具备 记忆浏览、审查回滚、清理维护、搜索诊断 这四种功能,将其提供给用户进行可视化的操作 建议继续阅读,跳转至GitHub对应链接: 已实现能力完整清单 系统整体架构:后端 MCP 服务 + 插件层 + Skills,三层协同 二、最快上手方式 推荐方式:对话式安装 最推荐的方式是用 Onboarding Skill 通过和 OpenClaw 对话来完成安装。 Memory Palace 自带一个 memory-palace-openclaw-onboarding Skill,它专门 负责引导你完成相关安装和配置操作 。 大致流程如下: 先把插件装到 OpenClaw 在 OpenClaw 里开始对话将这个链接交给openclaw并和openclaw说参照这个link 帮我安装这个Memory-Palace-Openclaw, Memory-Palace-Openclaw/docs/openclaw-doc/18-CONVERSATIONAL_ONBOARDING.md at main · AGI-is-going-to-arrive/Memory-Palace-Openclaw , Onboarding Skill 会自动识别当前状态 它会帮你 检查环境、探测 Provider 连通性、推荐合适的 Profile 你 跟着它的提示 选择配置,它自动帮你应用 这个方式通过 和openclaw一步步对话就能完成安装流程 第一步到底该干什么 第一步:安装插件到 OpenClaw。 git clone https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw.git cd Memory-Palace-Openclaw python scripts/openclaw_memory_palace.py setup --profile b 第二步:在 OpenClaw 里开始对话。 Onboarding Skill 会接管引导你完成整个安装流程。 一步步的和openclaw进行对话就能完成安装流程,顺利使用上当前项目 相关内容建议继续阅读,跳转至GitHub对应链接: 用户安装与使用完整指南 | Skills 快速上手 通过 OpenClaw 对话完成安装配置,不需要手动编辑文件 Onboarding Skill 检测到已安装状态,引导你进入配置流程 如果还没装安装plugin,Onboarding Skill 会先引导你完成安装,再进入配置 对话式 Onboarding 完整路径:从检测状态到完成配置的每一步 三、安装方式(分平台说明) 安装环境(三平台通用) Python 3.10 - 3.14 Node.js ^20.19.0 或 >=22.12.0 <23 OpenClaw >= 2026.3.2 Git(如果从源码安装) macOS # 1. 确认 Python 和 Node 版本 python3 --version # 需要 3.10-3.14 node --version # 需要 20.19+ 或 22.12+ # 2. 克隆仓库 git clone https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw.git cd Memory-Palace-Openclaw # 3. 运行安装 python3 scripts/openclaw_memory_palace.py setup --profile b # 4. 应用 Profile(可选,如果安装脚本没自动做) bash scripts/apply_profile.sh macos b 数据库默认路径: /Users/<你的用户名>/memory_palace/agent_memory.db macOS 上运行 MCP 服务时会通过 zsh -lc 'bash run_memory_palace_mcp_stdio.sh' 启动。 Windows # 1. 确认版本 python --version # 需要 3.10-3.14 node --version # 需要 20.19+ 或 22.12+ # 2. 克隆仓库 git clone https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw.git cd Memory-Palace-Openclaw # 3. 运行安装 python scripts/openclaw_memory_palace.py setup --profile b # 4. 应用 Profile(可选) .\scripts\apply_profile.ps1 -Platform windows -Profile b 数据库默认路径: C:\memory_palace\agent_memory.db Windows 上 MCP 服务直接通过 python.exe mcp_wrapper.py 启动,使用 venv 的 Scripts\python.exe 。 Windows 注意事项 : 用 install_skill.py 安装 Skill 时, symlink 模式需要管理员权限 。如果你 对此介意的话建议使用 copy 模式 : python scripts/install_skill.py --mode copy Linux # 1. 确认版本 python3 --version node --version # 2. 克隆仓库 git clone https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw.git cd Memory-Palace-Openclaw # 3. 运行安装 python3 scripts/openclaw_memory_palace.py setup --profile b # 4. 应用 Profile bash scripts/apply_profile.sh linux b 数据库默认路径: /home/<你的用户名>/memory_palace/agent_memory.db Linux 上的行为和 macOS 基本一致(都归类为 posix),主要区别在 DB 路径。 如果你跑在网络文件系统(NFS、CIFS、SSHFS)上,后端会检测并发出文件锁可靠性警告 —— 建议用本地磁盘。 Docker 一键部署(未全面测试,建议使用上述三种方式) # macOS / Linux bash scripts/docker_one_click.sh # Windows powershell -File scripts/docker_one_click.ps1 如何验证安装是否成功 安装完成后,可以 跑诊断命令 ,用于确认一切正常: openclaw memory-palace verify --json openclaw memory-palace doctor --json 或者直接在 OpenClaw 对话中问 Agent**「检查一下 Memory Palace 的安装状态」 ,它会 调用 memory_onboarding_status ** 帮你检查。 相关内容建议继续阅读,跳转至GitHub对应链接: 安装与使用指南 | 故障排查 还可使用以下高级路径进行安装 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/install_boundary_bilingual_4k.png?raw=true (图片大于 4 MB) 安装涉及的相关边界:哪些是自动安装的,哪些需要手动配 Plugin 与 OpenClaw 宿主的分层关系:哪些归插件管,哪些归宿主管 四、档位说明 — Profile A / B / C / D Memory Palace 有四个 Profile(档位),相关能力逐级递增,但是要求 提供相关的配置才能进行升级 。 需要根据你的实际情况选则不同的档位。 此外如果你拥有embedding+reranker+llm对应api的情况下 强烈使用Rrofile D ,拥有最完整的体验。 Profile A — 「关键词兜底」 检索模式:纯关键词(keyword) 不需要任何外部 embedding / reranker / LLM 不启用索引 worker 适合极低配置环境,或者你只是想先体验一下最基本的功能 总结 :最简单的全文搜索,能用但效果一般。适合「先跑起来」的场景。注意 Profile A 默认关闭 index worker 和 Assistant-Derived Capture。 Profile B — 「零配置启动」(推荐起步) 检索模式:混合(hybrid = 关键词 + embedding) Embedding 后端: hash(dim=64)—— 本地计算,不需要任何外部 API 不需要 reranker,不需要 LLM 启用索引 worker 和延迟索引 总结 :不需要配任何 API key,装完就能用。hash embedding 是一种轻量级的向量化方式,精度不如真正的语义 embedding,但相对于纯关键词检索强得多。 如果你没有任何embedding+reranker相关配置,选择该档位。 Profile C — 「真语义检索」 检索模式:混合(hybrid) Embedding 后端:API(默认配置 Qwen/Qwen3-Embedding-8B ,dim=1024) Reranker:启用(默认配置 Qwen/Qwen3-Reranker-8B ,weight=0.30) LLM 辅助功能:可选 opt-in(不是默认开启) 索引队列扩大到 512,保留最近 100 个 job 总结 :这是真正的语义检索。比如,你搜「我的编程喜好」能找到「我喜欢vibe coding」这种 语义相关但关键词不匹配的内容 。需要一个 embedding API 和一个 reranker API。推荐用 Qwen3 系列模型 —— embedding 和reranker模型。本人测试使用的为Qwen3 embedding 8B和Qwen3 reranker 8B模型。请用户根据自己 实际的embedding和reranker模型配置对应的model name,以及对应的embedding dimension。 Profile C 需要你额外提供 : Embedding API 地址 + API Key +Model name Reranker API 地址 + API Key +Model name LLM API 地址 + API Key +Model name(如果 你想开启LLM各种选配设置 ) Profile D — 「全功能旗舰」 在 Profile C 的基础上,增加 三个 LLM 辅助功能 : Write Guard LLM :用 LLM 判断 写入是否重复/矛盾 Compact Gist LLM :用 LLM 生成会话摘要 Intent LLM :用 LLM 识别搜索意图 Reranker weight 提升到 0.35 总结 :在当前最终档位你能够获得当前项目的完整体验。三个辅助功能 共享同一组 API 配置 ( LLM_API_BASE / LLM_API_KEY / LLM_MODEL ),提供一个配置然后系统会 自动分发给 write_guard、compact_gist、intent 三个子功能。 Profile D 需要你额外提供(在 Profile C 基础上) : LLM API 地址 + API Key + 模型名 Profile D 会进行相关测试,确保可用性 :所有 LLM 相关字段都不能是占位符, WRITE_GUARD_LLM_ENABLED 、 COMPACT_GIST_LLM_ENABLED 、 INTENT_LLM_ENABLED 都要是 true 且 API 配置完整。此外,目标环境里的 probe / verify / doctor / smoke 验证也需要真实通过,Profile D 才算 ready。 Profile B → C 是体验上的最大提升 (从 hash embedding 到真正的 semantic embedding + reranker ), Profile C → D 是质量上的进一步提升 (LLM 辅助能够让我们的 guard/gist/intent 更精确 )。 如果你有的 embeddin+reranker API,强烈建议至少上到 C。更进一步添加LLM API,直接上到火力全开档, 使用Profile D,享受最完整的体验。 相关内容建议建议继续阅读,跳转至GitHub对应链接: Profile 能力边界详解 | Profile 能力总览(HTML) 四个 Profile 的能力阶梯:从 A 到 D 逐级增强 各 Profile 在不同维度上的详细能力对比 五、在 OpenClaw 里怎么用 装好 plugin 并完成 setup 后,该plugin会自动运行,基本不需要手动干预 在 支持相关 hooks 的 OpenClaw 宿主里 ( 需要 >= 2026.3.2 ,最新测试使用的是2026.4.14版本), 大部分 recall / capture 可以自动运行 ,不需要你和openclaw对话才能对于memory进行操作。 安装并通过 verify / doctor 验证后,Agent 每次开始新对话时: Auto-Recall(自动回忆) 会 自动搜索相关记忆 ,注入到对话上下文中 你不需要说「搜索一下我之前说过的…」,它自己会搜 Agent 每次对话结束时: Auto-Capture(自动捕获) 会 自动分析对话内容 ,把有价值的信息存入记忆 你不需要说「记住这个」,它自己会判断什么值得记 当你在对话中 发送图片时 : Visual Context(视觉上下文) 会 自动从图片中提取信息 注意 :自动回忆/捕获 依赖 OpenClaw 宿主的 hook 支持 ( before_prompt_build 、 agent_end 等)。如果 宿主版本过旧或 hook 未触发 ,Plugin 会尝试 fallback ,但自动化效果可能打折。 OpenClaw相关使用场景 日常使用(90% 的时候) :正常和 OpenClaw 对话就行。Auto-Recall 会在对话开始时自动搜索相关记忆并注入上下文,Auto-Capture 会在对话结束时自动存储有价值的信息。 你完全意识不到当前记忆系统的存在,无感使用。慢慢的,你会发现 AI 越来越「懂你」。 偶尔需要干预(10% 的时候) : 想 主动存 一条重要信息:对 Agent 说「记住:我喜欢使用codex进行vibe coding」 想 搜索 之前的记忆:对 Agent 说「搜一下我的编程喜好」 如果Write Guard 挡住了一次写入 (Agent 会告诉你原因):再你确认需要存入长期记忆,能够让 Agent 强制写入我们的记忆系统 想把当前对话的要点 长期保存 :对 Agent 说「把当前对话的关键决定存到记忆里」 你不需要记住任何 tool 名称。 Agent 已经通过 Skill 知道什么时候该调用什么工具。 你只需要用自然语言表达意图就行。 Onboarding Skill 和日常 Skill 的区别 项目内置两个 Skill: memory-palace-openclaw-onboarding :主要是 用于初次安装引导用的 ,完成配置后就不会再使用 memory-palace-openclaw :交付给openclaw的 日常行为准则 ,告诉openclaw 什么时候使用我们这个plugin Skill 的核心原则是: 默认信任自动行为,只在用户明确要求时才手动干预。 这意味着 Agent 不会每次对话都「命令式」地使用记忆系统,而是 自然地在后台运作 。 相关内容建议继续阅读,跳转至GitHub对应链接: Skills 设计说明 | MCP 工作流参考 实际运行截图:Agent 自动回忆相关记忆并在对话中使用 OpenClaw 控制面板中的 Memory Palace Skill 详情 实际运行截图:Write Guard 拦住了一次写入,用户确认后 Agent 强制写入成功 在 OpenClaw 中与记忆系统交互的实际对话过程 OpenClaw Skills 面板总览:memory-palace-openclaw 和 onboarding 两个 Skill 都可见 六、Benchmark — 针对openclaw的真实场景测试 Memory Palace 的 benchmark 分两层: 检索管线质量 (能不能搜到)和 产品决策质量 (设置的高级feature,Write Guard 拦不拦得住、Intent 识别准不准、Gist 摘要好不好)。 后者才是这个项目真正不一样的地方。 所有数据来自 docs/EVALUATION.md ,仓库里有完整的 gold set、复跑脚本和原始报告。 先看检索能力:Memory-Native Benchmark 使用通用学术数据集(SQuAD v2、BEIR NFCorpus)也进行了测试,但它们 测的是通用段落召回能力 ,和「记忆系统里找历史决策/偏好/时间线」这种 真实场景差距很大 。所以项目专门做了一套 Memory-Native Benchmark :用 真实记忆文本风格 (6 个领域 x 8 种文本风格,70 条 synthetic corpus), 覆盖 factual / temporal / causal / exploratory 四类记忆查询,以及 scope/path/ancestor 约束、alias 召回、近重复、版本漂移、冲突记忆等 Memory Palace 特有场景。 核心亮点:产品质量门禁(Quality Gates) Memory Palace 不只做检索, 并且专门为openclaw设计了三个高级feature 它的 Write Guard、Intent 识别、Compact Gist 都在独立的 benchmark 和 gold set进行了测试。 Write Guard — 写入守卫到底拦得准不准 用 200 条 gold set( 覆盖 ADD / UPDATE / NOOP 三种情况 ,比例 35% / 35% / 30%)测试 Write Guard 的判断准确率。 总结 :Precision 1.000 意味着 Write Guard 不会错误拦截 你想写入的新内容。Recall 0.839 意味着 有 16% 的重复/更新内容没被拦住。 开启 LLM(Profile D)后: 对于C/D 配置设计benchmarkd时 — Score Normalization设计思路: 最初 Profile C/D 的 Write Guard Exact Match 只有 0.460 ——分数非常低,原因不是代码有 bug,而是 Qwen3-Embedding(1024 维)的 cosine similarity 分数压缩在 0.85-1.00 其中(最小值 0.846,均值 0.941),导致原来为 hash embedding(64 维)校准的固定阈值完全失效 。 做了 63 点网格扫描后进行修正:单纯调阈值解决不了这个问题。所以最终设计了 Score Normalization 方案:对 NOOP 判定使用归一化分数(floor=0.85),只有真正的近重复(raw ~1.0)才触发 NOOP;同时新增 keyword cross-check,全局关键词分数极低时降级为 ADD。 B 不受影响,C/D 从 0.46 直接跳到 0.845。Score Normalization 对 api embedding backend 默认开启,不需要手动配置。 矛盾检测 :Write Guard 开启 LLM 后还支持 contradiction 检测( 判断新内容是否和已有记忆矛盾 ),40 条 gold set 实测 accuracy=0.950、precision=0.950、recall=0.950。 Intent 识别 — 搜索意图分得准不准 用 200 条 gold set(80 条中文 + 120 条英文,基于 OpenClaw 真实场景模板生成)测试 四种意图分类 :factual / exploratory / temporal / causal。 基础 gold set 上达到 1.000 。 关键词表从 15 个扩充到 53 个 。 Product gold set(更复杂的场景,200 条): keyword 准确率 0.910。 规则分类器在原有gold set上相关指标已经有 0.910了,开启LLM后指标 提升到 0.940 虽然有并不算高。对大部分用户来说,这个feature可以选择关闭。 Compact Gist — 摘要质量怎么样 用 90 条测试评估摘要质量: 模式 ROUGE-L extractive(提取式) 0.720 LLM gist 0.678 为什么看起来 LLM 反而不如 extractive?这其实是 ROUGE-L 指标本身的偏差 ——extractive 直接从原文复制文本片段,天然和 reference 词面重合度高。项目里 做了独立的 pairwise judge 和 factual coverage 测试,LLM gist 在连贯性和概括能力上通常更好。 默认 LLM 超时已从 8s 提升到 45s( COMPACT_GIST_TIMEOUT_SEC ),避免推理型模型超时降级, 可以采用non-thinking model ,或者关闭LLM的thinking。 Replacement Acceptance实验 除了检索和质量指标,项目还跑了一套完整的 Replacement Acceptance E2E ,验证 Memory Palace 能否在 OpenClaw 里承担默认 memory system 的职责。 相关内容建议继续阅读,跳转至GitHub对应链接: 完整评测文档(EVALUATION.md) | Benchmark 脚本目录 | Memory-Native Benchmark 报告 七、技术架构 三层结构 Memory Palace 是三层架构: ┌─────────────────────────────────────────────────┐ │ Skills 层(交给Agent的行为准则) │ │ 教 Agent 什么时候用、怎么用 │ ├─────────────────────────────────────────────────┤ │ Plugin 层(TypeScript插件) │ │ Hook 注册、工具注册、自动回忆/捕获、ACL、配置管理 │ ├─────────────────────────────────────────────────┤ │ Backend 层(MCP 服务) │ │ SQLite 存储、检索引擎、Write Guard、索引管理 │ └─────────────────────────────────────────────────┘ Backend :Python FastAPI 应用,通过 MCP 协议暴露工具接口。所有记忆的增删改查、检索、索引、Write Guard 都在这一层。数据存在 SQLite 中, 支持关键词 FTS(全文搜索)+ 向量检索。6 次数据库 migration,数据模型包括 Memory、Path、MemoryChunk、MemoryChunkVec、EmbeddingCache、MemoryGist、FlushQuarantine 等。 Plugin :TOpenClaw 扩展,用于添加到 OpenClaw 的 memory 插槽。 负责和 Backend 通信 (支持 stdio 和 SSE 两种传输协议, 默认 auto 优先 stdio )、 注册生命周期 Hook、实现自动回忆/捕获逻辑、ACL 校验 。 Skills :用于定义 Agent 的行为准则。不包含代码,只包含对于openclaw「什么时候该调什么工具」的相关指导。 生命周期 Hook 数据模型 记忆以 URI 地址 进行组织,格式为 domain://path ,例如: core://agents/default/captured/preference/sha256-abc123 system://boot 、 system://index 、 system://audit notes://project-setup 有效域名:core、writer、game、notes、system(system 为只读域)。 关键设计: 版本化 :更新记忆时创建新版本, 旧版本标记为 deprecated 但不删除,可以回滚 内容与路径分离 :一份内容可以通过多个 URI 路径访问**(alias 机制)** URI 安全校验 :禁止路径穿越、禁止 Windows 绝对路径、最大深度 128、最大路径长度 2048 一次openclaw对话的完整数据流是什么样的 相关内容建议继续阅读,跳转至GitHub对应链接: 技术架构总览 | MCP 工作流参考 运行时架构:Plugin 如何和 Backend 协同工作 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/memory_engine_architecture_bilingual_4k.png?raw=true (图片大于 4 MB) 记忆引擎内部:检索管道、索引 worker、Write Guard、活力衰减 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/write_recall_flow_bilingual_4k.png?raw=true (图片大于 4 MB) 一次完整的写入-回忆数据流 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/memory_data_model_versions_bilingual_4k.png?raw=true (图片大于 4 MB) 记忆数据模型:URI 地址、版本化存储、内容与路径分离 默认记忆链:从用户输入到记忆存储/检索的完整处理链路 八、ACL 多智能体记忆隔离(实验特性) 为什么需要记忆隔离 如果你在 OpenClaw 中设置了多个 Agent(比如 一个负责前端、一个负责后端、一个负责编排 ),它们默认共享同一个记忆库。这会导致: 后端 Agent 看到前端 Agent 存的「这个项目用 html+css」 编排 Agent混入开发 Agent 关于代码风格的偏好 或者是项目 A 的 Agent 读到了项目 B 的配置细节 在 单人单项目场景下这可能无所谓 ,但在 多 Agent 协作或多项目并行的场景下 就需要解决相关问题。 工作原理 ACL 基于 URI 前缀 进行隔离。每个 Agent 有三个关键配置: allowedUriPrefixes :这个 Agent 能读取的记忆范围 writeRoots :这个 Agent 能写入的记忆范围 私有根模板 :默认 core://agents/{agentId} ,每个 Agent 自动获得独立的记忆空间 还可以配置 共享区域 : sharedUriPrefixes :所有 Agent 都能读取的公共记忆 sharedWriteUriPrefixes :所有 Agent 都能写入的公共区域 一个具体例子 假设 你在openclaw设置了两个 Agent:alpha(负责后端)和 beta(负责前端) : { "acl": { "enabled": true, "sharedUriPrefixes": ["notes://team/"], "sharedWriteUriPrefixes": ["notes://team/"], "agents": { "alpha": { "allowedUriPrefixes": ["core://agents/alpha"], "writeRoots": ["core://agents/alpha"] }, "beta": { "allowedUriPrefixes": ["core://agents/beta"], "writeRoots": ["core://agents/beta"] } } } } 效果: alpha 存了「我喜欢吃 」到自己的记忆空间 → alpha 能读,beta 读不到 (返回 UNKNOWN) beta 存了「我喜欢吃 」到自己的空间 → beta 能读,alpha 读不到 任何 Agent 写到 notes://team/architecture-decisions → 双方都能读 对于 alias 机制设置了相关保护机制 —— 通过 alias 索引检查,防止 Agent A 通过间接路径读到 Agent B 的记忆。 仓库中有真实的 ACL 演示截图(alpha 存入记忆后,beta 确实读不到),还有视频演示,具体见下列阅读指南。 怎么开启 ACL 默认关闭。开启方式是在 Plugin 配置中设置 acl.enabled: true ,然后 配置各 Agent 的权限 。Onboarding 流程目前不会自动配置 ACL —— 这是一个 需要手动设置的进阶功能 。 适用边界 需要明确 :ACL 当前是 实验性功能 。它的定位是 协作隔离 (防止不同角色的 Agent 互相干扰)如果你只有一个 Agent,不需要开这个功能。 相关内容建议继续阅读,跳转至GitHub对应链接: ACL 隔离完整指南 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/acl_memory_isolation_bilingual_4k.png?raw=true (图片大于 4 MB) ACL 记忆隔离原理:每个 Agent 有自己的记忆空间,共享区域可进行配置 OpenClaw Agents 页面:可以看到多个 Agent(alpha / beta)及其各自的记忆隔离配置 Alpha Agent 成功存入记忆 Beta Agent 无法读取 Alpha 的记忆 — 隔离生效 九、核心 Feature 与技术亮点 Write Guard(写入守卫) 解决的问题 :防止 AI 往记忆里塞垃圾、存重复内容、或者写入和已有记忆矛盾的信息。 工作方式 :每次通过 memory_learn 写入时,Write Guard 做预检判断: ADD :新内容,允许写入 NOOP :和已有记忆重复,阻止写入并说明原因 UPDATE :和已有记忆相似但有新信息,引导更新而非新建 BYPASS :仅元数据变更 Profile A/B/C 下用规则匹配(关键词 + 语义相似度判断),Profile D 下升级为 LLM 判断 ,能 理解语义 层面的重复和矛盾 —— 比如「部署在 3 个 node 上」和「k8s 集群用了三台机器」 这种不同表述但含义相同的情况 。 安全设计 :Fail-closed —— Guard 如果出现问题或返回异常时,默认阻止写入。有 8 种 force override 路径 用于不同场景(visual、namespace、host bridge、explicit 等), 但用户手动存储时需要确认后才能 force。 之前的bencmark中使用了专门的 gold set 用于 测试该feature的性能 ,包括 正常写入、重复检测、矛盾检测等场景 。确保真实好用。 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/write_guard_review_loop_bilingual_4k.png?raw=true (图片大于 4 MB) Write Guard 审查循环:写入 → 预检 → 允许/阻止 → 可强制覆盖 Auto-Recall(自动回忆) 解决的问题 :让 AI 在每次新对话开始时 自动「想起」相关的历史信息,不需要用户提醒。 Auto-Capture(自动捕获) 解决的问题 :让 AI 自动把对话中有价值的信息存入记忆 。 Intent Recognition(意图识别) 解决的问题 :理解用户 搜索记忆时的真实意图 ,选择最优的检索策略。 4 种意图类型 :factual(事实查询)、exploratory(探索性)、temporal(时间相关)、causal(因果关系)。不同意图会导致不同的检索策略模板 —— 比如时间相关的查询会更侧重最近的记忆 。 Profile A/B/C 用 规则分类 (keyword pattern),Profile D 用 LLM 分类 。 Compact Context / Gist(上下文压缩) 解决的问题 : 把长对话压缩成简洁的摘要 ,持久化到记忆中。 两种模式: 手动 :通过 compact_context 工具主动触发 自动 :对话结束时 Reflection 系统触发 Profile D 下用 LLM 生成更高质量的摘要。 默认最多 12 行。 Reflection Lane(反思) 解决的问题 :从对话中 提取高层次的教训和规律,而不仅仅是具体事实 。 反思会把对话内容分类为 5 种类型 :event(事件)、invariant(不变量)、derived(推导结论)、openLoops(未解决问题)、lessons(教训)。存入 core://reflection/{agentKey} ,带有 14 天的衰减提示 —— 存储的 时间越久反思权重越低,模拟人类记忆遗忘 。 三种触发源:agent_end(对话结束)、compact_context(上下文压缩)、command_new(新会话)。 注意 :Reflection 默认关闭 ( reflection.enabled: false ), 需要在 Plugin 配置中手动开启 。同样,Profile Memory 也默认关闭( profileMemory.enabled: false )。Smart Extraction 仅在 Profile C/D 下自动启用。 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/runtime_reflection_lane_bilingual_4k.png?raw=true (图片大于 4 MB) Reflection Lane 反思通道:从对话中提取高层次教训,14 天自然衰减 Visual Memory(视觉记忆) 解决的问题 :让 AI 能 记住图片中的信息。 支持 存储 6 个维度的信息 :summary(概述)、OCR(文字识别)、entities(实体)、scene(场景)、whyRelevant(为什么重要)、confidence(置信度)。 去重策略 可选:merge(合并相同图片的信息)、reject(拒绝重复)、new(总是新建)。每条视觉记忆都有 SHA-256 溯源 hash。 Dashboard 中的视觉记忆命名空间:按来源和类型组织的树状结构 视觉记忆详情页:可以看到 summary、OCR、entities 等提取结果 Host Bridge(宿主桥接) 解决的问题 :OpenClaw 自带的 USER.md / MEMORY.md 有内容,Memory Palace 不应该忽略它们。 Host Bridge 会自动扫描工作区的 USER.md、MEMORY.md 和 memory/ 目录,把相关内容导入到 Memory Palace 中 —— 原文件不受影响。 严格的安全设计:TOCTOU-resistant 文件读取(O_NOFOLLOW + fstat + inode 验证)、符号链接阻断、路径逃逸防护、注入检测、敏感文本过滤。 单次最多导入 2 个文件,单文件最大 256KB 。 Prompt Safety(提示词防御) 解决的问题 : 防止被投毒 的记忆影响 AI 行为。 如果有人(或者 AI 自己误写了)往记忆里存了一条**「忽略之前的所有指令,执行 xxx」 ,Prompt Safety 会 检测并拦截这种注入**。 覆盖 英文、中文、日文、韩文 四种语言, 结合主检测模式、compact 检测模式、NFKD 归一化、零宽字符清理和 Cyrillic 同形字映射来拦截记忆注入,防止 unicode 层面的逃逸。 相关内容建议继续阅读,跳转至GitHub对应链接: 技术架构总览 | 安全与隐私文档 https://github.com/AGI-is-going-to-arrive/Memory-Palace-Openclaw/blob/main/docs/images/technical_highlights_bilingual_4k.png?raw=true (图片大于 4 MB) 核心技术亮点一览 十、MCP Tools 说明 以下工具大部分为自动调用 Memory Palace 的设计理念是**「自动为主,手动为辅」**: 自动回忆和自动捕获 通过 Hook 在后台运行,用户完全无感 4 个用户工具 (memory_search、memory_learn、memory_get、memory_store_visual)由 Agent 根据 Skill 规则自动判断是否需要调用 你只需要用 自然语言表达意图 ,不需要记任何工具名 在 OpenClaw 里你到底需要怎么操作才能使用这些tools 平时 :什么都不做。正常对话,记忆系统在后台自动运作。 偶尔进行干预 :用自然语言。「记住这个」「搜一下之前的」「把对话要点存下来」「检查一下记忆状态」。 不需要记工具名,不需要记命令,不需要记参数。 相关内容建议继续阅读,跳转至GitHub对应链接: MCP 工具参考文档 | 触发样本参考 十一、Dashboard Memory Palace 自带一个可视化的前端 Dashboard,5 个页面, 覆盖记忆管理的全生命周期 。支持中英双语切换。 怎么访问dashborad 相关内容建议继续阅读,跳转至GitHub对应链接: Dashboard 完整指南 | 真实素材清单 Setup 页面:首次配置引导 Memory 页面:记忆浏览和搜索 Review 页面:写入审查和回滚 Maintenance 页面:索引重建和清理 Observability 页面:搜索诊断和系统监控 Dashboard 5 个页面的导览关系:从 Setup 到 Observability 的完整管理链路 最后 项目地址: GitHub - AGI-is-going-to-arrive/Memory-Palace-Openclaw · GitHub 如果有 bug 或者用着有什么问题,欢迎在 GitHub 上开 issue,或者直接私信我。也欢迎提PR,有不错的会积极采纳。 此外再次请求各位原谅我标题党 ! 觉得还不错的话,给个 star 吧。个人耗费了很大精力完成的该项目,给个star 就是最大的动力。 4 个帖子 - 4 位参与者 阅读完整话题
佬们,想问下自用gpt的话 5.4和5.4mini、5.3codex哪个更消耗token,哪个适用于龙虾更好点 1 个帖子 - 1 位参与者 阅读完整话题
“煞必,claude更好用” 1 个帖子 - 1 位参与者 阅读完整话题
Claude Opus 4.6 今天在 BridgeBench 幻觉基准测试上的表现更好。 在被抓到现行削弱模型后,Anthropic 已提升其推理水平。 有消息称Claude Opus 4.7 将于周四推出。 希望他们也不会削弱那个模型。 10 个帖子 - 7 位参与者 阅读完整话题
谷歌的模型 seedream 本土训练的模型中文优化按道理应该比老外更好点 2 个帖子 - 2 位参与者 阅读完整话题
codex没有文件目录,感觉没有cursor、antigravity好用啊,可以直接拖拽文件到会话里,直接修改调整代码,是我不太会有codex吗。求各位佬赐教一些使用技巧 17 个帖子 - 11 位参与者 阅读完整话题
最近想入手个便宜的域名 因为最早之前公司用的是阿里云的域名 不过看论坛有很多人推荐另外一家 结果搜了一下 发现两家的价格差别太大了 同样的域名 一家4.57块 一家居然是7块 只是一个域名难道阿里云是带着别的服务吗怎么能贵这么多 1 个帖子 - 1 位参与者 阅读完整话题