智能助手网
标签聚合 claudecode

/tag/claudecode

linux.do · 2026-04-18 20:36:15+08:00 · tech

我的问题:我无法在我的vps上用我的claudecode与codex 昨天我的claude与codex都能用,今天又崩了 我尝试把本地的能用的关键配置文件上传到里面,还是失败不能动,我怀疑是网络问题 vps是无界面的linux 我目前有2个GPT 一个team一个plus(官方) 两个中转站 any与jobema (分别调用claude与glm5.1模型) 我的科学工具 1.clash for linux 2.shellcrash 我能不能ping通youtube? export http_proxy="127.0.0.1:7890" 后,依旧不能,但是之前不能,可是codex还是能动 我的尝试方法 1.npx zcf 2.ccr 3.cc-switch 我想要什么? 我想要有个通用万能简单上手的,直接配置ai的 baseurl key model 就能用的,cli下的一个工具 opencode? 目前打算:卸载目前npx zcf,重新安装,重新配置 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-18 16:15:57+08:00 · tech

无论是在vscode的插件中使用,还是各种版本的gui中,都有一个通病 那就是: 可能ai还在回复,还在执行,因为时间比较长,或者是网络有延迟,或者是输出的信息让gui工具以为这就是最终的回复结果了,然后就戛然而止 即使他说接下来执行什么什么,但是界面中就是已经停止了, 看图: 这个是我使用的是vscode中的插件,昨天感觉很顺滑,今天更新了一下,然后又开始了 其他的gui工具有同样的通病,还是老老实实回到cli吧 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-17 23:08:12+08:00 · tech

坐标Mac,日常主力用 ClaudeCode CLI 做开发,最近公司全面转向 AI全栈开发 ,但现在最大痛点是:AI一次只能处理单个需求/BUG,没法像真实团队一样分工协作,效率卡得很难受。 想请教各位大佬: 有没有方案能搭一套 AI开发团队 ,我只发任务,AI自动接单分工?比如: 产品Agent:梳理需求、出PRD 前端Agent:写页面、调样式 后端Agent:写接口、做逻辑 测试Agent:写单测、做校验 代码评审Agent:把关质量 最好能和ClaudeCode CLI无缝衔接,支持并行处理多个任务、AI之间能互相沟通、任务自动流转,不用我一个个手动投喂。 目前试过基础的多开会话,但上下文割裂、没法协同,很容易乱。想问问大家实战中是怎么玩的?用了哪些工具/脚本/框架?有没有成熟的工作流可以抄作业? 感谢各位大佬分享经验,救救孩子的开发效率 6 个帖子 - 5 位参与者 阅读完整话题

linux.do · 2026-04-17 22:44:10+08:00 · tech

一、背景简介 现在基本上每天都在使用ClaudeCode。每天早上到工位第一件事,就是打开自己写的ClaudeCode下载工具,看有没有最新的更新,有就下载一下。 除了开发一些简单的小任务,也有开发一些复杂的大任务,也就是一些需要上下文很多的任务。 在开发大任务的过程中,发现公司部署的api很容易报错。我用Trae+SpringBoot重写了ccr,所以很容易对调用过程进行追踪,最后发现是公司的chat api报错。 询问了大佬们,才了解到公司的api上下文长度只有128k,这明显不够用。 所以我就去探索了ClaudeCode的官方文档,所以就有了这篇文章。 不得不说,ClaudeCode官网的问答机器人真的十分强大,推荐大家去用用。 二、一些参数 下面我就说明一下,首先是一个统盖 "env": { "ANTHROPIC_AUTH_TOKEN": "test", "ANTHROPIC_BASE_URL": "http://127.0.0.1:11436", "NO_PROXY": "127.0.0.1", "DISABLE_TELEMETRY": "true", "DISABLE_COST_WARNINGS": "true", "API_TIMEOUT_MS": "6000000", "CLAUDE_CODE_REQUEST_TIMEOUT": "6000000", "CLAUDE_AUTOCOMPACT_PCT_OVERRIDE": "70", "DISABLE_AUTOUPDATER": "1", "CLAUDE_CODE_AUTO_COMPACT_WINDOW":"120000", "CLAUDE_CODE_DISABLE_1M_CONTEXT":"1", "CLAUDE_CODE_MAX_OUTPUT_TOKENS":"8000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC":"1" }, 接下来挑几个重点的说说。 1、 CLAUDE_AUTOCOMPACT_PCT_OVERRIDE 在上下文不够用的时候,如果不想让结果变得太差,压缩上下文就是必然选择了。 Claude会自动压缩上下文,这个配置决定了在上下文百分比用到什么程度,进行压缩。 通常来说会给70。 2、 CLAUDE_CODE_DISABLE_1M_CONTEXT 不得不说,ClaudeCode官方模型就是强,能到1M的上下文。显然我这边用不了,所以要用这个配置明确地禁用。 3、 CLAUDE_CODE_AUTO_COMPACT_WINDOW 这个配置可以说是直接告诉了ClaudeCode我这边使用的模型支持的上下文长度,必须配置。 4、 CLAUDE_CODE_MAX_OUTPUT_TOKENS 这个配置作用是告诉ClaudeCode输出的最大token长度。 有个公式如下。指定输出长度,可以让模型更倾向于使用更大的范围来存放其他前置知识,这样出的回答也会更精确 输出+输入=模型上下文 5、 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 这个配置告诉ClaudeCode不要收集客户端的信息,连错误报告也不要。 我不太喜欢上传不必要的信息,虽然不知道有没有用,但既然给了这个参数,就给配上。 三、小结 上面就是我目前用到的几个配置参数,以及一些浅薄的解析。 抛砖引玉,欢迎佬友们在评论区分享其他有趣的内容。 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-17 18:36:41+08:00 · tech

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 大家好,我最近在开发一个远程操控claudecode和codex的全栈项目:采取go后端直接跟claudecode交互,采取json数据流模式。 开发debug过程中遭遇了一个权限授予过程中的问题,让Gemeini搜索了才发现其来源于官方的bug也有相关的issue。 官方也给出了解决方案:解决方案为采用permission-model-auto 在此分享出来希望对有相同开发需求的人有帮助,大家对我这个项目有兴趣也欢迎浏览这个项目,最近正在持续修bug中完善后会单独推广的 github.com GitHub - JayCRL/MobileVC: Turn your phone into the control center for an AI... Turn your phone into the control center for an AI coding assistant CLI session (Claude or Codex) running on your computer. 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-17 10:03:51+08:00 · tech

想跟大家聊一聊,是选择Claude Code还是OpenCode的问题。 因为A社的原因,我们订阅不了、使用不了纯正的Claude模型,都是通过中转之类的,加上公司要求所以换上了国内的一些模型。 一直有一个顾虑,一方面是Anthropic会不会限制非claude模型的能力,另一方面,很多功能是需要登录他的账户之后才可以享用的。而且以 Anthropic 之前的尿性,会不会有一天不让其他模型接入 claude code 完全隔绝它? 这两个问题就导致了我用起来并不放心,所以考虑opencode。其实我最初用的就是 opencode,用起来还是挺顺手的,但是公司现在开始大力推 claude code,所以我迁移到 claude code 一段时间之后,发现它用起来还是挺顺手的,再返回来用 opencode 反而有一些不适应。但 opencode 相比 claude code 最大的优势就是开源,可以接入各家模型,模型切换起来也会方便一些。Claude Code 的优势就是它的生态太多了,好多插件啊,所谓的商店,好多开源库,基本上都是基于它来设计的。虽然 opencode 也会兼容大部分,但还存在个别的不兼容的问题。 所以想邀请大家一起来讨论一下这个问题,分享下大家是怎么看待这个问题的? 9 个帖子 - 6 位参与者 阅读完整话题

linux.do · 2026-04-17 01:15:00+08:00 · tech

在 Claude Code 泄露版本中找到控制输出风格的 getOutputEfficiencySection() 组件。 其中有段供内部人员使用的提示词,放 CLAUDE.md 中能改善 GPT 废话多的问题: # Communicating with the user When sending user-facing text, you're writing for a person, not logging to a console. Assume users can't see most tool calls or thinking - only your text output. Before your first tool call, briefly state what you're about to do. While working, give short updates at key moments: when you find something load-bearing (a bug, a root cause), when changing direction, when you've made progress without an update. When making updates, assume the person has stepped away and lost the thread. They don't know codenames, abbreviations, or shorthand you created along the way, and didn't track your process. Write so they can pick back up cold: use complete, grammatically correct sentences without unexplained jargon. Expand technical terms. Err on the side of more explanation. Attend to cues about the user's level of expertise; if they seem like an expert, tilt a bit more concise, while if they seem like they're new, be more explanatory. Write user-facing text in flowing prose while eschewing fragments, excessive em dashes, symbols and notation, or similarly hard-to-parse content. Only use tables when appropriate; for example to hold short enumerable facts (file names, line numbers, pass/fail), or communicate quantitative data. Don't pack explanatory reasoning into table cells -- explain before or after. Avoid semantic backtracking: structure each sentence so a person can read it linearly, building up meaning without having to re-parse what came before. What's most important is the reader understanding your output without mental overhead or follow-ups, not how terse you are. If the user has to reread a summary or ask you to explain, that will more than eat up the time savings from a shorter first read. Match responses to the task: a simple question gets a direct answer in prose, not headers and numbered sections. While keeping communication clear, also keep it concise, direct, and free of fluff. Avoid filler or stating the obvious. Get straight to the point. Don't overemphasize unimportant trivia about your process or use superlatives to oversell small wins or losses. Use inverted pyramid when appropriate (leading with the action), and if something about your reasoning or process is so important that it absolutely must be in user-facing text, save it for the end. These user-facing text instructions do not apply to code or tool calls. 但也仅仅是改善 还是没有 Claude 的回复好读,佬友们可以尝试一下。 中译 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-16 19:08:04+08:00 · tech

各位佬友们,我想问一下ClaudePro账号被封禁后,该怎么安全的开第二个新账号? 目前准备: 换了新的住宅IP(地区依旧美国加州) 使用了住宅IP代理的指纹 浏览器 Claude账号有两个:Gmail(新号)+美区电话(已注册2天,对话正常)/个人域名邮箱(没弹验证码,3天) 支付的话,我没有visa,所以可能去海鲜市场买尼区代充或者直接用国内的ApplePay支付人民币(¥148),但是有点害怕最后又封号不给退款 如果我要在服务器的终端使用ClaudeCode的话,需要刷机器码吗? 还是说只需要把服务器的根目录的./claude文件夹删除即可? 我觉得中转API 掺水的太拉 满血的太贵 用不起了 如果有性价比高的 也欢迎佬友推荐 感谢感谢! 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-16 17:16:34+08:00 · tech

配置参考 "env": { "ANTHROPIC_AUTH_TOKEN": "", "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air", "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5.1", "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-5.1", "ANTHROPIC_MODEL": "glm-5.1", "API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1" }, 今天整整一天的统计都没有glm5.1,前几天还有几次 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-16 16:48:06+08:00 · tech

前几天地铁上突然想起有个 bug 要改,习惯性想掏手机让 Claude Code 处理,然后卡住了。 claude 是终端工具,电脑在家关着呢。 试了几种方案都不顺手: Tailscale + Termux + tmux:配得累,触屏 SSH 反人类 claude.ai/code 网页版:读不了本地文件,只能操作 GitHub @claude Action:异步,反馈慢,不能交互 Codespaces / Gitpod:容器环境,不是你的本地 后来翻到 Happy 这个开源项目( GitHub ,MIT),装完 5 分钟跑通。写下来给有同样需求的佬友参考。 它到底是啥 简单说,电脑上的 Claude Code 还是本地跑(能读写你的本地文件),手机 App 走一个加密中继,当电脑的遥控器。 ┌─────────┐ ┌──────────────────┐ ┌─────────┐ │ 手机 │─E2EE──│ Happy 中继服务器 │─E2EE──│ 电脑 │ │ App │ │ api.happy.eng │ │ happy │ └─────────┘ │ (Cloudflare 前) │ │ wrapper │ └──────────────────┘ └────┬────┘ ▼ ┌──────────┐ │ Claude │ │ Code进程 │ │ + 本地FS │ └──────────┘ 三个点搞清楚就没误区: CC 真跑在你电脑上 ,文件操作、git、跑命令,全是本地发生 手机不直连电脑 ,中继在中间转一道,所以不用公网 IP、端口转发、同网段这些破事 全链路 E2EE (Signal 协议),中继服务器看不到明文 另外 happy 只是 claude 的 wrapper,原来的 claude 命令你想单独用照用,没影响。 装起来其实就一行 电脑这边(Node 18+,CC 已装好): npm install -g happy 注意别装 happy-coder ,那是旧包名已经弃了。然后进项目: cd /path/to/project happy 终端会蹦出一串 ASCII 二维码。手机应用市场搜 Happy Coder ,iOS/Android 都有,扫码配对完事。配对成功电脑会提 “Paired with …”,手机那边 session 也出来了。随手发一句 list files in current directory 试试,看电脑执行、手机收到回显,通路就是对的。 顺带一提,我习惯加个 alias 让它更顺手: hc() { command happy --yolo "$@"; } # --yolo 跳确权 --yolo 等于 --dangerously-skip-permissions 。我自己用是因为烦它每步都弹确认,但第一次玩不建议开------先让它弹,你才知道它在干啥。 会话归谁、怎么接管,这里很多人绕晕 我自己刚开始也没搞明白,后来发现就三种情况: 会话起点 怎么接 电脑 happy 起的 手机 App 自动出现,点进去就接管 手机端新建的 需要电脑 happy daemon 常驻才能接住 电脑想续手机起的 happy resume <id> 或 happy --resume 列最近的选 happy daemon 就是让 happy 常驻后台。不跑 daemon 手机也能新建,但只落在手机本地临时容器里,功能不全。跑了 daemon 才是完整的「手机发起、电脑干活」。 这里有个坑要先说:手机新建会话的 第一条消息可能被吞 ( issue #637 挂了)。我自己踩过,之后的习惯是先发一条 hi 探路,第二条再发正事。 日常怎么用 我自己现在的用法大概三种。 一是电脑起、手机接。办公室 happy 开着写代码,到饭点关笔记本就走。地铁上想继续,手机 App 点开那个 session 追问、看进度。回家 happy resume 续上,中间 CC 一直是同一个上下文。 二是手机起、电脑干活,这个最爽。躺床上突然想改个啥,手机 App 直接发指令。电脑挂着 daemon,一收到就开跑,测试、改文件、提 PR 都 OK。推送打到手机,你看一眼确认下一步或者继续睡。 三是多 session 并行。电脑开两个终端各跑一个 happy 对应两个项目,手机 App 里就是两个 session 并列,切哪个干哪个。 高频功能顺手列一下:输入框 @ 能浏本地文件树, /clear /compact 这些斜杠命令全支持, ~/.claude/agents/ 和 skills 自动可用( @code-reviewer 手机端调都没问题),长按麦克风语音转文字,要确权时推送直接打过来点一下就批。 国内用会遇到什么(重点) 既然发 Linux.do ,这段重点说。常见症状大概这几种: 扫码一直卡 Pairing------手机连不上中继 配对上了但 session 不同步------一头断流 用几分钟自动断------TCP 长连接被重置 语音转文字巨慢------媒体走另一通道,被限速了 解法从轻到重排: 最轻:电脑挂代理 export HTTPS_PROXY=http://127.0.0.1:7890 export HTTP_PROXY=http://127.0.0.1:7890 happy Clash / Surge / V2RayN 随便哪个,规则覆盖 *.happy.engineering 就行。嫌麻烦丢 .zshrc 一劳永逸。 手机也走系统代理 iOS 用 Surge / Shadowrocket 设全局或对 Happy 分流,Android 用 Clash for Android 同理。扫码一直 Pairing 基本靠这一步就通。 一劳永逸:自建中继 后端开源,docker 一条命令起: git clone https://github.com/slopus/happy cd happy/server docker compose up -d # 默认 3000,前面套 nginx + Let's Encrypt 上 HTTPS 改个指向就完事: # 电脑 export HAPPY_RELAY_URL=https://your-relay.example.com # 手机 App → 设置 → Custom Relay → 填 URL 我自己的分工:日常手机控 CC 全用 Happy;Happy 中继抽风、或者想看实时日志、跑非 CC 命令,回 SSH + tmux a 。电脑端顺手用 tmux 包一层 happy( tmux new -s happy → happy → Ctrl+b d ),出门关窗口也不耽误它后台跑。 装之前建议看一眼的坑 问题 怎么弄 happy: command not found npm config get prefix 看下全局 bin 在不在 PATH 二维码扫不出 终端字体放大,或 happy --pair-url 拿链接手输 同步延迟 5 秒+ 挂代理或自建中继 手机 App 闪退 常见于低端安卓,RN 吃内存,杀后台再开 手机新建会话首条没反应 #637 ,先发条 hi 探路 手机发消息电脑崩 SIGTERM #982 ,升级最新版或重新配对 配对设备列表满 App 设置里删旧设备,免费版有上限 要不要装 看一件事:你出门的时候想不想给 CC 派活。 经常有这需求就装吧,体验甩 Termux 几条街,不受触屏那份罪,也不用维护 Tailscale。从不离开电脑的话,那没必要,多一个组件而已。如果你介意流量过第三方,要么自建中继要么别用,官方的再 E2EE,元数据(你在用啥、什么时间用)还是上第三方。 至于要不要自建中继,偶尔用就官方加代理凑合;每天用的直接自建,回报远超一台 VPS 的成本;商业或涉密基本没得选,必须自建。 相关链接: 项目: GitHub - slopus/happy: Mobile and Web client for Codex and Claude Code, with realtime voice, encryption and fully featured · GitHub CLI: GitHub - slopus/happy-cli: Happy Coder CLI to connect your local Claude Code to mobile device · GitHub 官网: https://happy.engineering Quick Start: Quick Start Guide FAQ: General FAQ 先写这些。踩到别的坑、或者自建中继有更好配置的,评论区交流。 1 个帖子 - 1 位参与者 阅读完整话题