应该指的是这儿吧从上下文来看…这也太离谱了 “就是你让Claude降智了” 之前Gemini家庭组加上的贩… http://xhslink.com/o/sTxGmRWkEP 4 个帖子 - 3 位参与者 阅读完整话题
说黑话,角色扮演像傻子 代码能力下降,幻觉提升,上下文丢失 合着这回就升级了个风控是吧 1 个帖子 - 1 位参与者 阅读完整话题
一个月没用AnyRouter了,今天cursor月付到期又用回了AnyRouter。然后看到了 。 随后来到了AnyRouter里,发现了公告: 但是很明显,定价里面并没有那个模型写上了1m。 解决方案:给你的每个模型后面手动加上一个[1m](雾 又是水帖的一天。。。 6 个帖子 - 6 位参与者 阅读完整话题
小弟最近刚使用claude code进行开发,但发现单纯发一个halo就会占据15%的上下文,这是正常现象吗? 安装了ecc插件、但我通过/context查看,发现skill部分也就11k,大头是Messages部分,我该从哪些地方排查自己到底发送了哪些Messages呢? 9 个帖子 - 4 位参与者 阅读完整话题
试了一下any善人的4.7,提示要开1M上下文 7 个帖子 - 5 位参与者 阅读完整话题
OpenRouter 以"stealth"(隐形)悄悄上线了一个新模型—— Elephant Alpha 。 一个 100B 参数的大模型 上下文 256K 名称 openrouter/elephant-alpha 没有发布会,没有预热,大伙觉得是哪家的大模型! 9 个帖子 - 6 位参与者 阅读完整话题
想使用any的opus4.6 但是一直报错,1M上下文问题,配置了之后还是不行,有佬友碰到过类似的问题吗 4 个帖子 - 4 位参与者 阅读完整话题
这谁用的起啊?Claude 官网 Opus4.6 和 4.7 不是一个价吗?Github 偷偷涨价 而且上下文只有 192k (4.6 是 200k) 可能的原因找到了 Opus 4.7 uses a new tokenizer compared to previous models, contributing to its improved performance on a wide range of tasks. This new tokenizer may use up to 35% more tokens for the same fixed text. 同样的内容 Token 可能会暴涨 35%! 10 个帖子 - 6 位参与者 阅读完整话题
很多人说opus价格贵了一倍不说,上下文能力也差了很多。有对比codex中的gpt5.4的吗?到底哪个好 1 个帖子 - 1 位参与者 阅读完整话题
cc switch 设置 claude code使用gpt 怎么设置 深度思考和1M上下文啊 "ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.4(xhigh)", "ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.4(high)", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.4(high)", "ANTHROPIC_REASONING_MODEL": "gpt-5.4(high)", 目前是这么配置的,1M该怎么设置呢 有大佬知道吗 3 个帖子 - 3 位参与者 阅读完整话题
我真服了,网页版的plus降智太严重了,长上下文情况下, 5.4Thinking+扩展思考,结果直接秒出答案,和豆包一样 3 个帖子 - 3 位参与者 阅读完整话题
今天看了A社的发言才知道还有另一个上下文测试集——GraphWalks。我去用AI搜索了下两个测试集的指导场景。如果考虑A社的信用问题,GraphWalks和MRCRv2的使用场景分别在哪? 1 个帖子 - 1 位参与者 阅读完整话题
Heremes当前有个问题,上下文超过memory限制以后,导致记忆丢失。推荐一下这个插件, GitHub - stephenschoettler/hermes-lcm: Lossless Context Management plugin for Hermes Agent — DAG-based context engine that never loses a message · GitHub 1 个帖子 - 1 位参与者 阅读完整话题
https://x.com/bcherny/status/2044825898613187051 4 个帖子 - 4 位参与者 阅读完整话题
直接不是在上下文里了,直接写在产出的代码里,服了 13 个帖子 - 10 位参与者 阅读完整话题
https://x.com/bcherny/status/2044825898613187051 2 个帖子 - 2 位参与者 阅读完整话题
ccswitch 提示上下文1m 7 个帖子 - 5 位参与者 阅读完整话题
这也说明了为什么4.7在这项测试上开倒车,我认为这个说法还是可信的,毕竟这些AI公司想针对某个评测集刷分是很容易的 推文链接; https://x.com/bcherny/status/2044821690920980626 1 个帖子 - 1 位参与者 阅读完整话题
昨天解决了WebSearch被1M上下文限制拦截的问题,现在使用anyrouter的opus 4.7调用WebSearch,cc会一直转圈卡住,想问问佬们是因为anyrouter后端没做对应适配吗? 3 个帖子 - 3 位参与者 阅读完整话题
如题,用any站的opus 4.7聊天和思考都没问题,但是调用工具就会被拦截,已经开启1M上下文了,有没有佬遇到了同样的问题? 3 个帖子 - 2 位参与者 阅读完整话题