各位,在L站佬友的帮助下,总算买了大妈的洛杉矶服务器,已经弄好节点了(reality)。几个问题求助: 是不是reality节点就够了?? 准备部署cpa,如何设置cdn加速?需不需要cdn加速? 3.是国内服务器部署cpa,然后用大妈服务器的代理,还是说直接在大妈服务器部署cpa,然后用cdn访问? 4.如何检测ip质量? 5.如何加速首个字时间呢 5 个帖子 - 4 位参与者 阅读完整话题
以前用户没那么多服务器压力没那么大的时候确实可以快且免费提供服务,但是现在知名度高了模型强了用的人多了,肯定不能像以前那样了,毕竟kimi不像豆包那样背靠资本和广告,如果喷付费高额度少降智之类的问题我还能理解,一群人在哪说自己不想排队也不想付费,这是何意味 3 个帖子 - 3 位参与者 阅读完整话题
IT之家 4 月 18 日消息,安全研究团队 OX Security 本周(4 月 15 日)发现,Anthropic 创建、维护的行业标准 AI 通信协议 MCP(IT之家注:Model Context Protocol)存在设计缺陷, 可导致服务器被诱导执行任意代码(RCE) 。 据介绍,该漏洞并非普通的疏忽,而是架构层面的设计缺陷并存在于官方 MCP SDK 中。影响 Python、TypeScript、Java 和 Rust 等所有支持语言,等于说任何基于 MCP 构建的项目都存在这一风险。 研究人员主要识别出未认证 UI 注入攻击、安全加固绕过、提示词注入、恶意插件分发等四种主流攻击路径,并在多个真实生产环境中成功利用漏洞。 目前,该机构已在 LiteLLM、LangChain、IBM LangFlow 等主流项目中发现关键漏洞, 目前已分配 10 个 CVE 编号且仍在不断增加 ,均属“严重”级别。 研究团队透露,他们曾多次联系 Anthropic 并希望修复漏洞。 但对方拒绝修改架构 ,并称该行为属于“预期设计”。 团队随后告知公司,将公开研究成果。对方未提出异议。 团队建议,所有用户都不应该将大语言模型、AI 工具等暴露在公网环境,并且将 MCP 输入直接视为不可信数据,防止提示词注入。同时启用沙箱环境运行服务并时刻更新最新软件,将权限锁住。
场景:私有大模型服务器,公司买的K100AI的卡8*64的显存 内存900g 硬盘11T 海光DCU 现在安装模型,只能安装海光的提供的模型,且只能定制对方提供的docker镜像和vllm指定的版本 以及模型。 想用来做claude code的调用安装模型。目前按照了千问的122b激活a8b的模型 但是claude code调用有问题,串行的命令无法执行。 比如:帮我优化某某方法。 私有模型:说一句话就停住了,根本走不下去,没有edit,只有单独的add内容 购买的coding plan 同样的场景 是正常没问题的 有没有佬遇到这种情况,是咋处理的。。。 厂商那边沟通费劲。 5 个帖子 - 2 位参与者 阅读完整话题
排查了好久,很烦,每次测试ssh tunnel都是通的,一连接就报错 1 个帖子 - 1 位参与者 阅读完整话题
新公益站测试压力和并发,抽5个20刀先试试水。希望佬不要嫌弃老弟吝啬。 2026年4月18日15:48:07 我研究一下 linuxdo的抽奖软件。 2026年4月18日15:54:09 学会了用 https://lottery.linux.do/ 进行抽奖。 2026年4月18日16:15:23 弱弱的问一句 100 一个亿的 codex token(倍率1:1) 各位佬觉得贵吗。 2026年4月18日 16点57分 佬们为啥举报,没看懂。 2026年4月18日 19点08分 由于帖子给关闭了,提前抽奖 2026年4月18日 19点14分 url和key 均私聊发送。 ================================================================================ LINUX DO 抽奖结果 - 0.1.1 ================================================================================ 帖子链接: https://linux.do/t/topic/1994721 帖子标题: 【公益】新服务器测试压力 帖子作者: Opera111 发帖时间: 2026-04-18 15:46:05 -------------------------------------------------------------------------------- 抽奖时间: 2026-04-18 19:09:08 参与楼层: 2 - 169 楼 有效楼层: 161 楼 中奖数量: 5 个 最终种子: 533bcde8de3994f45703f514f717a5ef3e60d3b16395321599d3537b78cfa34e -------------------------------------------------------------------------------- 恭喜以下楼层中奖: -------------------------------------------------------------------------------- [ 1 ] 30 楼,楼层链接: https://linux.do/t/topic/1994721/30 [ 2 ] 11 楼,楼层链接: https://linux.do/t/topic/1994721/11 [ 3 ] 119 楼,楼层链接: https://linux.do/t/topic/1994721/119 [ 4 ] 129 楼,楼层链接: https://linux.do/t/topic/1994721/129 [ 5 ] 121 楼,楼层链接: https://linux.do/t/topic/1994721/121 ================================================================================ 注: 楼层顺序即为抽奖顺序 ================================================================================ 抽奖主题:新服务器测试压力 奖品详情: 5个20刀 codex key 活动时间: 开始时间:[2026年4月18日15:50:04] 截止时间:[2026年4月18日20:20:20] 参与方式: 在本帖下回复’任意内容’。 抽奖规则: 每位用户仅允许参与一次。 使用 XXXX 工具随机抽取中奖者。 注意事项: 本活动将在活动截止时间后关闭回帖,以确保公正性。 中奖者将在活动结束后5小时内在本帖公布,并通过 https://lottery.linux.do/通知领奖方式。 所有规则及抽奖结果由活动发起人和论坛 管理团队 最终解释。 期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。 165 个帖子 - 163 位参与者 阅读完整话题
如题,现在服务器天天开着,有个动态的公网ip,除了当软路由之外,基本就没别的用途了,有什么渠道或者方法能稍微的回点电费的钱 6 个帖子 - 5 位参与者 阅读完整话题
同一台服务器 + 相同的网络 + 相同的请求内容 + 一样的请求链路 4.15号左右开始,发现CPA反代超级慢 账号都是Team + Plus 为什么速度差距这么大? 测速图片如下 16 个帖子 - 13 位参与者 阅读完整话题
我准备用我弟的学生认证,购买服务器,国内的云厂商,似乎只有腾讯云的2c4g轻量服务器友好一点,但是只能一次开一年,后面续费还不能按照首开价格续费,佬们有啥推荐的吗,服务器只是用来日常开发环境的搭建,生产不会用他的,基本上是docker安装中间件 11 个帖子 - 9 位参与者 阅读完整话题
这是我24年当时买的99套餐的服务器。打算弄个sub2api一直崩。所以打算重新购买一个服务器。有大佬推荐一下吗。2h2g真没法用。最好是海外的【不然还要处理网络上的问题,所以懒得在原有上加配了,想直接重新买】 10 个帖子 - 10 位参与者 阅读完整话题
我codex买的pro,但是不知道服务器上怎么配置,服务器不能直接科学上网 claude想问下大家有没有推荐的中转,价格稍微合适点的 5 个帖子 - 3 位参与者 阅读完整话题
我用的是信用卡,要锁卡吗? 用作代理是不是不要访问使用cdn的网站? 佬们提供点建议和注意事项 6 个帖子 - 4 位参与者 阅读完整话题
在印尼实体服务器部署中转供内部5人使用,购买的是max20账号。 4月13号认证pro账号,不够用,4月14号中午升级为max20,分发了账号,大家在国内自己的电脑接入使用,晚上7点被退款; 4月15号开第二个账号购买max20,使用国内同一个服务器、同一个账号,用了不到30分钟封号了。 求大佬指点长久一点的使用方法。 3 个帖子 - 2 位参与者 阅读完整话题
这还是之前工作的时候 偷偷的留下的一台惠普 Z230 但是一直放在老家吃灰觉得太浪费了 如果是把它挂成一台真正的服务器 又没有公网IP 现在在发愁怎么好好利用它 3 个帖子 - 3 位参与者 阅读完整话题
佬们好,因为实验室服务器走不了外网,没法用claude和codex,所以想在win上部署个CPA,那怎么让服务器能访问win的API呢 25 个帖子 - 9 位参与者 阅读完整话题
玩的人太多冲爆了服务器吗,又得等半小时了( 等待30分钟 ([Errno fetch http://image-gen-service.openai.svc.cluster.local:8081/chatgpt/worker_transform failed: 429: b’{\n “error”: {\n “message”: “You’re generating images too quickly. To ensure the best experience for everyone, we have rate limits in place. Please wait for 29 minutes before generating more images.”,\n “type”: “images”,\n “param”: null,\n “code”: “rate_limit_exceeded”\n }\n}‘] b’{\n “error”: {\n “message”: “You’re generating images too quickly. To ensure the best experience for everyone, we have rate limits in place. Please wait for 29 minutes before generating more images.”,\n “type”: “images”,\n “param”: null,\n “code”: “rate_limit_exceeded”\n }\n}') 这张模仿杂志的效果真的很强,光影精致到吓死人,文字也基本只剩下一点小问题 15 个帖子 - 8 位参与者 阅读完整话题
vscode远程连接服务器、服务器网络是走本地代理。使用codex插件时没有网络、可以正常使用cli。奇怪的是我有三台服务器、有一台可以正常使用插件。怀疑是缓存问题但是一直没解决。有佬友知到解决办法吗 1 个帖子 - 1 位参与者 阅读完整话题
使用自建的服务器,使用ccswith,途中会出现unexpected status 404 Not Found: openai_error, url: http://127.0.0.1:15721/v1/responses,使用ccswith测试正常,只要提问题、发请求就会出现,使用gpt 5.4也修复不了,使用收费的中转站就不会出现。求助大佬是个怎么回事,困扰一天了。 ssw配置: model_provider = “custom” model = “gpt-5.4” model_context_window = 1000000 model_auto_compact_token_limit = 900000 model_reasoning_effort = “xhigh” disable_response_storage = true model_instructions_file = “~/.codex/prompts/system-prompt.md” [model_providers] [model_providers.custom] name = “custom” wire_api = “response” requires_openai_auth = true base_url = “ https://XXXXXXXXX ” [profiles] [profiles.ctf] model_instructions_file = “~/.codex/prompts/instruction.ctf.md” 1 个帖子 - 1 位参与者 阅读完整话题
最近朋友让我帮他搞个海外服务器,还有家庭宽带,需要通过这个方式来让他150台手机上外网推流,我大概算了一下每月流量可能得1-2T, 这成本得多少钱啊 有没有搞过的大佬说说 3 个帖子 - 2 位参与者 阅读完整话题
买了个韩国的服务器,2C2G。目前就装了1panel、pgsql和cpa,不知道干啥好了现在 佬们有啥建议不。 目前内存没上过50%,cpu没上过20%。 9 个帖子 - 5 位参与者 阅读完整话题