智能助手网
标签聚合 服务器

/tag/服务器

www.ithome.com · 2026-04-18 22:07:29+08:00 · tech

IT之家 4 月 18 日消息,安全研究团队 OX Security 本周(4 月 15 日)发现,Anthropic 创建、维护的行业标准 AI 通信协议 MCP(IT之家注:Model Context Protocol)存在设计缺陷, 可导致服务器被诱导执行任意代码(RCE) 。 据介绍,该漏洞并非普通的疏忽,而是架构层面的设计缺陷并存在于官方 MCP SDK 中。影响 Python、TypeScript、Java 和 Rust 等所有支持语言,等于说任何基于 MCP 构建的项目都存在这一风险。 研究人员主要识别出未认证 UI 注入攻击、安全加固绕过、提示词注入、恶意插件分发等四种主流攻击路径,并在多个真实生产环境中成功利用漏洞。 目前,该机构已在 LiteLLM、LangChain、IBM LangFlow 等主流项目中发现关键漏洞, 目前已分配 10 个 CVE 编号且仍在不断增加 ,均属“严重”级别。 研究团队透露,他们曾多次联系 Anthropic 并希望修复漏洞。 但对方拒绝修改架构 ,并称该行为属于“预期设计”。 团队随后告知公司,将公开研究成果。对方未提出异议。 团队建议,所有用户都不应该将大语言模型、AI 工具等暴露在公网环境,并且将 MCP 输入直接视为不可信数据,防止提示词注入。同时启用沙箱环境运行服务并时刻更新最新软件,将权限锁住。

linux.do · 2026-04-18 21:54:22+08:00 · tech

场景:私有大模型服务器,公司买的K100AI的卡8*64的显存 内存900g 硬盘11T 海光DCU 现在安装模型,只能安装海光的提供的模型,且只能定制对方提供的docker镜像和vllm指定的版本 以及模型。 想用来做claude code的调用安装模型。目前按照了千问的122b激活a8b的模型 但是claude code调用有问题,串行的命令无法执行。 比如:帮我优化某某方法。 私有模型:说一句话就停住了,根本走不下去,没有edit,只有单独的add内容 购买的coding plan 同样的场景 是正常没问题的 有没有佬遇到这种情况,是咋处理的。。。 厂商那边沟通费劲。 5 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-18 15:46:05+08:00 · tech

新公益站测试压力和并发,抽5个20刀先试试水。希望佬不要嫌弃老弟吝啬。 2026年4月18日15:48:07 我研究一下 linuxdo的抽奖软件。 2026年4月18日15:54:09 学会了用 https://lottery.linux.do/ 进行抽奖。 2026年4月18日16:15:23 弱弱的问一句 100 一个亿的 codex token(倍率1:1) 各位佬觉得贵吗。 2026年4月18日 16点57分 佬们为啥举报,没看懂。 2026年4月18日 19点08分 由于帖子给关闭了,提前抽奖 2026年4月18日 19点14分 url和key 均私聊发送。 ================================================================================ LINUX DO 抽奖结果 - 0.1.1 ================================================================================ 帖子链接: https://linux.do/t/topic/1994721 帖子标题: 【公益】新服务器测试压力 帖子作者: Opera111 发帖时间: 2026-04-18 15:46:05 -------------------------------------------------------------------------------- 抽奖时间: 2026-04-18 19:09:08 参与楼层: 2 - 169 楼 有效楼层: 161 楼 中奖数量: 5 个 最终种子: 533bcde8de3994f45703f514f717a5ef3e60d3b16395321599d3537b78cfa34e -------------------------------------------------------------------------------- 恭喜以下楼层中奖: -------------------------------------------------------------------------------- [ 1 ] 30 楼,楼层链接: https://linux.do/t/topic/1994721/30 [ 2 ] 11 楼,楼层链接: https://linux.do/t/topic/1994721/11 [ 3 ] 119 楼,楼层链接: https://linux.do/t/topic/1994721/119 [ 4 ] 129 楼,楼层链接: https://linux.do/t/topic/1994721/129 [ 5 ] 121 楼,楼层链接: https://linux.do/t/topic/1994721/121 ================================================================================ 注: 楼层顺序即为抽奖顺序 ================================================================================ 抽奖主题:新服务器测试压力 奖品详情: 5个20刀 codex key 活动时间: 开始时间:[2026年4月18日15:50:04] 截止时间:[2026年4月18日20:20:20] 参与方式: 在本帖下回复’任意内容’。 抽奖规则: 每位用户仅允许参与一次。 使用 XXXX 工具随机抽取中奖者。 注意事项: 本活动将在活动截止时间后关闭回帖,以确保公正性。 中奖者将在活动结束后5小时内在本帖公布,并通过 https://lottery.linux.do/通知领奖方式。 所有规则及抽奖结果由活动发起人和论坛 管理团队 最终解释。 期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。 165 个帖子 - 163 位参与者 阅读完整话题

linux.do · 2026-04-17 19:32:07+08:00 · tech

玩的人太多冲爆了服务器吗,又得等半小时了( 等待30分钟 ([Errno fetch http://image-gen-service.openai.svc.cluster.local:8081/chatgpt/worker_transform failed: 429: b’{\n “error”: {\n “message”: “You’re generating images too quickly. To ensure the best experience for everyone, we have rate limits in place. Please wait for 29 minutes before generating more images.”,\n “type”: “images”,\n “param”: null,\n “code”: “rate_limit_exceeded”\n }\n}‘] b’{\n “error”: {\n “message”: “You’re generating images too quickly. To ensure the best experience for everyone, we have rate limits in place. Please wait for 29 minutes before generating more images.”,\n “type”: “images”,\n “param”: null,\n “code”: “rate_limit_exceeded”\n }\n}') 这张模仿杂志的效果真的很强,光影精致到吓死人,文字也基本只剩下一点小问题 15 个帖子 - 8 位参与者 阅读完整话题

linux.do · 2026-04-17 17:23:25+08:00 · tech

使用自建的服务器,使用ccswith,途中会出现unexpected status 404 Not Found: openai_error, url: http://127.0.0.1:15721/v1/responses,使用ccswith测试正常,只要提问题、发请求就会出现,使用gpt 5.4也修复不了,使用收费的中转站就不会出现。求助大佬是个怎么回事,困扰一天了。 ssw配置: model_provider = “custom” model = “gpt-5.4” model_context_window = 1000000 model_auto_compact_token_limit = 900000 model_reasoning_effort = “xhigh” disable_response_storage = true model_instructions_file = “~/.codex/prompts/system-prompt.md” [model_providers] [model_providers.custom] name = “custom” wire_api = “response” requires_openai_auth = true base_url = “ https://XXXXXXXXX ” [profiles] [profiles.ctf] model_instructions_file = “~/.codex/prompts/instruction.ctf.md” 1 个帖子 - 1 位参与者 阅读完整话题