智能助手网
标签聚合 编程

/tag/编程

www.ithome.com · 2026-04-18 10:13:11+08:00 · tech

IT之家 4 月 18 日消息,科技媒体 testingcatalog 昨日(4 月 17 日)发布博文,报道称埃隆 · 马斯克(Elon Musk)旗下 xAI 公司有望进军智能编程领域, 可能会在下周推出 Grok Build 与 Grok CLI 两款产品。 此举标志着 xAI 正式进入智能编程赛道,将与 Claude Code、OpenAI Codex 及 Google Jules 等主流工具展开直接竞争。 在核心模型层面,xAI 已悄然推送 Grok 4.3 Early Access 测试版,目前仅向 Grok Heavy 订阅用户开放。这一进展改变了 Grok Build 的技术路径:xAI 可能不再单独开发专用编程模型,而是直接依托 Grok 4.3 支撑编程功能。 产品形态上,Grok Build 采用双轨运行机制,用户可通过 CLI 智能体在本地执行任务,也可通过 Web 界面远程操作。目前尚不清楚本地执行的具体机制,不过该媒体认为基于 Electron 的桌面封装方案可能成为最优解。IT之家附上相关演示如下: 功能创新方面,Grok Build 预估引入 Parallel 模式与 Arena 模式。Arena 模式支持多个智能体并行处理同一任务,用户可从中择优采纳。

linux.do · 2026-04-17 22:42:51+08:00 · tech

我是在 Minimax 的编程套餐之前没有周限额的时候就买了 Plus 版,但最近想扩大额度就又买了 Max 版本,不过买完以后才发现新版 Max 版本是有周限额的,但我在套餐的使用额度里面又只看到了 5 小时限额的进度条,没有看到周限额的进度条。 所以想问一下大家,我这个情况到底有没有周限额,是不是如果真的有周限额的话是能在额度哪里看到周限额的进度条。 2 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-17 21:24:43+08:00 · tech

总结 这么小的模型有这个能力,还是让我感觉挺开心的,阿里牛逼 体验挺好的,希望再接再厉 部署情况 部署版本: unsloth UD_Q6K 部署硬件: 4080 Super 32G + 5060Ti 16G Token速度: 90token/s 上下文 256K拉满 只多5G显存,总共占用30多G显存 官方跑分 昨晚(4月16日)开源的 看了下跑分好像追到GLM4.7,不过都是agent下的吧,肯定有水分的就是了 GLM 4.7 Qwen3.6 35B TerminalBench 2.0 41.0 51.5 SWE Bench-Verified 73.8 73.4 基础编程能力都有,速度也很快 写了个HTML时钟,很流畅,还随便写了个网页,网页没啥问题,挺好玩的 解决个nginx配置问题也能一下子看出来 题外话 OpenCode不错,Qwen Code不知道为啥不能读取图片 9 个帖子 - 6 位参与者 阅读完整话题

linux.do · 2026-04-17 18:07:22+08:00 · tech

xAI 计划向 AI 编程初创公司 Cursor 提供大规模算力支持,允许其在 xAI 的基础设施上训练最新编程模型 Composer 2.5。据 Business Insider 披露,Cursor 将调用 xAI 旗下「Colossus」数据中心中的数万颗 GPU。这一安排标志着 xAI 战略的重大转向:通过出租冗余算力,xAI 正在从单纯的模型研发商向类似 AWS、CoreWeave 的云服务商角色扩张。 这一合作背景复杂。今年 3 月,xAI 刚从 Cursor 挖走了两名产品工程主管负责其产品团队。此外,xAI 内部一份备忘录显示,其目前的 GPU 利用率(MFU)仅为 11%,远低于 35% 至 45% 的行业平均水平。xAI 总裁 Michael Nicolls 已要求团队在数月内将利用率提升至 50%。向外部独角兽开放算力,既能分摊昂贵的数据中心运营成本,也能通过服务顶级编程代理获取宝贵的工程反馈。 目前,Cursor 正以 500 亿美元的估值进行融资谈判。在 OpenAI 和 Anthropic 激进切入编程助理赛道的背景下,绑定 xAI 的算力资源已成为其维持竞争优势的关键砝码。 Business Insider Elon Musk's xAI plans to supply computing power to coding startup Cursor Elon Musk's xAI is collaborating with Cursor, which is using xAI's GPUs for model training, people with knowledge of the matter said. 3 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-17 10:39:20+08:00 · tech

本人一直在高强度使用ChatGPT & Claude 用于编程相关,昨晚睡前看到Opus 4.7发布了想着明早可以让它帮我优化一些复杂代码了,今早让它输出一份优化方案,xhigh effort, 结果很差; 我让ChatGPT 5.4 xhigh review了一下这份plan,给出了10点优化方案,只有3点是经过review的; 主要问题体现在Claude没有理解整体上下文、项目逻辑,不清楚是因为为了节省Token还是怎么回事,不如ChatGPT更理解项目逻辑; 看官方放出的跑分倒是很高,实际效果差强人意,还是等ChatGPT 5.6吧 9 个帖子 - 9 位参与者 阅读完整话题

linux.do · 2026-04-17 03:19:54+08:00 · tech

如题,我个人一直对爬虫和网页自动化颇感兴趣,我从学习编程的初衷就是为了写这些杂七杂八工具,21年的时候学的py整了个某mc论坛的自动签到工具,实现了批量的啥一些功能。 我记得那个时候为了找个自动tab补全的插件查了很多的论坛和博客, Tabnine 这个插件一直用到cursor代替。 回到我的主题,在ai能辅助编程后,我也多次尝试使用,但是总是没有一个好的能从前期的api抓取,页面解析,js逆向,这些就算才拆开来做也不经人意,不知道是没有好的skill还是框架或者模型的问题。那如果不是通过抓取接口来做爬虫,使用模拟浏览器又很难理解网页。所以一直很懵逼,我也认为我对ai了解的比较的少了 有没有佬可以分享一下经验或者思路,可以参考学习下。 又或者我的对某些地方有什么误解的地方也可以指正!谢谢(计算机是爱好,大学学的交通运输专业,求骂轻点!) 8 个帖子 - 6 位参与者 阅读完整话题

linux.do · 2026-04-16 23:42:08+08:00 · tech

Anthropic 发布其最新模型 Claude Opus 4.7,在高级软件工程领域较 Opus 4.6 实现显著提升,尤其在最高难度任务上表现突出。用户反映可将此前需要紧密监督的高难度编程工作放心交由 Opus 4.7 独立完成,模型能够在复杂长流程任务中保持严谨与一致性,并在反馈前自行验证输出结果。 网络安全方面,Opus 4.7 是 Project Glasswing 计划下首款搭载新型网络安全防护机制的模型,可自动检测并拦截违禁或高风险的网络安全相关请求;其网络安全能力弱于 Mythos Preview,Anthropic 表示将借此次部署积累经验,为 Mythos 级别模型的广泛发布做准备。视觉能力方面,Opus 4.7 支持最高 2,576 像素长边(约 375 万像素)的图像输入,超过此前 Claude 模型的三倍,进一步拓展了计算机使用代理、复杂图表数据提取等多模态应用场景。 Opus 4.7 现已在 Claude 全系产品及 API、Amazon Bedrock、Google Cloud Vertex AI 和 Microsoft Foundry 上线,定价与 Opus 4.6 一致,API 输入价格为每百万 token 5 美元,输出为每百万 token 25 美元,开发者可通过 claude-opus-4-7 调用。此次更新同步推出多项新功能:新增 xhigh 努力等级(位于 high 与 max 之间);API 侧以公测形式上线任务预算功能;Claude Code 新增 /ultrareview 深度代码审查命令,并将自动模式扩展至 Max 用户。 anthropic.com Introducing Claude Opus 4.7 Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems. 5 个帖子 - 4 位参与者 阅读完整话题

www.ithome.com · 2026-04-16 23:24:42+08:00 · tech

IT之家 4 月 16 日消息,Anthropic 今日发布了其最新人工智能模型 Claude Opus 4.7。新版本距上一次模型升级仅间隔两个月,与该公司此前的更新节奏保持一致。 Opus 4.7:处理高难度编码任务所需的人工监督更少 Claude Opus 4.7 是 Anthropic 最新面向公众开放的 AI 模型,主打高端软件开发能力。 相比 Opus 4.6,该版本在高级软件工程领域实现了显著提升,尤其在超高难度任务上进步突出。用户反馈称,如今可以放心地将此前需要严密人工把关的最复杂编码工作交给 Opus 4.7 处理。 Opus 4.7 能够严谨、稳定地处理复杂且耗时较长的任务,精准理解指令,并会在输出结果前自行设计验证机制。 Anthropic 表示,该模型视觉能力更强,创作审美更优,可产出更高质量的成果。 模型的视觉能力同样大幅增强:支持更高分辨率的图像识别。在完成专业任务时更具审美与创造力,能够生成质量更出色的界面、幻灯片和文档。 基准测试表现 在智能体编码、计算机操作等多项应用场景的基准测试中,Opus 4.7 表现亮眼,性能超越了 Opus 4.6、GPT-5.4 以及 Gemini 3.1 Pro,但略逊于能力更全面的 Claude Mythos Preview。不过 Mythos 并未像 Opus 4.7 这样全面开放使用,目前 Anthropic 仅向苹果等核心软件平台厂商提供该版本。 其他核心升级 Anthropic 重点强调了 Opus 4.7 在指令遵循、多模态支持、实际工作能力与记忆能力等方面的改进。 官方称:“Opus 4.7 更擅长使用基于文件系统的记忆能力,能够在多会话、长时间的工作中记住关键信息,并依托这些信息开展新任务,从而减少前期所需的上下文信息输入。” 每两个月更新一次 Claude Opus 值得注意的是,Anthropic 已为 Claude Opus 建立了更稳定、可预测的直接升级节奏。 Opus 4.7 距 Opus 4.6 发布间隔两个月,而 Opus 4.6 距 Opus 4.5 同样间隔两个月。此前 Opus 4.1 到 4.5 之间则间隔了三个月。 词元(Token)使用说明 IT之家注意到,官方在公告中向用户说明 Opus 4.7 的 Token 消耗规则: Opus 4.7 是 Opus 4.6 的直接升级版本,但有两处变更会影响 Token 使用,需要提前规划: 1. Opus 4.7 采用了新版分词器(tokenizer),文本处理效果更佳,但代价是相同内容可能会生成更多 Token—— 根据内容类型不同,Token 消耗约为原来的 1.0~1.35 倍。 2. 在高算力模式下,Opus 4.7 的“思考”更充分,尤其在智能体场景的后续交互中。这提升了复杂问题的解决可靠性,但也意味着会产生更多输出 Token。 Claude Code 功能增强 除新模型外,近几周 Anthropic 还对 Mac 端 Claude 应用中的 Claude Code 功能持续迭代: 赋予 Claude 代用户操作 Mac 的能力 在改版后的 Claude Code 中加入自动化流程(routines) 为开发者提供“自动模式”,作为跳过权限操作的更安全替代方案 从即日起,Claude Code 自动模式不再仅限团队版 / 企业版 / API 用户,Max 订阅用户也可使用。 Claude Code 还新增了全新 /ultrareview 指令。官方介绍,该指令会启动专属审核流程,通读代码修改内容,并标记出专业审核人员会注意到的问题。

www.ithome.com · 2026-04-16 21:51:40+08:00 · tech

IT之家 4 月 16 日消息,继 Qwen3.6-Plus 发布之后,阿里千问大模型今日宣布开源 Qwen3.6-35B-A3B —— 一个稀疏但能力出色的混合专家(MoE)模型,总参数量为 350 亿,激活参数仅 30 亿。 官方称,Qwen3.6-35B-A3B 不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma4-31B 等稠密模型一较高下。该模型依然支持多模态思考与非思考模式,是当前最具通用性的开源模型之一。现在,Qwen3.6-35B-A3B 已在 Qwen Studio 上线,并以开源权重的形式向社区发布。 IT之家附官方详细介绍如下: Qwen3.6-35B-A3B 是一个完全开源的 MoE 模型(总参数 35B / 激活参数 3B),主要特性包括: 卓越的智能体编程能力,可与大得多的模型相媲美 强大的多模态感知与推理能力 您可以在 Qwen Studio 进行交互对话,也将可通过阿里云百炼以 qwen3.6-flash 的名称调用 API,或从 Hugging Face 和 ModelScope 下载模型权重。 欢迎体验 Qwen Studio: https://chat.qwen.ai/ ModelScope: https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B Hugging Face: https://huggingface.co/Qwen/Qwen3.6-35B-A3B 模型表现 下文将全面展示 Qwen3.6-35B-A3B 与同规模模型在各类任务和模态上的评测对比结果。 自然语言 仅凭 30 亿激活参数,Qwen3.6-35B-A3B 在多项关键编程基准上超越了 270 亿参数的稠密模型 Qwen3.5-27B,并在智能体编程和推理任务上大幅超越其直接前代 Qwen3.5-35B-A3B。 视觉语言 Qwen3.6 原生支持多模态,Qwen3.6-35B-A3B 以仅约 30 亿激活参数,展现出远超其体量的感知与多模态推理能力。在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。其在空间智能上的优势尤为突出:RefCOCO 92.0、ODInW13 50.8。 开始使用 Qwen3.6-35B-A3B Qwen3.6-35B-A3B 的开源权重已在 Hugging Face 和 ModelScope 上提供,支持本地部署;也即将可通过阿里云百炼 API 以 qwen3.6-flash 的名称调用。此外,您还可以在 Qwen Studio 上即时体验。 该模型可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。 API 使用方式 本次发布支持 preserve_thinking 功能:在消息中保留所有前序轮次的思维内容,推荐用于智能体任务。 阿里云百炼 阿里云百炼支持行业标准协议,包括兼容 OpenAI 规范的聊天补全(chat completions)和响应(responses)API,以及兼容 Anthropic 的 API 接口。 更详细信息请访问我们的技术博客(可通过文末“阅读原文”跳转至博客),及阿里云百炼 API 文档。 代码及智能体 Qwen3.6-35B-A3B 具备出色的智能体编程能力,可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code。 OpenClaw Qwen3.6-35B-A3B 兼容 OpenClaw(原名 Moltbot / Clawdbot),这是一款可自托管的开源 AI 编码智能体。将其连接至百炼,即可在终端中获得完整的智能体编码体验。 Qwen Code Qwen3.6-35B-A3B 适配 Qwen Code,这是一款专为终端设计的开源 AI 智能体,针对 Qwen 系列进行了深度优化。 首次使用时,系统会提示您登录。您可以随时运行 /auth 来切换认证方式。 Claude Code Qwen API 也支持 Anthropic API 协议,这意味着您可以将其与 Claude Code 等工具配合使用,以获得更优质的编码体验。 关于 OpenClaw、Qwen Code、Claude Code 等三方编程助手的使用详细脚本,请参考我们的技术博客(可通过文末“阅读原文”跳转至博客)。 总结 Qwen3.6-35B-A3B 表明,稀疏 MoE 模型可以实现卓越的智能体编程和推理能力。仅凭 30 亿激活参数,它便能够交付与数倍于其激活规模的稠密模型相当的性能,同时在多模态基准上同样表现出色。作为完全开源的模型权重,它为该规模下的模型能力树立了新的标杆。 展望未来,我们将继续扩展 Qwen3.6 开源家族,并不断拓展高效开源模型所能实现的边界。我们由衷感谢社区的宝贵反馈,并期待看到大家利用 Qwen3.6-35B-A3B 创造出的精彩成果。Qwen3.6 开源家族正在持续壮大,敬请关注我们的后续发布!