智能助手网
标签聚合 35b

/tag/35b

linux.do · 2026-04-18 20:35:22+08:00 · tech

概述 感谢各位上次发帖很多佬的交流, 上次是豪华配置,这次测了弱一点的配置 首先期望不要太高,其实这个水平的模型OpenCode还有厉害一点的Minimax M2.5免费用( 虽然刚才出现的Bug Minimax也没修好 能玩,但是上下文看自己的操作,如果有核显则可以拉到100K上下文,没有的话可能20-50K上下文了。( 所以我特别喜欢有核显的电脑 )显存比较紧急的话可以划分1层给CPU,可以拉高20K上下文应该 体感可以编程,没有什么问题 写了个时钟,还有个贪食蛇 相关说明 Apex量化的I-MINI GGUF表现真的很亮眼,损失感觉很小? Qwen3.6 35B A3B的上下文真的好便宜 模型在这里,I-MINI版本就13.3G(这里不加载视觉模块了,显存不够): Qwen3.6-35B-A3B-APEX-GGUF · 模型库 如果有Intel 358H, 338H 32G+1T, 或者AMD 890M, 780M 的用户也可以试试看,内存大可以选I-Compact的17G版本 部署环境 硬件 CPU 12450H 显卡 RTX 5060 Ti 16G 内存 单根 16G DDR4 3200 注意:显卡上没有接任何输出,BIOS设置的核显优先,界面渲染都交给了核显,如果开个渲染个界面可能就剩下13-14G显存,上下文只能开比较少或者拿一层给CPU,decode速度会降低25% 软件 后端 LM Studio 部署模型:Qwen3.6-35B-A3B-APEX-I-Mini.gguf Decode速度: 80tps 层数:全部放在GPU上 上下文:100K 关闭MMAP, 不保持模型在内存中 打开快速注意力,K缓存 V缓存量化均为Q8, Q4好像有BUG → 会导致Prefill非常慢 建议: 用来编程时,如果第一步没能做好,建议直接从第一步重开多试一次,应该会比修bug要好点,改代码bug能力没有写代码能力强的感觉 本地还能玩玩Heretic(虽然这个模型好像没什么感觉,RP不是很好,总之玩玩也不赖) 这个量化确实损失感觉没多少的样子,因为同样概率发生的bug我跑Q6量化的版本也有概率发生 对于天才编程佬们来说,模型的能力还是远远不够的,这篇文章没什么帮助,虽然如此,但是还是想要分享一下 如果发生长时间卡住,可能是模型跑出循环思考bug了,可以中断一下重新跑 题外话 话说L站没有本地部署模型的标签吗(逃 附加截图 2 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-17 21:24:43+08:00 · tech

总结 这么小的模型有这个能力,还是让我感觉挺开心的,阿里牛逼 体验挺好的,希望再接再厉 部署情况 部署版本: unsloth UD_Q6K 部署硬件: 4080 Super 32G + 5060Ti 16G Token速度: 90token/s 上下文 256K拉满 只多5G显存,总共占用30多G显存 官方跑分 昨晚(4月16日)开源的 看了下跑分好像追到GLM4.7,不过都是agent下的吧,肯定有水分的就是了 GLM 4.7 Qwen3.6 35B TerminalBench 2.0 41.0 51.5 SWE Bench-Verified 73.8 73.4 基础编程能力都有,速度也很快 写了个HTML时钟,很流畅,还随便写了个网页,网页没啥问题,挺好玩的 解决个nginx配置问题也能一下子看出来 题外话 OpenCode不错,Qwen Code不知道为啥不能读取图片 9 个帖子 - 6 位参与者 阅读完整话题

hnrss.org · 2026-04-17 20:06:46+08:00 · tech

https://w418ufqpha7gzj-80.proxy.runpod.net Started for myself, but since Im not using it continuously, sharing it: Open Access Qwen3.6-35B-A3B-UD-Q5_K_M with TurboQuant (TheTom/llama-cpp-turboquant) on RTX 3090 (Runpod spot instance). 5 parallel requests supported.. full context available (please don't misuse..there are no safety guards in place) Open till spot instance lasts or max 4 hours. And yes, no request logging (I don't even know how to do it with llama-server) Prompt processing and generation speeds (at 8K context): 900t/s and 60t/s. And at 100K context: 450t/s and 30t/s. Command used: ./build/bin/llama-server \ -m ../Qwen3.6-35B-A3B-UD-Q5_K_M.gguf \ --alias 'Qwen3-6-35B-A3B-turbo' \ --ctx-size 262144 \ --no-mmproj \ --host 0.0.0.0 \ --port 80 \ --jinja \ --flash-attn on \ --cache-type-k turbo3 \ --cache-type-v turbo3 \ --reasoning off \ --temp 0.6 \ --top-p 0.95 \ --top-k 20 \ --min-p 0.0 \ --presence-penalty 0.0 \ --repeat-penalty 1.0 \ --parallel 5.0 \ --cont-batching \ --threads 16 \ --threads-batch 16 Thanks.. Comments URL: https://news.ycombinator.com/item?id=47805007 Points: 3 # Comments: 2

linux.do · 2026-04-17 17:38:30+08:00 · tech

你是一位就职于苹果公司的顶级前端工程师。请创建一个包含CSS和JavaScript的HTML文件,用于生成动画天气卡片。卡片需要以不同动画效果直观展示以下天气状况: 风力(如:飘动的云朵、摇曳的树木或风线) 降雨(如:下落的雨滴、形成的水洼) 晴天(如:闪耀的光线、明亮的背景) 下雪(如:飘落的雪花、积雪效果) 所有天气卡片需要并排显示,背景采用深色设计。所有HTML、CSS和JavaScript代码都需包含在这个单一文件中。JavaScript部分需包含切换不同天气状态的功能(例如通过函数或按钮组),以演示每种天气的动画效果。 将前端显示效果优化得更精致流畅,打造出价值20元/月的精品天气应用既视感。 需要把上下文开大一点,写完大约10K+。一次写完的结果,没修改。 5060+DDR4,大概跑起来18tokens/s。 qwen3-6-35b-a3b-q4-k-m-v1.html.zip (8.7 KB) 5 个帖子 - 4 位参与者 阅读完整话题

www.ithome.com · 2026-04-16 21:51:40+08:00 · tech

IT之家 4 月 16 日消息,继 Qwen3.6-Plus 发布之后,阿里千问大模型今日宣布开源 Qwen3.6-35B-A3B —— 一个稀疏但能力出色的混合专家(MoE)模型,总参数量为 350 亿,激活参数仅 30 亿。 官方称,Qwen3.6-35B-A3B 不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma4-31B 等稠密模型一较高下。该模型依然支持多模态思考与非思考模式,是当前最具通用性的开源模型之一。现在,Qwen3.6-35B-A3B 已在 Qwen Studio 上线,并以开源权重的形式向社区发布。 IT之家附官方详细介绍如下: Qwen3.6-35B-A3B 是一个完全开源的 MoE 模型(总参数 35B / 激活参数 3B),主要特性包括: 卓越的智能体编程能力,可与大得多的模型相媲美 强大的多模态感知与推理能力 您可以在 Qwen Studio 进行交互对话,也将可通过阿里云百炼以 qwen3.6-flash 的名称调用 API,或从 Hugging Face 和 ModelScope 下载模型权重。 欢迎体验 Qwen Studio: https://chat.qwen.ai/ ModelScope: https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B Hugging Face: https://huggingface.co/Qwen/Qwen3.6-35B-A3B 模型表现 下文将全面展示 Qwen3.6-35B-A3B 与同规模模型在各类任务和模态上的评测对比结果。 自然语言 仅凭 30 亿激活参数,Qwen3.6-35B-A3B 在多项关键编程基准上超越了 270 亿参数的稠密模型 Qwen3.5-27B,并在智能体编程和推理任务上大幅超越其直接前代 Qwen3.5-35B-A3B。 视觉语言 Qwen3.6 原生支持多模态,Qwen3.6-35B-A3B 以仅约 30 亿激活参数,展现出远超其体量的感知与多模态推理能力。在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。其在空间智能上的优势尤为突出:RefCOCO 92.0、ODInW13 50.8。 开始使用 Qwen3.6-35B-A3B Qwen3.6-35B-A3B 的开源权重已在 Hugging Face 和 ModelScope 上提供,支持本地部署;也即将可通过阿里云百炼 API 以 qwen3.6-flash 的名称调用。此外,您还可以在 Qwen Studio 上即时体验。 该模型可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。 API 使用方式 本次发布支持 preserve_thinking 功能:在消息中保留所有前序轮次的思维内容,推荐用于智能体任务。 阿里云百炼 阿里云百炼支持行业标准协议,包括兼容 OpenAI 规范的聊天补全(chat completions)和响应(responses)API,以及兼容 Anthropic 的 API 接口。 更详细信息请访问我们的技术博客(可通过文末“阅读原文”跳转至博客),及阿里云百炼 API 文档。 代码及智能体 Qwen3.6-35B-A3B 具备出色的智能体编程能力,可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code。 OpenClaw Qwen3.6-35B-A3B 兼容 OpenClaw(原名 Moltbot / Clawdbot),这是一款可自托管的开源 AI 编码智能体。将其连接至百炼,即可在终端中获得完整的智能体编码体验。 Qwen Code Qwen3.6-35B-A3B 适配 Qwen Code,这是一款专为终端设计的开源 AI 智能体,针对 Qwen 系列进行了深度优化。 首次使用时,系统会提示您登录。您可以随时运行 /auth 来切换认证方式。 Claude Code Qwen API 也支持 Anthropic API 协议,这意味着您可以将其与 Claude Code 等工具配合使用,以获得更优质的编码体验。 关于 OpenClaw、Qwen Code、Claude Code 等三方编程助手的使用详细脚本,请参考我们的技术博客(可通过文末“阅读原文”跳转至博客)。 总结 Qwen3.6-35B-A3B 表明,稀疏 MoE 模型可以实现卓越的智能体编程和推理能力。仅凭 30 亿激活参数,它便能够交付与数倍于其激活规模的稠密模型相当的性能,同时在多模态基准上同样表现出色。作为完全开源的模型权重,它为该规模下的模型能力树立了新的标杆。 展望未来,我们将继续扩展 Qwen3.6 开源家族,并不断拓展高效开源模型所能实现的边界。我们由衷感谢社区的宝贵反馈,并期待看到大家利用 Qwen3.6-35B-A3B 创造出的精彩成果。Qwen3.6 开源家族正在持续壮大,敬请关注我们的后续发布!