智能助手网
标签聚合 套餐

/tag/套餐

linux.do · 2026-04-18 13:32:52+08:00 · tech

我这边之前订阅了minimax的29的套餐,想升级49那个套餐,发现升级后就会限制周用量,我想问一下两件事情,第一是像我这种之前订阅的升级后会不会限制周订阅, 第二是我这边最近打算试一下多模型协同工作,目前是打算接入deepseek作为中枢协同,再买一个kimi或者GLM的codingplan互相监督任务完成情况。所以想问一下kimi和minimax的区别,如果kimi比minimax强一些的话我就订阅kimi了,如果不强的话我就去闲鱼看看能不能搞一个glm的订阅 4 个帖子 - 4 位参与者 阅读完整话题

linux.do · 2026-04-17 22:54:00+08:00 · tech

登陆图镇楼 整体感受 快,轻/中任务适合,文笔不错(无对比,自我感觉) 快 首先 Kimi K2.5 给我的第一印象就是:太快了 从 lobehub 看 TPS 可以达到百几 token/s (表头:模型 类型 输入Token 输出 Token TPS TTFT 花费 时间) 可以看到长上下文的情况下 TTFT 比较慢,不过可能是因为 lobehub 在大陆 newapi 在 hk 而 kimi 又在大陆导致的请求慢了,中间全是 https 相比 GLM 那坨史不知道好多少,一个月前从别人那借了一个 lite 套餐玩,TTFT 目测下来绝对没低于 10s 过,不知道是不是我 OpenCode 的问题 轻/中任务适合 轻 我个人认为 CURD [1] 项目任务已经被刷烂了,是个模型都能干 拿 Claude 糊太浪费了,Kimi K2.5 速度很快,糊起来很顺手 (此处应有代码或者截图,但是因为服务器到期没续丢失了 ) 续费失败图 (点击了解更多详细信息) 中 个人认为写 C++ 或者 Rust 之类的偏 Native 的语言算是难度比较高的了 最近给 hifisampler-rs 项目写的 PR 就是用 Kimi K2.5 写的,之前用 Claude Opus 4.6 搞了半天都在原地转圈,用 Kimi K2.5 一下子给我改出点名堂来了,反馈说听着顺耳了点,虽然问题仍旧,但是比转圈好多了 重 跑了一下重构 声码器 ,从 Python+PyTorch 重构到 CUDA,结果是完全流口水 一直循环: 改 -> 编译 -> 一堆报错 -> 改 -> 爆上下文 -> 转回去 百烧了不知道多少 token,我还在上课没法停下 (此处应有代码或者截图,但是因为服务器到期没续丢失了 ) 续费失败图 (点击了解更多详细信息) 文笔不错 到期前几天我终于做出了想干很久的事情:AI小说浪费token 于是: 此为 Session Tips: 左侧换消息,设计一坨屎 txt_files.zip (1.4 MB) 作为收场礼物送给各位吧 不知道有没有人发现我以登陆成功为开始,到期为结尾的小巧思 最后 统计数据 在 计算机编程 中, 创建、读取、更新和删除 ( CRUD )是 持久存储 的四个基本操作(动作)。 [1] CRUD 有时也用于描述 用户界面 约定,这些约定有助于使用基于计算机的 表单 和 报表 来查看、搜索和更改信息。 ↩︎ 7 个帖子 - 5 位参与者 阅读完整话题