IT之家 4 月 18 日消息,消息源 Canon Rumors 前天发文称,佳能可能会为 EOS R7 Mark II 无反相机引入 DIGIC Accelerator Lite 精简版处理器。 据报道,佳能已经在 EOS R1 和 R5 Mark II 相机中使用过 DIGIC Accelerator 处理器,用于提升相机的数据处理能力。该芯片可与高速背照式 / 堆栈式传感器配合,带来更快的电子快门速度、自动对焦性能, 大幅降低果冻效应 , 还可以同时记录照片和视频 。 IT之家注意到,EOS R6 Mark III 并没有搭载这枚处理器,原因可能不只是成本问题,也与该机采用前照式 CMOS 有关,读取速度明显慢于高端机型。 目前已有传闻称,佳能 EOS R7 Mark II 将成为首款搭载背照式堆栈传感器的 APS-C 画幅 EOS-R 相机。如果相关消息属实,那么更高的读出速度需要搭配更强的处理器。 值得注意的是,佳能的 DIGIC X 处理器本身就有不同版本,例如 R1、R5 Mark II 等高端机型搭载满血版处理器,性能明显优于 R6 Mark III 和 R8 等中端机型。 不过,佳能显然没有必要去刻意限制 R7 Mark II 的性能,APS-C 和全画幅之间本来就已经形成明显的定位区别。
IT之家 4 月 18 日消息,华为智能汽车解决方案 BU CEO 靳玉志今日透露,其本人已对华为乾崑 ADS 5 高阶智能驾驶系统的测试版进行了为期一个多月的实际道路测试。 靳玉志表示,新系统搭载的 WEWA 2.0 架构带来了城区、高速及园区等多场景下的全面体验升级,通行效率提升明显,整体表现“非常非常丝滑”,安全性也得到进一步增强。他预计,ADS 5 的城区辅助驾驶里程占比将因此得到大幅提升。 ADS 5 是华为乾崑智驾解决方案的最新版本,华为计划在 2026 年 4 月 24 日北京车展前夕(4 月 23 日)举行华为乾崑技术大会并公布 ADS 5、HarmonySpace 6 和更多创新技术 据IT之家此前报道,在今年 1 月的华为乾崑媒体日上,华为智能汽车解决方案 BU CEO 靳玉志曾透露,华为乾崑将于今年发布 ADS 5、鸿蒙座舱 6 以及下一代数字底盘引擎 XMC 等。 相关阅读: 《 全新一代问界 M9 官宣 4 月 22 日晚开启预订 》 《 鸿蒙智行全新一代问界 M9 Ultimate 首曝:鎏金双拼色车身、大饼轮毂 + 悬浮 LOGO 》 《 鸿蒙智行官方首曝全新一代问界 M9 系列星际贯穿式“大”蓝灯实车点亮效果 》 《 华为何刚“剧透”全新一代问界 M9 黑科技:行业首搭 6 激光雷达立体矩阵 + 全主动智能底盘 》 《 星际贯穿式“大”蓝灯上车:鸿蒙智行 2026 款问界 M9 无伪装实车智驾状态首曝 》 《 HarmonySpace 6 / HUAWEI ADS 5 将至,华为乾崑技术大会定档 4 月 23 日举行 》
说黑话,角色扮演像傻子 代码能力下降,幻觉提升,上下文丢失 合着这回就升级了个风控是吧 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 18 日消息,消息源 KeplerL2 本周三在 NeoGAF 论坛发帖,指出“相比 PlayStation 5,索尼 PlayStation 6 光线追踪性能提升 10 倍”属于对技术文档的误读, 实际游戏帧率提升约为 3.1 倍。 在 AMD 文档中存在“Orion 对比 Oberon 实现 10 倍光追性能”的表述,消息源 MLID (Moore's Law is Dead)此前基于该内容,认为 PS6 的光追性能提升 10 倍。 KeplerL2 对此解释称这里的 10 倍提升,并不等同于整机游戏帧率提升。 实际上,该数据仅衡量光线追踪特定任务的计算效率,而非图形渲染的整体表现 。若简单将 PS5 的 30 帧乘以 10 倍并与竞品对比,会得出严重偏离事实的结论。 KeplerL2 为验证真实性能,引用育碧官方数据,以《刺客信条:影》为例进行了详细推算。IT之家附上相关截图如下: 在屏幕空间追踪任务中,PS5 耗时 0.54 毫秒,预计 PS6 仅需 0.18 毫秒;在世界空间追踪任务中,耗时从 1.38 毫秒骤降至 0.14 毫秒。综合光照与降噪任务,PS6 处理总光追任务仅需 1.35 毫秒,作为对比 PS5 需要 5.00 毫秒。 任务 PS5 帧耗时 PS6 帧耗时(预估) Screen Space Tracing 0.54ms 0.18ms World Space Tracing 1.38ms 0.14ms Lighting 1.17ms 0.39ms Denoising 1.91ms 0.64ms Total RT Tasks 5.00ms 1.35ms 游戏渲染不仅包含光追,还涉及大量光栅化计算。泄密者估算,PS5 在光追模式下维持 30 帧稳定运行,非光追部分耗时约 25 毫秒。假设 PS6 对该部分实现 3 倍性能提升,其耗时约 8.33 毫秒。 加上光追任务耗时, PS6 总帧时间约为 9.68 毫秒,对应平均帧率 103.3 帧。 相比 PS5 的 33.33 帧, 实际性能提升倍数约为 3.1 倍。 即使在重度依赖光追或路径追踪的游戏中,两代主机性能差距会拉大,但增幅仍无法达到 10 倍。泄密者解释,在此类游戏中,光栅化与计算部分仍占据帧时间 50% 以上。因此,“10 倍光追性能”的技术指标,无法直接转化为“10 倍 FPS”的实际游戏体验。
最近用4.7感觉比4.6没什么提升 额度还夸夸掉 有深度使用过的佬来总结一下吗 5 个帖子 - 5 位参与者 阅读完整话题
很多公益站都要信任等级,否则登录不了。求佬们教教 9 个帖子 - 6 位参与者 阅读完整话题
Qwen3.5-Flash输入每百万token 0.2元,输出每百万token 2元, Qwen3.6-Flash输入每百万token 1.2元,输出每百万token 7.2元,涨价这么多?提升有这么大吗? 3 个帖子 - 3 位参与者 阅读完整话题
体感上来说 回答速度大幅度提升 基本上秒回答 之前 opus 4.6 需要半分钟回答的问题 4.7 基本上几秒钟就回答了 尤其这个色盲问题 4.6 思考了七分钟 4.7 就思考了一分钟就回答出来了 并且答对了 所以到底水平是高还是低? 2 个帖子 - 2 位参与者 阅读完整话题
IT之家 4 月 17 日消息,国新办 4 月 17 日举行“开局起步‘十五五’”系列主题新闻发布会,国家发展改革委产业发展司司长傅久岭表示, 智能化的目的是提升效率,不是简单替代劳动者,要找准政策平衡点 。 傅久岭表示,“十五五”时期,构建以先进制造业为骨干的现代化产业体系是重中之重。下一步, 将重点推动制造业高端化、智能化、绿色化发展 。 高端化方面,单看制造业的规模我们是世界第一, 但还存在一些结构性问题 ,比如品牌影响力不够、全要素生产率不高等。 智能化方面,要把握和利用好人工智能的机遇,为产业赋能。“智能化的目的是提升效率,不是简单替代劳动者,要找准政策平衡点。”傅久岭表示。 此外,绿色化方面,碳达峰碳中和是中国政府的庄严承诺,也是产业升级的主动选择。要实现这个目标需要付出艰苦的努力。 IT之家从国新办官网文字实录获悉,“十五五”首季经济实现平稳良好开局。今年一季度国内生产总值同比增长 5%,改变了去年二季度以来的下行态势,在主要经济体中处于前列。集成电路快速增长,新兴产业加快壮大。 一季度高技术制造业增加值同比增长 12.5% ,前 2 个月规模以上工业企业利润同比增长 15.2%。 傅久岭还称,我们要主动认识、积极应对新技术发展对就业的影响。从制造业看,“十四五”期间各行业从业人员数量有升有降,总体稳定在 1.1 亿人左右。纵观人类发展史,新技术对就业的影响从未停止。机械设备对体力劳动、信息技术对部分脑力劳动的替代,这个过程一直在进行,我们日常生活中也能感受到, 一些岗位在减少,一些新职业、新业态在不断涌现,替代效应和就业创造效应都在起作用 。我们需要积极应对,在推动产业升级中实现高质量的就业。
IT之家 4 月 17 日消息,科技媒体 TechPowerUp 今天(4 月 17 日)发布博文,报道称 Valve 推出 Proton 11 Beta 兼容层, 重点改进游戏性能,并支持 Steam Frame 独立 VR 头显。 Proton 11 Beta 兼容层基于 Wine 11 构建,核心亮点在于添加支持 NTSync 内核驱动,理论上能大幅提升 Linux 平台的游戏性能。 Proton 更新日志截图 IT之家注:NTSync 将 Windows NT 库模拟从用户态移至内核驱动,这一改动减少了通过 Proton 运行 Windows 游戏时的系统开销。 虽然 NTSync 不会全面提升游戏帧率,但在 esync 和 fsync 兼容性不足的场景下表现更好,并能降低 CPU 负载,从而提升游戏的帧率稳定性,减少游戏卡顿,画面过渡更平滑。 Valve 同时添加了 Proton 11.0(ARM64)配置,这是面向 ARM 架构的发布版本。该版本专为 Steam Frame 独立 VR 头显设计,允许在 ARM 硬件上运行 x86 游戏。 Proton 11 Beta 更新封面图
QuiverAI 正式发布了其SVG生成模型的重大更新——Arrow 1.1。此次更新不仅在生成质量、指令遵循和模型效率上取得了突破,大幅降低的使用成本 Arrow 系列模型的初衷源于一个纯粹的理念:SVG应当通过代码有意识地生成,而非从像素中简单近似而来。 与传统的像素优化逻辑不同,Arrow 1.1 模拟了人类设计师的创作过程。它在生成时会对控制点、色彩和渐变进行深思熟虑的选择,而非仅仅追求视觉上的像素对齐。 作为 Arrow 1.0 的继任者,1.1 版本在整个工作流中展现了显著的性能提升: 在处理紧密间距、重复元素和复杂细节时,新模型表现出更强的连贯性,显著减少了视觉伪影。 Arrow 1.1 倾向于使用基础几何图形、文本和基础形状进行构建,减少了对复杂路径的过度依赖。这使得输出的 SVG 文件更易于手动编辑、检查和二次扩展。 模型对提示词的理解更加深刻,布局决策更加平衡,色彩运用也更具意图感。 针对需要极高精度的技术图表、精密插图等场景,QuiverAI 同步推出了 Arrow 1.1 Max。 该版本在保持核心优势的基础上,进一步强化了色彩还原的准确性和形状对齐的精度。虽然运行时间稍长且成本略高,但它能提供极其稳定的构图,最大限度地减少了后期人工修正的需求。 模型 生成价格 vectorization价格 Arrow 1.0 $0.30 $0.30 Arrow 1.1 $0.20 (↓33.3%) $0.15 (↓50%) Arrow 1.1 Max $0.25 $0.20 app.quiver.ai QuiverAI QuiverAI public beta QuiverAI Introducing Arrow 1.1, a step forward in SVG generation – QuiverAI Our most advanced models yet for generating structured, production-ready SVGs... 3 个帖子 - 3 位参与者 阅读完整话题
想请问下各位佬,在平时研发工作中有没有什么好用的奇淫技巧提升gpt模型的能力 平衡思考时间与最终输出质量【公司有报销,不需要关心token消耗】 4 个帖子 - 3 位参与者 阅读完整话题
经过昨天 浏览话题怎么才能涨啊,升级好难! 的指点,终于把话题数提升上来了,现在就差获赞天数,心情大好。 11 个帖子 - 10 位参与者 阅读完整话题
既不思考又没有逻辑方案做的也不怎么样,是比降智后提升20%吗,语风还开始和GPT一样非人类了,真是世界上最神秘的模型啊A/你更新了什么 成绩是怎么测出来的,难道用英语提高模型回答质量现在还成立吗?!我还是希望是Notion自己降智的,我之前可是Claude系列模型的吹子啊 3 个帖子 - 3 位参与者 阅读完整话题
语言风格有些像gpt 低思考模式下,基本和弱智模型一样 只有max思考强度下,才可以稳定的比以前的4.6强,但是代价是更长的思维链更长的输出,更多的钱,更慢的响应 10 个帖子 - 9 位参与者 阅读完整话题
(翻译得有问题,“速率限制”的意思是5h/7d配额提升) 太好了,可以切换成opus4.6用更多的token了 一键换车指令:CC输入 /model claude-opus-4-6[1m] 7 个帖子 - 6 位参与者 阅读完整话题
Anthropic 发布其最新模型 Claude Opus 4.7,在高级软件工程领域较 Opus 4.6 实现显著提升,尤其在最高难度任务上表现突出。用户反映可将此前需要紧密监督的高难度编程工作放心交由 Opus 4.7 独立完成,模型能够在复杂长流程任务中保持严谨与一致性,并在反馈前自行验证输出结果。 网络安全方面,Opus 4.7 是 Project Glasswing 计划下首款搭载新型网络安全防护机制的模型,可自动检测并拦截违禁或高风险的网络安全相关请求;其网络安全能力弱于 Mythos Preview,Anthropic 表示将借此次部署积累经验,为 Mythos 级别模型的广泛发布做准备。视觉能力方面,Opus 4.7 支持最高 2,576 像素长边(约 375 万像素)的图像输入,超过此前 Claude 模型的三倍,进一步拓展了计算机使用代理、复杂图表数据提取等多模态应用场景。 Opus 4.7 现已在 Claude 全系产品及 API、Amazon Bedrock、Google Cloud Vertex AI 和 Microsoft Foundry 上线,定价与 Opus 4.6 一致,API 输入价格为每百万 token 5 美元,输出为每百万 token 25 美元,开发者可通过 claude-opus-4-7 调用。此次更新同步推出多项新功能:新增 xhigh 努力等级(位于 high 与 max 之间);API 侧以公测形式上线任务预算功能;Claude Code 新增 /ultrareview 深度代码审查命令,并将自动模式扩展至 Max 用户。 anthropic.com Introducing Claude Opus 4.7 Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems. 5 个帖子 - 4 位参与者 阅读完整话题
IT之家 4 月 16 日消息,Anthropic 今日发布了其最新人工智能模型 Claude Opus 4.7。新版本距上一次模型升级仅间隔两个月,与该公司此前的更新节奏保持一致。 Opus 4.7:处理高难度编码任务所需的人工监督更少 Claude Opus 4.7 是 Anthropic 最新面向公众开放的 AI 模型,主打高端软件开发能力。 相比 Opus 4.6,该版本在高级软件工程领域实现了显著提升,尤其在超高难度任务上进步突出。用户反馈称,如今可以放心地将此前需要严密人工把关的最复杂编码工作交给 Opus 4.7 处理。 Opus 4.7 能够严谨、稳定地处理复杂且耗时较长的任务,精准理解指令,并会在输出结果前自行设计验证机制。 Anthropic 表示,该模型视觉能力更强,创作审美更优,可产出更高质量的成果。 模型的视觉能力同样大幅增强:支持更高分辨率的图像识别。在完成专业任务时更具审美与创造力,能够生成质量更出色的界面、幻灯片和文档。 基准测试表现 在智能体编码、计算机操作等多项应用场景的基准测试中,Opus 4.7 表现亮眼,性能超越了 Opus 4.6、GPT-5.4 以及 Gemini 3.1 Pro,但略逊于能力更全面的 Claude Mythos Preview。不过 Mythos 并未像 Opus 4.7 这样全面开放使用,目前 Anthropic 仅向苹果等核心软件平台厂商提供该版本。 其他核心升级 Anthropic 重点强调了 Opus 4.7 在指令遵循、多模态支持、实际工作能力与记忆能力等方面的改进。 官方称:“Opus 4.7 更擅长使用基于文件系统的记忆能力,能够在多会话、长时间的工作中记住关键信息,并依托这些信息开展新任务,从而减少前期所需的上下文信息输入。” 每两个月更新一次 Claude Opus 值得注意的是,Anthropic 已为 Claude Opus 建立了更稳定、可预测的直接升级节奏。 Opus 4.7 距 Opus 4.6 发布间隔两个月,而 Opus 4.6 距 Opus 4.5 同样间隔两个月。此前 Opus 4.1 到 4.5 之间则间隔了三个月。 词元(Token)使用说明 IT之家注意到,官方在公告中向用户说明 Opus 4.7 的 Token 消耗规则: Opus 4.7 是 Opus 4.6 的直接升级版本,但有两处变更会影响 Token 使用,需要提前规划: 1. Opus 4.7 采用了新版分词器(tokenizer),文本处理效果更佳,但代价是相同内容可能会生成更多 Token—— 根据内容类型不同,Token 消耗约为原来的 1.0~1.35 倍。 2. 在高算力模式下,Opus 4.7 的“思考”更充分,尤其在智能体场景的后续交互中。这提升了复杂问题的解决可靠性,但也意味着会产生更多输出 Token。 Claude Code 功能增强 除新模型外,近几周 Anthropic 还对 Mac 端 Claude 应用中的 Claude Code 功能持续迭代: 赋予 Claude 代用户操作 Mac 的能力 在改版后的 Claude Code 中加入自动化流程(routines) 为开发者提供“自动模式”,作为跳过权限操作的更安全替代方案 从即日起,Claude Code 自动模式不再仅限团队版 / 企业版 / API 用户,Max 订阅用户也可使用。 Claude Code 还新增了全新 /ultrareview 指令。官方介绍,该指令会启动专属审核流程,通读代码修改内容,并标记出专业审核人员会注意到的问题。
转载:疑似 ChatGPT 更新图片模型 中文生成能力有大提升 我没订阅 2 个帖子 - 2 位参与者 阅读完整话题
佬友们有没有发现最近opus的道德感提升了很多,之前很多能做的现在都说 违反xxx干不了了。 有啥越狱的方法吗? 1 个帖子 - 1 位参与者 阅读完整话题