智能助手网
标签聚合 v2

/tag/v2

linux.do · 2026-04-18 15:43:51+08:00 · tech

本人一直想要搭建一个中转站,偶然看见sub2api,故使用它搭建了一个,以下是步骤: 先约定 3 个你要替换的值: api.example.com :改成你的域名 [email protected] :改成你的管理员邮箱 CHANGE_ME... :改成你自己生成的随机密钥 1)登录服务器并更新系统 ssh root@你的服务器IP apt update apt -y upgrade timedatectl 这一步是基础准备,先把系统更新到当前仓库版本,并确认时间正常。时间不准会影响 HTTPS、登录态和支付回调之类的功能。Docker 官方当前 Ubuntu 安装文档仍然建议使用官方 apt 仓库安装 Docker Engine。 2)安装 Docker Engine 和 Docker Compose v2 先卸载可能冲突的旧包: for pkg in docker.io docker-doc docker-compose docker-compose-v2 podman-docker containerd runc; do apt-get remove -y $pkg done 安装 Docker 官方仓库: apt-get update apt-get install -y ca-certificates curl install -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc chmod a+r /etc/apt/keyrings/docker.asc echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \ $(. /etc/os-release && echo "$VERSION_CODENAME") stable" \ > /etc/apt/sources.list.d/docker.list 安装 Docker 和 Compose 插件: apt-get update apt-get install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin 检查版本: docker --version docker compose version systemctl enable docker systemctl start docker systemctl status docker --no-pager Docker 官方当前安装文档给出的推荐安装包名就是 docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin 。另外,Docker 也明确提醒:如果你用 UFW 或 firewalld,Docker 暴露出来的端口可能绕过防火墙表面规则,所以正式环境尽量只暴露 80/443,把 8080 留给本机反代。 3)安装 Git、openssl 和基础工具 apt-get install -y git curl wget nano openssl ufw 这些工具后面都会用到: git 拉仓库 openssl 生成密钥 nano 编辑配置 ufw 放行 80/443/22 4)准备部署目录并拉取官方文件 mkdir -p /opt/sub2api cd /opt/sub2api git clone https://github.com/Wei-Shaw/sub2api.git source cp source/deploy/docker-compose.local.yml . cp source/deploy/.env.example .env cp source/deploy/config.example.yaml config.yaml Sub2API 官方部署说明里,手动部署路径就是:克隆仓库、复制 .env.example 、创建 data postgres_data redis_data ,再用 docker-compose.local.yml 启动;并且官方明确把 local 版描述为“本地目录、易迁移”。 5)生成生产环境密钥 先生成三个随机值: openssl rand -hex 32 openssl rand -hex 32 openssl rand -hex 32 把输出保存下来,分别用于: POSTGRES_PASSWORD JWT_SECRET TOTP_ENCRYPTION_KEY 官方 .env 模板和部署说明都强调: POSTGRES_PASSWORD 必填,而 JWT_SECRET 和 TOTP_ENCRYPTION_KEY 最好固定,否则会影响持久登录态和 2FA。 6)写入最终版 .env cat > /opt/sub2api/.env <<'EOF' BIND_HOST=127.0.0.1 SERVER_PORT=8080 SERVER_MODE=release RUN_MODE=standard TZ=Asia/Shanghai POSTGRES_USER=sub2api POSTGRES_PASSWORD=CHANGE_ME_TO_A_LONG_RANDOM_PASSWORD POSTGRES_DB=sub2api DATABASE_MAX_OPEN_CONNS=50 DATABASE_MAX_IDLE_CONNS=10 DATABASE_CONN_MAX_LIFETIME_MINUTES=30 DATABASE_CONN_MAX_IDLE_TIME_MINUTES=5 REDIS_PASSWORD= REDIS_DB=0 REDIS_POOL_SIZE=1024 REDIS_MIN_IDLE_CONNS=10 REDIS_ENABLE_TLS=false [email protected] ADMIN_PASSWORD= JWT_SECRET=CHANGE_ME_TO_A_LONG_RANDOM_HEX_STRING JWT_EXPIRE_HOUR=24 JWT_ACCESS_TOKEN_EXPIRE_MINUTES=0 TOTP_ENCRYPTION_KEY=CHANGE_ME_TO_ANOTHER_LONG_RANDOM_HEX_STRING GEMINI_OAUTH_CLIENT_ID= GEMINI_OAUTH_CLIENT_SECRET= GEMINI_OAUTH_SCOPES= GEMINI_QUOTA_POLICY= GEMINI_CLI_OAUTH_CLIENT_SECRET= ANTIGRAVITY_OAUTH_CLIENT_SECRET= SECURITY_URL_ALLOWLIST_ENABLED=true SECURITY_URL_ALLOWLIST_ALLOW_INSECURE_HTTP=false SECURITY_URL_ALLOWLIST_ALLOW_PRIVATE_HOSTS=false SECURITY_URL_ALLOWLIST_UPSTREAM_HOSTS= UPDATE_PROXY_URL= EOF 然后编辑,把占位符改成你自己的值: nano /opt/sub2api/.env 这里我保留了 .env 里的基础白名单开关,但把域名清单放到 config.yaml 里统一管理,因为官方 config.example.yaml 里真正完整的 URL 白名单字段在 security.url_allowlist 下。 7)写入最终版 config.yaml cat > /opt/sub2api/config.yaml <<'EOF' server: host: "0.0.0.0" port: 8080 mode: "release" frontend_url: "https://api.example.com" trusted_proxies: [] max_request_body_size: 268435456 h2c: enabled: true max_concurrent_streams: 50 idle_timeout: 75 max_read_frame_size: 1048576 max_upload_buffer_per_connection: 2097152 max_upload_buffer_per_stream: 524288 run_mode: "standard" cors: allowed_origins: - "https://api.example.com" allow_credentials: true security: url_allowlist: enabled: true upstream_hosts: - "api.openai.com" - "api.anthropic.com" - "generativelanguage.googleapis.com" - "cloudcode-pa.googleapis.com" - "*.openai.azure.com" pricing_hosts: - "raw.githubusercontent.com" crs_hosts: [] allow_private_hosts: false allow_insecure_http: false response_headers: enabled: true additional_allowed: [] force_remove: [] csp: enabled: true policy: "default-src 'self'; script-src 'self' __CSP_NONCE__ https://challenges.cloudflare.com https://static.cloudflareinsights.com; style-src 'self' 'unsafe-inline' https://fonts.googleapis.com; img-src 'self' data: https:; font-src 'self' data: https://fonts.gstatic.com; connect-src 'self' https:; frame-src https://challenges.cloudflare.com; frame-ancestors 'none'; base-uri 'self'; form-action 'self'" proxy_probe: insecure_skip_verify: false proxy_fallback: allow_direct_on_error: false EOF 改域名: nano /opt/sub2api/config.yaml 官方当前配置示例里, frontend_url 用于生成邮件等外部链接;URL 白名单示例里也明确列出了 upstream_hosts 、 pricing_hosts 、 crs_hosts 、 allow_private_hosts 、 allow_insecure_http 。我这里把样例里的 allow_private_hosts 和 allow_insecure_http 从 true 收紧成了更适合公网生产的 false 。 8)写入最终版 docker-compose.local.yml cat > /opt/sub2api/docker-compose.local.yml <<'EOF' services: sub2api: image: weishaw/sub2api:latest container_name: sub2api restart: unless-stopped ulimits: nofile: soft: 100000 hard: 100000 ports: - "${BIND_HOST:-127.0.0.1}:${SERVER_PORT:-8080}:8080" volumes: - ./data:/app/data - ./config.yaml:/app/data/config.yaml:ro environment: - AUTO_SETUP=true - SERVER_HOST=0.0.0.0 - SERVER_PORT=8080 - SERVER_MODE=${SERVER_MODE:-release} - RUN_MODE=${RUN_MODE:-standard} - DATABASE_HOST=postgres - DATABASE_PORT=5432 - DATABASE_USER=${POSTGRES_USER:-sub2api} - DATABASE_PASSWORD=${POSTGRES_PASSWORD:?POSTGRES_PASSWORD is required} - DATABASE_DBNAME=${POSTGRES_DB:-sub2api} - DATABASE_SSLMODE=disable - DATABASE_MAX_OPEN_CONNS=${DATABASE_MAX_OPEN_CONNS:-50} - DATABASE_MAX_IDLE_CONNS=${DATABASE_MAX_IDLE_CONNS:-10} - DATABASE_CONN_MAX_LIFETIME_MINUTES=${DATABASE_CONN_MAX_LIFETIME_MINUTES:-30} - DATABASE_CONN_MAX_IDLE_TIME_MINUTES=${DATABASE_CONN_MAX_IDLE_TIME_MINUTES:-5} - REDIS_HOST=redis - REDIS_PORT=6379 - REDIS_PASSWORD=${REDIS_PASSWORD:-} - REDIS_DB=${REDIS_DB:-0} - REDIS_POOL_SIZE=${REDIS_POOL_SIZE:-1024} - REDIS_MIN_IDLE_CONNS=${REDIS_MIN_IDLE_CONNS:-10} - REDIS_ENABLE_TLS=${REDIS_ENABLE_TLS:-false} - ADMIN_EMAIL=${ADMIN_EMAIL:[email protected]} - ADMIN_PASSWORD=${ADMIN_PASSWORD:-} - JWT_SECRET=${JWT_SECRET:-} - JWT_EXPIRE_HOUR=${JWT_EXPIRE_HOUR:-24} - JWT_ACCESS_TOKEN_EXPIRE_MINUTES=${JWT_ACCESS_TOKEN_EXPIRE_MINUTES:-0} - TOTP_ENCRYPTION_KEY=${TOTP_ENCRYPTION_KEY:-} - TZ=${TZ:-Asia/Shanghai} - GEMINI_OAUTH_CLIENT_ID=${GEMINI_OAUTH_CLIENT_ID:-} - GEMINI_OAUTH_CLIENT_SECRET=${GEMINI_OAUTH_CLIENT_SECRET:-} - GEMINI_OAUTH_SCOPES=${GEMINI_OAUTH_SCOPES:-} - GEMINI_QUOTA_POLICY=${GEMINI_QUOTA_POLICY:-} - GEMINI_CLI_OAUTH_CLIENT_SECRET=${GEMINI_CLI_OAUTH_CLIENT_SECRET:-} - ANTIGRAVITY_OAUTH_CLIENT_SECRET=${ANTIGRAVITY_OAUTH_CLIENT_SECRET:-} - SECURITY_URL_ALLOWLIST_ENABLED=${SECURITY_URL_ALLOWLIST_ENABLED:-true} - SECURITY_URL_ALLOWLIST_ALLOW_INSECURE_HTTP=${SECURITY_URL_ALLOWLIST_ALLOW_INSECURE_HTTP:-false} - SECURITY_URL_ALLOWLIST_ALLOW_PRIVATE_HOSTS=${SECURITY_URL_ALLOWLIST_ALLOW_PRIVATE_HOSTS:-false} - SECURITY_URL_ALLOWLIST_UPSTREAM_HOSTS=${SECURITY_URL_ALLOWLIST_UPSTREAM_HOSTS:-} - UPDATE_PROXY_URL=${UPDATE_PROXY_URL:-} depends_on: postgres: condition: service_healthy redis: condition: service_healthy networks: - sub2api-network healthcheck: test: ["CMD", "wget", "-q", "-T", "5", "-O", "/dev/null", "http://localhost:8080/health"] interval: 30s timeout: 10s retries: 3 start_period: 30s postgres: image: postgres:18-alpine container_name: sub2api-postgres restart: unless-stopped ulimits: nofile: soft: 100000 hard: 100000 volumes: - ./postgres_data:/var/lib/postgresql/data environment: - POSTGRES_USER=${POSTGRES_USER:-sub2api} - POSTGRES_PASSWORD=${POSTGRES_PASSWORD:?POSTGRES_PASSWORD is required} - POSTGRES_DB=${POSTGRES_DB:-sub2api} - PGDATA=/var/lib/postgresql/data - TZ=${TZ:-Asia/Shanghai} networks: - sub2api-network healthcheck: test: ["CMD-SHELL", "pg_isready -U ${POSTGRES_USER:-sub2api} -d ${POSTGRES_DB:-sub2api}"] interval: 10s timeout: 5s retries: 5 start_period: 10s redis: image: redis:8-alpine container_name: sub2api-redis restart: unless-stopped ulimits: nofile: soft: 100000 hard: 100000 volumes: - ./redis_data:/data command: > sh -c ' redis-server --save 60 1 --appendonly yes --appendfsync everysec ${REDIS_PASSWORD:+--requirepass "$REDIS_PASSWORD"} ' environment: - TZ=${TZ:-Asia/Shanghai} - REDISCLI_AUTH=${REDIS_PASSWORD:-} networks: - sub2api-network healthcheck: test: ["CMD", "redis-cli", "ping"] interval: 10s timeout: 5s retries: 5 start_period: 5s networks: sub2api-network: driver: bridge EOF 这份 compose 依然遵循官方 local 版思路:本地目录持久化、 weishaw/sub2api:latest + postgres:18-alpine + redis:8-alpine 、 /health 健康检查;另外我把 config.yaml 的挂载打开了,因为官方默认是注释状态。 9)创建数据目录并启动容器 cd /opt/sub2api mkdir -p data postgres_data redis_data docker compose -f docker-compose.local.yml up -d docker compose -f docker-compose.local.yml ps 如果一切正常,再看日志: docker compose -f docker-compose.local.yml logs -f sub2api Sub2API 官方说明里写得很明确:Compose 模式下 AUTO_SETUP=true 时,首次启动会自动连接 PostgreSQL 和 Redis、执行数据库迁移、创建管理员账号、在未提供时自动生成管理员密码。 10)取出管理员密码并做健康检查 如果你在 .env 里把 ADMIN_PASSWORD= 留空,就执行: docker compose -f docker-compose.local.yml logs sub2api | grep -i "admin password" 本机健康检查: curl http://127.0.0.1:8080/health 官方手动部署说明和命令示例里都给了从日志里查自动生成管理员密码的方法。( GitHub ) 11)安装 Caddy 并启用自动 HTTPS 先安装 Caddy 官方仓库: apt install -y debian-keyring debian-archive-keyring apt-transport-https curl curl -1sLf 'https://dl.cloudsmith.io/public/caddy/stable/gpg.key' | gpg --dearmor -o /usr/share/keyrings/caddy-stable-archive-keyring.gpg curl -1sLf 'https://dl.cloudsmith.io/public/caddy/stable/debian.deb.txt' | tee /etc/apt/sources.list.d/caddy-stable.list chmod o+r /usr/share/keyrings/caddy-stable-archive-keyring.gpg chmod o+r /etc/apt/sources.list.d/caddy-stable.list apt update apt install -y caddy 这正是 Caddy 官方当前给出的 Debian/Ubuntu stable 安装路径。( Caddy Web Server ) 12)写入 Caddyfile cat > /etc/caddy/Caddyfile <<'EOF' api.example.com { @static { path /assets/* path /logo.png path /favicon.ico } header @static { Cache-Control "public, max-age=31536000, immutable" -Pragma -Expires } tls { protocols tls1.2 tls1.3 } reverse_proxy 127.0.0.1:8080 { health_uri /health health_interval 30s health_timeout 10s health_status 200 header_up X-Real-IP {remote_host} header_up X-Forwarded-For {remote_host} header_up X-Forwarded-Proto {scheme} header_up X-Forwarded-Host {host} header_up CF-Connecting-IP {http.request.header.CF-Connecting-IP} } encode { zstd gzip 6 minimum_length 256 } request_body { max_size 100MB } log { output file /var/log/caddy/sub2api.log { roll_size 50mb roll_keep 10 roll_keep_for 720h } format json level INFO } handle_errors { respond "{err.status_code} {err.status_text}" } } EOF 检查并重载: caddy fmt --overwrite /etc/caddy/Caddyfile caddy validate --config /etc/caddy/Caddyfile systemctl enable caddy systemctl restart caddy systemctl status caddy --no-pager 官方仓库当前确实自带 deploy/Caddyfile ,里面已经包含 TLS、 reverse_proxy localhost:8080 、 /health 健康检查、转发真实 IP 头和日志滚动思路,所以这条路线最省心。 13)放行防火墙 ufw allow 22/tcp ufw allow 80/tcp ufw allow 443/tcp ufw enable ufw status verbose 不要开放 8080 给公网,因为你已经通过 BIND_HOST=127.0.0.1 把应用只绑在本机,再让 Caddy 反代它。这样也符合 Docker 官方对防火墙的安全提醒。 14)最终验证 先本机验证: curl http://127.0.0.1:8080/health curl -I https://api.example.com 然后浏览器访问: https://api.example.com 用管理员邮箱和日志里拿到的密码登录。 15)部署完成后立刻执行的 5 个检查 登录后台,确认能打开首页。 到设置里确认站点 URL 是否正确。 frontend_url 如果没配对,后面邮件链接和支付回调会出错。 如果你要启用 URL 白名单,只保留自己真的要用的上游域名。官方样例里带了 OpenAI、Anthropic、Gemini、Azure OpenAI 等域名,但生产上不建议全开。 如果要开支付,后台路径是 设置 → 支付设置 ,官方当前支持 EasyPay、支付宝官方、微信官方、Stripe;多实例分流支持 round-robin 和 least-amount ,回调地址会按你的域名自动拼接。 如果你用 Stripe,记得订阅 payment_intent.succeeded 和 payment_intent.payment_failed 。 16)后续最常用的运维命令 cd /opt/sub2api # 看状态 docker compose -f docker-compose.local.yml ps # 看日志 docker compose -f docker-compose.local.yml logs -f sub2api # 重启应用 docker compose -f docker-compose.local.yml restart sub2api # 更新镜像 docker compose -f docker-compose.local.yml pull docker compose -f docker-compose.local.yml up -d # 停服务 docker compose -f docker-compose.local.yml down 官方部署说明里也给了 local 版这组常用命令,并强调 local 版最方便整目录迁移和备份。 4 个帖子 - 4 位参与者 阅读完整话题

linux.do · 2026-04-17 11:27:12+08:00 · tech

claude ▐▛███▜▌ Claude Code v2.1.112 ▝▜█████▛▘ Opus 4.7 (1M context) with xhigh effort · API Usage Billing ▘▘ ▝▝ C:\Users\dingy ❯ 你好 ⎿ 503 {“error”:{“code”:“model_not_found”,“message”:“No available channel for model claude-opus-4-7 under group auto (distributor) (request id: 202604170325133370552998268d9d6wLWX86kr)”,“type”:“new_api_error”}} Retrying in 12s · attempt 10/10 Nebulizing… (2m 53s) ⎿ Tip: Use /btw to ask a quick side question without interrupting Claude’s current work 这种情况是不是claude官方做了什么限制? 现在国内中转站完全用不了了 3 个帖子 - 3 位参与者 阅读完整话题

linux.do · 2026-04-16 17:58:37+08:00 · tech

下面是使用V2rayN下操作的,混合端口10808; clash换端口即可 win11可以wslconfig里面启用mirror模式和autoproxy 但是autoproxy只能把http https代理带到wsl2中 .wslconfig配置可参考: [wsl2] # 限制内存使用(可选) # memory=8GB autoProxy=true # 开启镜像网络模式 networkingMode=mirrored # 开启 DNS 隧道 dnsTunneling=true # 开启 Windows 防火墙整合 firewall=true [experimental] # 自动回收内存 autoMemoryReclaim=gradual # 自动释放虚拟硬盘空间 sparseVhd=true # 允许 localhost 回环 hostAddressLoopback=true Tun 然后最最最省心的就是 开tun模式 ,但是 如果开tun模式没用 ,解决方法: 进入v2rayn中的 设置–>参数设置–>tun参数设置–> MTU设置为1500 在我win11的电脑上tun模式代理不起作用之后,使用这个方法确实有效了。(我也建议把严格路由关了,很多开启tun之后电脑代理直接失效跟严格路由也有关系) 使用系统代理,不想用Tun 有很多佬友确实不喜欢tun,那就是在wsl2的bashrc末尾添加代理设置 (这里只是添加socks代理,部分程序使用socks,前面autoproxy已经把http/s代理带过去了) 。 cat >> ~/.bashrc <<'EOF' setall() { if timeout 1 bash -c '</dev/tcp/127.0.0.1/10808' 2>/dev/null; then export ALL_PROXY=socks5h://127.0.0.1:10808 export all_proxy=socks5h://127.0.0.1:10808 else unset ALL_PROXY all_proxy fi } setall EOF 复制上面 回车后,再输入下面,回车 source ~/.bashrc 注:这个设置是长久性,不是窗口临时的 这样的话 10808 能连上,就设 ALL_PROXY 10808 连不上,就取消 ALL_PROXY 保证直连 手动重新检测的话(即wsl2开了 v2rayn没开读不到),输入setall win10 没有mirror模式 Tun最省事 开tun什么都不怕了() 依旧 建议关闭严格路由 ,MTU的问题我在win10上没遇到过,不过改1500也挺好 系统代理 win10的主机地址 在wsl那通常不是127.0.0.1,我之前因为这个连不上。 所以需要先获取 设置 再添加代理。 下面是自动获取win10主机地址、添加代理,自动检测windows端代理通不通 cat >> ~/.bashrc <<'EOF' # ==== WSL 代理自动配置 ==== proxyon() { hostip=$(ip route | awk '/default/ {print $3}' | head -n1) export http_proxy="http://$hostip:10808" export https_proxy="http://$hostip:10808" export all_proxy="socks5h://$hostip:10808" export HTTP_PROXY="$http_proxy" export HTTPS_PROXY="$https_proxy" export ALL_PROXY="$all_proxy" echo "WSL 代理已开启 -> $hostip:10808" } proxyoff() { unset http_proxy https_proxy all_proxy HTTP_PROXY HTTPS_PROXY ALL_PROXY echo "WSL 代理已关闭" } proxyauto() { hostip=$(ip route | awk '/default/ {print $3}' | head -n1) if [ -n "$hostip" ] && timeout 1 bash -c "</dev/tcp/$hostip/10808" 2>/dev/null; then proxyon else proxyoff fi } proxyauto EOF 然后输入下面 回车 source ~/.bashrc 每次你打开 WSL: 先拿当前 Windows 主机 IP 检查 $hostip:10808 是否能连通 能连通 :自动设 http_proxy / https_proxy / ALL_PROXY 不能连通 :自动 unset ,走默认直连 仍然可以手动执行三个命令proxyon强制开启/ proxyoff强制关闭/ proxyauto重新检测 配置后检查 curl -I https://www.google.com --max-time 10 有http 200啥的就是成功了 curl https://ifconfig.me --max-time 10 显示代理ip就是成功了 结尾 应该能帮到大部分被这wsl代理配置折磨很久的佬,有错的地方佬友指正。 我是小白,碰到的问题大部分这样都解决了。 (还是tun省事啊) 2 个帖子 - 2 位参与者 阅读完整话题

www.ithome.com · 2026-04-15 22:28:01+08:00 · tech

IT之家 4 月 15 日消息, 统信软件今日正式发布统信桌面操作系统 V25 ,推出跨端全天候智能助手 Uclaw,还支持在电脑上操作手机。 IT之家注意到,龙芯中科已官宣深度适配统信 UOS V25,并全程深度参与适配与联合优化, 已完成 LoongArch 全平台适配与调优 ,可确保 V25 在龙芯平台上实现 AI 能力、文件管理、系统稳定性、应用兼容等特性完整落地。 智慧生产力: 系统迈入 AI 3.0(Agent OS)时代,具备任务拆解与多智能体协作能力,这意味着操作系统不再是等待指令的被动工具,而是能够主动理解用户意图、协助完成任务的智能伙伴。 高效生产力: 重塑文件管理,支持多维度全文检索、智能分组、四种视图模式;企业级文件共享默认 SMB 协议,传输性能最高提升 50%,新增“文件投送”功能,与 Windows 设备一键互传;交互采用扁平化 + 毛玻璃设计,音频架构升级为 PipeWire,支持多指手势定制,优化 20+ 模块、150+ 功能点。 可靠生产力: 磐石架构 2.0 实现系统与应用解耦,通过只读保护、原子更新、快照恢复等机制大幅提升稳定性,文件拷贝、压缩等性能显著提升。 ▲ UOS V25 桌面系统在龙芯平台运行 相关阅读: 《 统信 UOS 桌面操作系统 V25 发布:跨端全天候智能助手 Uclaw,支持电脑上操作手机 》

www.ithome.com · 2026-04-15 16:37:30+08:00 · tech

IT之家 4 月 15 日消息,统信软件今日正式发布 统信桌面操作系统 V25 ,推出跨端全天候智能助手 Uclaw,还支持在电脑上操作手机。 IT之家附主要升级内容如下: 智慧生产力 系统升级了 AI 架构 ,增加了智能体服务层(全局场景感知、运行沙箱环境、记忆与个性化),并构建了通用智能体能力框架,面向办公和生产力场景进行特化优化,提供伴随式 AI 助手。 此外,统信软件开放了 AI SDK V2 接口,开发者可以便捷快速地构建自己的 AI 应用,进一步丰富智能生态。 统信桌面操作系统 V25 针对高频办公场景特化了写作智能体与数据分析智能体两大智能体。 统信桌面操作系统 V25 推出 跨端全天候智能助手 Uclaw ,使 UOS AI 新版本天然具备了类似 OpenClaw 的 7×24 小时工作模式,可与飞书、钉钉、QQ、微信一键打通,开箱即用。 高效生产力 系统大量引入便携式操作,并采用全新的曲线算法,图标、控件、窗口更加融合;针对系统内 40 多个细节进行打磨,并对 20 多个模块的 150 多个功能进行了深度优化。 在 V20 全文检索(仅文本文件)基础上,新增支持图片文件搜索;保留自然语言搜索,不依赖本地向量数据库,减少资源占用;搜索响应达到秒级。 新版本跨端协同提供了移动客户端, 用户可在电脑上操作手机 。 可靠生产力 基于 6.6 内核与磐石系统 2.0,统信桌面操作系统 V25 在安装部署、开机、大文件拷贝、压缩解压等场景的性能 均优于上一代产品 。 USEC 2.0 在继承 V20 全栈安全架构的基础上,对内核安全、磐石系统、玲珑沙箱等核心模块进行了加强。新增功能包括:统一安全架构、D-Bus 安全加固、企业级磁盘加密系统、软硬件协同防护等。 硬件层面,统信软件与国内主流 CPU 厂商联合优化,兼容最新政府采购 CPU 型号,推荐使用最新型号以获得最佳体验,同时持续兼容上一代及之前型号。 软件层面, 应用商店上架应用超过 1 万款 ,玲珑格式包超过 6000 款,Windows 兼容引擎商店提供超过 4000 款 Windows 应用,满足日常办公需求。

linux.do · 2026-04-15 11:45:37+08:00 · tech

拿了的帮我点点赞,需要赞升三级 eGFpLUl5R1RCTzBJOWpHQmFUOHpKNjFvUXlTaFNRQnozNkp0VktYY3o0a1E1RHBDMVQwTDk1ZVNKZUxjc2dkQ1ZNWEJrZzZlY0o2WFVhVG5QV25s eGFpLUVHWXFzQTFMM3pub2F5Qnl2YkpTTUFMaWg2VWVQeWVlUXp2OElabFFBdjlWbVRzZGdIUXlCaWdvRDZWWERCODhueXJ5VUh1OVU2U2hrYnRT eGFpLTFQdXBDR1pGVU1LdFY4ZHh1ZzNvMEM2SG1JUllxZUE3dzV2bWdDa0dKaWRFa09SOXVMVTJKc2dGRHh4ME1obVNnelg2UDI3WFRzR2N0Vjdn eGFpLVhkMEgwclg1NmZyaG93bjVjeVNQaElKNmwxQ2JkSjdHclhNSVFkMHdzTlBadjJEUjU1SjhHeklsMWdzdnh2Sm9QRDd5czl6N0VxMjczaTJ3 64解码就行了 5 个帖子 - 5 位参与者 阅读完整话题

www.ithome.com · 2026-04-14 15:02:08+08:00 · tech

IT之家 4 月 14 日消息,据“深圳特区报”,南方电网深圳供电局在深圳光明虹桥公园打造了粤港澳大湾区目前规模最大的车网互动超充示范站“虹桥公园超充站”, 现阶段配备了 23 台 V2G(车网互动)充电桩,覆盖 37 个车位 。 ▲ 具体位置 南方电网深圳光明供电局有关负责人介绍,虹桥公园超充站整站资源已接入深圳虚拟电厂管理中心,站点单次最大放电功率达到 2770 千瓦。目前投运的 23 台充电桩中,1 台是具备最大功率 1000 千瓦充放电能力的兆瓦级超充, 最快 5 分钟可补 400 公里续航 ;6 台 600 千瓦超充桩,充电速度最快“一秒一公里”;11 台 250 千瓦 —300 千瓦快充桩,一辆电动汽车能在 30 分钟或更短时间将电量充到 80%;其余为 30 千瓦 —120 千瓦的快充桩。 ▲ 虹桥公园超充站具备最大功率 1000 千瓦充放电能力的兆瓦级超充停车位 有关负责人表示,虹桥公园超充站拥有 3 项“全国首创”成果。全国首座 20 千伏预装式“电力魔方”配电房在该站投用,可实现“零碳”运行; 站内配备全国首台全液冷乘用车单枪兆瓦级 V2G 桩 ;站内搭载全国首个面向超充场景钠离子电池储能装置,以更稳定性能支持高功率充放电。 同时,虹桥公园超充站车棚还铺设了约 600 平方米的光伏板,年发电量约 14 万度。光伏、储能与充电桩通过直流直连,构建起“光储直柔”微电网。依托综合能源管理平台,场站可实现全时段智能运维与安全告警,带动区域新能源产业的集聚和发展。 ▲ 虹桥公园超充站车棚铺设了约 600 平方米的光伏板

www.ithome.com · 2026-04-13 21:16:50+08:00 · tech

IT之家 4 月 13 日消息,据“统信软件”公众号今日更新, 统信桌面操作系统 V25 将在 4 月 15 日(后天)下午 14:00 发布 ,号称是“能办事、更懂你的操作系统”。 据官方介绍,早期的国产操作系统用户评价往往两极分化:技术爱好者觉得“还不错”,普通用户觉得“太难用”。痛点集中在三个方面 —— 生态匮乏(IT之家注:想用的软件没有)、体验割裂(操作逻辑陌生)、稳定性不足(偶尔崩溃)。 而统信团队用了三年时间, 把这三个拦路虎逐个击破 。不是靠某一次“大版本”的奇迹,而是靠每个月、每一周甚至每一天的迭代。那段日子,没有人提“情怀”,所有人都在埋头填坑。 目前,人工智能正在重塑一切,操作系统的角色也在悄然改变,从被动的指令接收器,变成能够理解、判断、执行的智能空间。统信即将到来的新系统将从“工具”进化为“伙伴”。