各位佬友、始皇: 最近看到社区在讨论 跳蚤市场 的准入门槛,有观点认为应大幅提高点数限制(如 3000 点以上)以减少小号跑路现象。读完相关帖子后,我也有些思考,想从运营和交易安全的角度分享一些建议。 为什么“点数门槛”不是最优解? 单纯靠点数一刀切,确实能过滤掉一部分成本极低的小号,但其局限性也显而易见: 误伤优质“潜水佬”: 很多手里有优质闲置资源的佬友,平时可能并不热衷于水贴赚点数,高门槛会将这部分真实需求挡在门外。 点数并非绝对信用: 点数是可以“刷”出来的,高点数虽然增加了跑路成本,但并不能完全杜绝骗局。 安全感的来源: 真正的安全感不应仅来自发帖人的身份等级,而应来自 规范化的交易流程 。 从“身份准入”转向“流程治理”的几点建议: 为了让真正想交易的用户能用好这个板块,同时最大限度挤压骗子的生存空间,建议从以下几个维度完善: 1. 建立分级信任机制(信用标识): 不再单纯看论坛等级,而是引入“交易信用记录”。通过累计成功的交易数、佬友的评价,给予特定的信用标识。让买家一眼就能区分“纯新人”和“口碑老卖家”。 2. 完善/引导社区担保流程: 鼓励低等级账号在交易时使用社区公认的担保方式(如果可能有担保的话)。让“想交易”的人有路可走,让“想骗人”的人在资金托管面前无处遁形。 3. 沉淀交易评价体系(口碑墙): 建立或鼓励买家回帖反馈制度。每一笔成功的交易都是对卖家的信用背书。 4. 引入“社区仲裁机制”(L站小法庭): 这是最关键的一环。与其担心跑路,不如建立一套公开的纠纷处理流程。 一旦产生争议,双方可开启“仲裁话题”。 由社区内高等级、高信誉的佬友组成“临时评审团”,根据双方提供的聊天记录、转账凭证进行投票裁定。 这种“社区共治”的方式,不仅能还诚信者清白,更能将骗子的行径公开化、永久化,形成极强的社区威慑力。 最后我还想说 好的规则应该是让诚实的人感到方便,让投机的人感到困难,而不是让所有人都感到麻烦。 希望跳蚤市场能通过机制的完善,变成一个低风险、高效率的资源流转地,而不是一个只能通过“水贴”才能进入的封闭圈子。 以上建议,供始皇和各位佬友参考。 8 个帖子 - 5 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 github.com GitHub - aiporters/funclaude-deploy: Deployment assets for funclaude — docker-compose,... Deployment assets for funclaude — docker-compose, nginx, env templates claude.ai 镜像站,致敬 fuclaude 实在是等不到始皇更新了,我司的产品设计都要停摆了,只好自己出来搓了,花了我整整两天! 主要参考了这两个帖子: 【v0.5.1】闲来无事搓的一个小玩具 资源荟萃 [image] Q:这玩意是什么? A:不好说。 Q:这玩意有什么用? A:不好说。 Q:这玩意好使吗? A:不好说。 Q:这玩意有副作用吗? A:不好说。 Q:那有什么能说的? A:解压密码:linux.do 域名被抢注,已改名 fuclaude 我愿称之为 法克劳德 已发布 v0.0.2,新增 /login_token?session_key=sk-xxx,新增… 关于自建fuclaude 无法新建对话的最终调查 开发调优 2026年03月07日19 最新进展: 重新登陆了一下,又复现对话 not found问题了。 前情回顾: 自从发帖:自建fuclaude 无法新建对话。 之后有佬友反馈说可以,有些说不行。一通测试下来发现是这样的:如果用sk-来使用的话 是完全没问题的。但是 如果你使用共享帐号访问的话就出问题了! 使用OAuth2 登录的话 就会无法新建对话 。 所以这样就应对了为什么有些佬友说… 一个是之前始皇发布的 fuclaude的功能,另一个是 @SeptemberHX 提供的手搓的思路。 1.有报错可以提,但不保证修得好。 2.源代码就不开源,反正我也看不懂,而且始皇也没开源,跟始皇不会错。 3.始皇修复fuclaude,我就停更,用始皇的没错。 已发布 v0.1.0 多用户 / 会话隔离 通过 oauth 登录实现会话隔离(跟 fuclaude 一样)。 生成 oauth_token 时指定 unique_name : curl ‘ http://127.0.0.1:8282/manage-api/auth/oauth_token ’ \ -H ‘Content-Type: application/json’ \ -d ‘{ “session_key”: “sk-ant-sid01-xxx”, “unique_name”: “user1”, “expires_in”: 0 }’ 拿回的 login_url 发给用户。 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下全是我自己手搓,没有ai味(我用最真实、最不绕、最直接的方式跟你讲 hhhhh),放心品尝 很多人以为 Skill 迭代最难的是"怎么改"。 但我越来越强烈地觉得,真正难的其实不是改,而是: 你改完之后,根本不知道它到底有没有真的变好。 补描述、调 prompt、加例子、补边界、改结构。 Skill 看起来越来越完整,文档越来越像样,语气越来越专业。 但问题是: 看起来更完整,不等于真的更强。 skill的实际行为未必更稳定,边界未必更清晰,失败处理也未必更好。 所以很多 Skill 维护最别扭的地方,其实不是"不会写",而是你明明已经改了很多轮,却还是说不清: 上一次改动,到底有没有真正产生作用。 我后来专门跑了 100 个高下载 Skill,发现问题并不是"不能用" (是的,烧我自己的token)结果最有意思的地方,不是烂 Skill 特别多。恰恰相反,大多数 skill 其实都能用: 70 个通过 29 个在 caution 区间 1 个 fail 平均分 73.8 真正的问题不是:大多数 Skill 完全不能用。 而是 很多 Skill 停在一个很尴尬的状态:能用,但不容易被继续有效优化。 你一旦想认真往上修,就会发现问题不少,但很难判断到底该先修哪一块。 也就是说,难点不是"没法写",而是 没有诊断,所以不知道怎么有效地继续改。 更关键的是,这种"不对劲"还不是随机的。 我看到的弱点主要集中在几个地方: Trigger quality 平均 6.2 Functional quality 平均 6.6 大约 80% 缺少 not_for 边界 大约 60% 的 D4 弱项 Skill 缺少像样的 error recovery guidance 还有接近 40% 更像"写给人看的说明书",而不是"写给模型执行的操作说明" 这里翻译成人话就是: 很多 Skill 不是坏在"完全不能用",而是坏在几个特别重复的地方:不会划边界,不会处理失败,也没有把行为写得足够可执行。 所以我后来做了 SkillCompass 我想解决的,不是"怎么把 Skill 写得更长、更完整",而是另一件更关键的事: 在你动手优化之前,先看清问题到底在哪;在你改完之后,再验证这次修改有没有真的产生提升。 所以对我来说,SkillCompass 不是一个"给 Skill 打个分"的工具而已。 它更像一个给 Skill 迭代提供方向感的东西: 现在最弱的是哪一维 下一步该先修哪里 这轮修改有没有真的带来提升 有没有把别的地方一起改坏 【这里插一句compass 这个名字,指南针🧭,其实也是这个意思。不是替你做决定,而是先帮你定位方向。 】 所以它背后的设计原则也很简单: 本地优先 :所有数据都留在本机,除非你明确要求,否则不会主动发起网络请求 默认只读 :评估和报告默认不改文件,improve、merge、rollback 这类写入操作都要明确开启 被动追踪,主动决策 :Hooks 会收集使用数据,但系统只给建议,不会自动替你执行 双通道交互 :既支持键盘选择,也支持自然语言查询,两种方式始终都可用 同时我把评估分成了6个维度;把判定标准分成3档 它不是在帮你"多改一点",而是在帮你把迭代变成一个可验证的流程 与其盲目地"再多写一点",不如把 Skill 迭代拆成一个更清晰的 workflow。下面拿agile-product-owner作为一个例子展开讲讲: 1)先诊断 不要一上来就改。先看清楚最弱的是哪一维。 很多时候你以为问题在 wording,实际可能卡在 trigger、边界、失败处理,或者执行指令根本不够可操作。 先把最弱项找出来,后面的修改才不是瞎试。 接着它出一个初步的报告,包含维度1-3,后面会有一个完整的全方位维度1-6的测评报告(看下图): 2)再看单项到底在说什么 我觉得这一步特别重要。 因为很多人一看到分数,会下意识觉得"哦,这项低,那我去多写一点"。 但 SkillCompass 真正有价值的地方,不是只给分,而是会把某个维度为什么高、为什么不满分、它到底在判断什么,说得更清楚。 比如拿 D6 = Uniqueness(独特性 / 不容易被替代) 来说,它看的不是"你这段话写得顺不顺",而是在看: 这个 skill 是不是真的有独立价值 有没有明显重复品 跟相似 skill 重合度高不高 是不是一句普通 prompt 就能替代 它是不是很快就会过时 这里个skill的这一维最后给到 8 分,不是说它不好,而是说:它已经有明确领域专属性,也不太容易被普通 prompt 替代,但还没有强到"极其不可替代"的程度。 3)定点修复,而不是整份 Skill 重写 找到弱项之后,不是整份 skill 重写一遍。 而是只修最该修的那一块。所以我们把弱项加强,不好的修正,但不污染上下文 **这里要敲重点!!!**它做了那段分数解释,并且新版分更高的同时也没有把别的地方改坏,因为修改目标清楚,而且不会为了补一个问题,把别的地方一起搅乱。 此时,SkillCompass 已经完成这轮评估/优化结果的写入(提升了 D5),没有出现回归,然后把新的评估记录和最新扫描时间写进本地文件。 4)改完再验证,千万不要靠感觉收工 改完不能靠"看起来更完整了"就结束。要重新验证这次修改到底有没有带来真实提升。 分数有没有上去,解释有没有更扎实,别的维度有没有被改坏,这些都得重新看。 (((兄弟们,有效的优化才叫"迭代",不然就是屎上雕花。))) 5)再找下一个瓶颈 一个问题修完,不代表 skill 就完成了。 通常是这个瓶颈被拿掉之后,下一个瓶颈才会浮出来。 所以真正有效的迭代,不是一次性改到完美,而是持续地: 诊断问题 → 定向修复 → 验证提升 → 找到下一个瓶颈 这也是我现在更认同的一种 Skill 迭代方式:不是凭感觉打磨,而是把迭代变成一个更可验证的 workflow。 适合什么人,不适合什么人 适合: 任何在维护 agent skills,并且希望质量能够被量化的人 想要有明确改进方向的开发者—不是靠猜,而是清楚知道下一步该修哪个维度 需要质量门槛的团队—任何会改动 skill 的工具,都可以在改动后自动接受评估 安装了很多 skills、想看清哪些真的在用、哪些已经陈旧、哪些存在风险的用户 不适合: 通用代码审查或运行时调试 从零创建新 skill(这个更适合用 skill-creator) 评估非 skill 类型的文件 项目在这里: github.com GitHub - Evol-ai/SkillCompass: Evaluate agent skill quality. Find the weakest… 有兴趣的佬欢迎去 GitHub 点个 star 支持一下。 如果你手上也有自己的 SKILL.md,欢迎直接贴出来,我这边也可以顺手用 SkillCompass 帮你跑一遍测评。 有问题也欢迎一起聊,也可以 fork 回去自己改着玩 2 个帖子 - 2 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 前言: 事情起因,我想给虚拟机显卡能力提升下,在网上找到个工具,可以给虚拟机分配显卡,还有硬件直通,因为没玩过这玩意,显卡直通直接给物理机弄黑屏了,绷。当时害怕是因为,以为这电脑没核显,那没救了。后面通过改bios混合模式才救回来。然后就对cc和codex一顿拷打,实现这个工具,可以让物理机和虚拟机同时使用显卡。 功能: 一键为 Hyper-V 虚拟机配置 GPU 半虚拟化(GPU-PV),自动完成 GPU 分配和驱动复制。 使用过程: 主界面 — 选择 GPU、虚拟机,输入显存大小 配置前 — VM 设备管理器,只有 Hyper-V 视频 配置成功 — GPU-PV 配置完成,驱动已复制 配置后 — VM 设备管理器,RTX 4060 已识别 GPU 跑分 — VM 内运行 FurMark,GPU 正常工作 要我说使用感受的话,我感觉也就是虚拟机可以看到显卡,具体划分多少性能过去了,咱也不懂。反正多少是能用了。 免责声明 本人电脑(物理机win11 iot ltsc,虚拟机win10 ltsc)使用没事,但涉及虚拟机及数据方面,我觉得还是要谨慎点 项目地址 github.com GitHub - sec1900/HyperV-GPUshare 通过在 GitHub 上创建帐户来为 sec1900/HyperV-GPUshare 开发做出贡献。 觉得有用的佬们给点点star 如果有其他更好的方式去实现,也希望能甩我几个关键词或者帖子看看 1 个帖子 - 1 位参与者 阅读完整话题
前情提要:小红书疑似刷到一位L站用户,对不了解AI的人出言不逊十分傲慢 Reference: 上一帖 , 小红书原文 这让我想到了很多年前自己的一个脑洞,如何才能构建一个高质量的理想社区。这个念头的起源来自于当初的知乎从邀请制社区变为开放注册,在短时间内从一个文章质量很高的社区快速跌落成段子手集群的代名词,知乎的股价也同样快速下降,从早期开放注册之后的快速上市,到24年的几乎要被强制退市。用户数量的增长不可避免地带来用户质量的下降乃至社区质量的下降,而用户数量的增长本身则某种意义上也是社区经营的目标之一 - 看起来一个理想社区已经被嵌套在了死循环里。 由于当年的想法现在只残余一些模糊的记忆,我很难成体系地去重构我当时的论点,但我想提出几个问题和我自己的潜在回答或想法来抛砖引玉 1. 谁来制定社区规则? 我最初的想法从“我心目中的理想社区是什么样的”开始。尽管这个想法的源头是厌恶知乎的风气与内容的恶化,但当时和现在的我都不认为“我心目中的理想社区具备一个面面俱到的构造”。假设我真的可以,我如何保证我在时间的推移下,作为管理者,眼界和想法不会发生劣化?如果完全通过社区共识来构建规则,我相信一切会变坏的终究会变坏,随着用户的增长,社区的共识必然会成为最初的共识的劣化。 这看起来像是另一个死循环,但也许它并不重要:一个真正意义上不会劣化的理想社区可能存在吗?谁又要来定义劣化?这种无限循环式的发问是没有止境的。最终我没有继续在这个问题上思考,我不确定这是否有意义。 2. 如何平衡用户数量和用户质量? 许多社区的雏形最初都是由某些同温层开始的,而当社区真正开始走出自己的圈子时,对于非同温层开始具备某些吸引力(如认同感、实用性、经济利益)时用户质量就会走向下滑。社区的共识逐渐从某个具体的主题被社区的工具性替代。这不可避免,如果一个社区能够突破圈层地被认同,相信它本身在各个圈层具备相同的魅力并不十分合理,而相信它的工具性则是合理的多 - 正如不是所有人都偏好某种具体收藏,但没有人会拒绝钱。 我认为邀请制是答案,但又不完全是答案。如果社区成员的身份具备实际价值,社区本身开始突破圈层,邀请制将失去筛选的功能,仅剩下“节流”的作用。邀请机制本身或许需要某种更复杂的构造来实现这一目的。 3. 纯粹的脑洞 - 去中心化社区 当我们讨论去中心化社区时,我们往往指代的是在“技术实现上去中心化”。而这里我指代的是,将用户视作节点去构建共识算法。许多社区对与这一点也许有不同的认识。Mastodon的实现是实例层面的共享黑名单,但这里的节点是每个社区实例而不是用户。同时,这也callback到第一个问题:谁来制定社区规则?当规则的执行者始终是人而不是算法时,我们有必要去质疑,人作为执行者,是否严格执行了规则。当然,博弈论也是构建共识算法的方式,同时也是可以技术上容易实现的 - 但它的工具性太强烈了,强烈到完全覆盖了社区的交流属性。如何用技术构建一个并不功利的共识算法,乍一听似乎在llm时代具备一定的可行性,但具体到细节,在今天我觉得仍然是难以实现的,说到底,只要LLM仍然可能存在幻觉或被提示词注入,我们并不能完全信任其成为验证节点。 我很想写点什么当作收尾但没什么想法……但我很担心意图被错误的解读。这些问题的提出或许可能会被视作对L站现状的不认可,但,没有。L站已经比其他社区更坚持规则,更接近理想社区,对此没有什么可以抱怨的。谨以此文当作一个头脑风暴乱想的引子orz 6 个帖子 - 4 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 事情的起因是,最近想玩一玩胶片摄影,但是奈何 Android 没有很好的测光软件,索性自己就vibe了一个,现已开源: https://github.com/JessieChan0730/com.lamameter.pro 目前 v1.1.0 版本已经实现了最基本的测光功能,接下来计划实现下面几个功能: 白平衡检测 估焦测距 分区曝光 目前部分界面的设计: 求求佬友们给给建议(无论是功能、UI还是BUG都可以) 。如果有佬友喜欢这个项目,觉得这个项目还不错的话,也可以帮忙提提issue或者点一点star 。感谢各位佬友的支持啦! 2 个帖子 - 2 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 写这个项目是因为工作上有这个需求,所以3天炫了一个雏形出来: 项目地址: GitHub - spongehah/Openagent-Github-Bridge: Self-hosted GitHub-to-OpenCode bridge for AI issue fixing, planning, slash-command coding, and PR review with full workspace control. · GitHub 我认为最大的优势就是,除了在github协作使用ai以外,可以随时打开opencode自己的web页面,也可以vscode ssh remote直接人工编辑文件 如果团队已经在用 GitHub 做代码协作,那下一步其实不是再加一层复杂流程,而是把 AI 直接接进 GitHub 本身。 OpenAgent GitHub Bridge 做的就是这件事:把 GitHub Webhook 事件直接桥接到你自管理的 AI coding agent,让 Issue、评论、PR 这些原本就存在的协作入口,直接变成 AI 的任务入口。 这件事的价值,不只是"自动修 Bug"这么简单,而是它给团队带来了一种更自然的 AI 协作方式: 研发可以在 GitHub 上并发推进多个任务,AI 按 Issue / PR 维度独立执行,互不干扰 产品、运营、测试 等非研发角色,也可以直接在 GitHub 提 Issue,让 AI 先产出 plan,再进入开发 可以和 GitHub Projects 一起使用,把需求、计划、执行、Review 串成一条闭环流程 很多原本依赖 Jira 之类传统项目管理工具的场景,可以直接回收到 GitHub 内完成,减少系统切换和流程割裂 相比把 AI 放在一个独立聊天窗口里,这种方式更像是把 AI 变成团队流程中的真实执行者。 你可以给 Issue 打 ai-fix 让它自动修复,打 ai-plan 让它输出实施方案,也可以通过评论指令直接让它开工,PR 创建后还能自动触发review。 更关键的是,这不是一个封闭黑盒。Agent 运行在你自己的机器或服务器上,模型、权限、工作目录、运行环境都由你掌控。同一个 Issue / PR 还能复用同一 Session,保留上下文;每个任务又有独立 git workspace,保证并发执行时不互相污染。 它让 GitHub 不再只是"放代码的地方",而是可以逐步替代部分传统项目管理工具、承接跨角色协作、并把 AI 真正接入团队工作流的统一平台。 后续规划:完善体验,以及接入更多的ai agent 相比 Codex / Claude Web 版和 GitHub App 的优势: 自管理 OpenCode 实例:Agent 运行在你自己的机器或服务器上,仓库、凭据、运行环境、网络访问策略都由你控制,而不是依赖托管式 Web 工作区或第三方 GitHub App 执行环境。 可切换任意 AI Provider / Model:底层通过 OpenCode 对接模型,不绑定单一厂商。可以按仓库、任务类型或成本策略自由选择 provider 和 model。 Agent 行为可深度个性化:你可以自定义 OpenCode 配置、系统提示词、权限策略、技能、工作流和配套服务,而不是受限于固定产品形态。 同 issue/pr 聊天记录继承:在同一个 issue/pr 中,Agent 的多轮交互会复用同一 Session,保持上下文连续性,而不是每次都从零开始。也可通过 -clear 参数手动重置上下文。 支持随时人工接管:任务由 Bridge 触发后,仍然可以直接进入 OpenCode Web GUI 接管同一会话和工作目录,继续推进工作,不局限于 GitHub 评论区交互。 不只服务 GitHub 页面内流程:虽然入口是 GitHub webhook,但 Agent 实际运行在真实仓库工作目录中,可继续做 GitHub 之外的本地调试、脚本执行、文档整理和环境排查。 可通过 VSCode 远程编辑文件:因为代码就在你自己的机器或远端主机 workspace 里,可以直接用 VSCode Remote 等方式连接并编辑,不需要把修改局限在浏览器对话框或 App 沙箱内。 更适合长期上下文和多轮协作:同一 Issue / PR 复用 Agent Session,并结合独立 git workspace 隔离上下文,既保留连续性,也避免不同任务互相污染。 文章部分由ai生成: 6 个帖子 - 4 位参与者 阅读完整话题
本帖使用社区公益推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的项目是免费使用的,无收费(变相收费、赞助)部分: 是 我的帖子已经打上 公益推广 标签: 是 我的项目属于个人项目,与公司或商业机构无关: 是 我的项目不存在 QQ、TG 等群组引流: 是 我的项目不存在非运营必要的网站引流: 是 我的项目不存在为他人推广、AFF: 是 我的项目无关联的商业项目: 是 我的站点存在登录,并已接入 LINUX DO Connect: 否 我帖子内的项目介绍,AI 生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI 生成、润色内容已使用截图方式发出 网站: https://astock-main.onrender.com/ 上面是网站,用render写的。请各位大佬轻点用。。。追高圣器,能直接把查询到的数据发给ai分析 项目简介 基于Streamlit开发的股票分析系统,集成了多种股票数据查询和分析功能。 系统支持API和数据库双数据源,提供实时股票数据查询、K线图绘制、龙虎榜查询、 同花顺热榜等功能。 主要功能 股票查询与K线图 : 支持通过股票代码或名称查询,自动生成K线图 龙虎榜查询 : 查询股票是否在龙虎榜及获取详细数据 同花顺热榜 : 获取实时热门股票榜单,支持数据筛选 数据库管理 : 测试数据库连接和更新股票数据 23 个帖子 - 19 位参与者 阅读完整话题
OpenAI Developer Community – 17 Apr 26 [Security Report] Apple Pay receipt validation does not bind to purchaser... ChatGPT Bugs chatgpt api ⚠ Disclaimer: This report is for technical research and responsible disclosure purposes only. I do not endorse or encourage any unauthorized use, account sharing, or commercial exploitation of this finding. All testing was conducted on accounts I... Reading time: 1 min 🕑 Likes: 2 ❤ 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 基于 Go 1.26 + Vue 3 + TypeScript 构建的 Docker 运行时管理平台,提供直观的 Web 界面来管理 Docker 容器、Compose 项目、镜像、Swarm 集群、存储卷和网络等资源。 github.com GitHub - sunhao-java/docker-manager-ui: 基于 Go 1.26 + Vue 3 + TypeScript 构建的 Docker... 基于 Go 1.26 + Vue 3 + TypeScript 构建的 Docker 运行时管理平台,提供直观的 Web 界面来管理 Docker 容器、Compose 项目、镜像、Swarm 集群、存储卷和网络等资源。 功能列表 点击查看 (点击了解更多详细信息) 系统截图 5 个帖子 - 4 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 几个月前在linuxdo开源了 拼豆AI应用,得到不少支持,现在有空就大升级,让佬友更加愉快的拼豆拼起来! 【开源】佬友玩拼豆吗,AI拼豆那种,我搞出来给佬友愉快的拼起来哈 开发调优 项目灵感 我基于开源项目: GitHub - Zippland/perler-beads: 拼豆底稿生成器 (Perler Beads Generator) , 我加上AI优化了项目,AI辅助优化图片功能,写了一个专门生成拼豆图纸的网站。 经过大量测试,我觉得已经可以达到 一键生成拼豆图纸了! 展示案例 核心就是: ai制作图纸 ,关键就是颜色尽可能少,颗粒尽可能少,各种各样图纸风格都兼容,同时表… 开源地址: 拼豆web程序: github.com GitHub - liangdabiao/perler-beads-ai: 因为市面上的拼豆软件差强人意 ,所以我基于开源项目:Zippland/perler-beads ,... 因为市面上的拼豆软件差强人意 ,所以我基于开源项目:Zippland/perler-beads , 我加上AI优化了项目,AI辅助优化图片功能,写了一个专门生成拼豆图纸的网站。 经过大量测试,我觉得已经可以达到 一键生成拼豆图纸了! 拼豆小程序: github.com GitHub - liangdabiao/perlerBeadsApplet: 一款基于 Taro + Vue3... 一款基于 Taro + Vue3 开发的拼豆像素画创作小程序,支持像素画编辑、作品管理、图片导入,图纸导出等功能。 项目是基于和二开 开源程序: github.com/noir017/perlerBeadsApplet 一键部署到 Cloudflare Pages 本项目采用 Next.js 静态导出 + Cloudflare Pages Function 架构,所有重计算(图像像素化、颜色映射)都在浏览器端完成,服务端仅有一个轻量 API(AI优化),部署简单、免费额度完全够用。这次方案是 全免费,服务器免费,ai api免费,域名免费,0费用搭建拼豆应用,多好: cloudflare命令一键部署命令参考: npm run pages:dev npm run build npm run pages:deploy 小程序: 一款基于 Taro + Vue3 开发的拼豆像素画创作小程序,支持像素画编辑、作品管理、图片导入,图纸导出等功能。 项目是基于和二开 开源程序: GitHub - noir017/perlerBeadsApplet: 拼豆像素画编辑器小程序 · GitHub ,增加很多功能和修改,适合本系统的小程序。 展示效果: 我已经实际部署在cloudflare了,佬也可以试试: https://pindou.348349.xyz/ 感谢佬的支持,开源不容易: github.com GitHub - liangdabiao/perler-beads-ai: 因为市面上的拼豆软件差强人意 ,所以我基于开源项目:Zippland/perler-beads ,... 因为市面上的拼豆软件差强人意 ,所以我基于开源项目:Zippland/perler-beads , 我加上AI优化了项目,AI辅助优化图片功能,写了一个专门生成拼豆图纸的网站。 经过大量测试,我觉得已经可以达到 一键生成拼豆图纸了! 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 项目地址: GitHub - sup194/model-forensics: model-forensics is a CLI for two related jobs: - anomaly screening for suspicious LLM APIs - reference-model matching against a local fingerprint database · GitHub model-forensics model-forensics 是一个 CLI 工具,用来检查模型提供商提供的模型是否造假。 适合这类场景: 中转站造假, 挂羊头,卖狗肉 模型背后实际混用多种模型 对比不同时期的模型表现,判断模型是不是稳定,是不是后端切换成了其他模型 怎么检查的 通过组合测试用例作异常筛查 基于官方模型建立本地指纹库做模型匹配检测 快速开始 方式 A:不使用本地 reference 快速初筛,可以先不建立本地 reference,直接运行: mforensics inspect examples/targets.yaml 方式 B:使用本地 reference 如果你想有进一步的对照证据,可以先从官方模型建立本地 reference: mforensics profile examples/reference.yaml --save-as gpt-4o-official --db data/model-forensics.sqlite 然后在检测对应的模型: mforensics inspect examples/targets.yaml --db data/model-forensics.sqlite --out reports/run-001 对比历史运行 你还可以对比不同时期的结果,判断一个模型是否稳定,或者是否发生了后端切换: mforensics compare <run-id-a> <run-id-b> --db data/model-forensics.sqlite 命令 mforensics inspect examples/targets.yaml mforensics inspect examples/targets.yaml --db data/model-forensics.sqlite --out reports/run-001 mforensics profile examples/reference.yaml --save-as trusted-model-v1 --db data/model-forensics.sqlite mforensics runs list --db data/model-forensics.sqlite mforensics runs show <run-id> --db data/model-forensics.sqlite mforensics compare <run-id-a> <run-id-b> --db data/model-forensics.sqlite mforensics refs list --db data/model-forensics.sqlite mforensics refs show trusted-model-v1 --db data/model-forensics.sqlite mforensics refs delete trusted-model-v1 --db data/model-forensics.sqlite 密钥 CLI 会从配置文件所在目录开始向上查找,并自动加载最近的 .env 文件。 .env.example 。 .env 示例: REFERENCE_API_KEY=replace-with-reference-api-key SUSPECT_API_KEY=replace-with-suspect-api-key OPENAI_API_KEY=replace-with-openai-api-key-for-embeddings Target 配置 待检测模型配置示例: name: suspect-check targets: - name: suspect-openai provider: generic protocol: openai base_url: https://suspicious.example.com/v1 claimed_model: gpt-4o api_key_env: SUSPECT_API_KEY 官方 reference 配置示例: name: official-reference targets: - name: trusted-openai provider: openai protocol: openai base_url: https://api.openai.com/v1 claimed_model: gpt-4o api_key_env: OPENAI_API_KEY 致谢 特别感谢 Linux.do 社区的支持与帮助。 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 前两天体验了一下国产AI Coding工具Kimi code,但是没有kimi的coding plan,就想白嫖一些中转站的模型token,但是发现没有cc-switch之类的工具,没法方便的去切换中转站的baseUrl和token,就想着自己用vibe coding撸了一个kimi-code-switch出来 github.com GitHub - sunhao-java/kimi-code-switch: 一个基于终端 TUI 的 kimi-code-cli 配置面板,用来管理... 一个基于终端 TUI 的 kimi-code-cli 配置面板,用来管理 ~/.kimi/config.toml 里的 providers、models,并通过 profile 完成多套配置切换,同时支持面板自身的主题、快捷键方案和配置文件路径设置。 github.com GitHub - sunhao-java/homebrew-kimi-code-switch: kimi-code-switch 的 Homebrew tap 仓库。 kimi-code-switch 的 Homebrew tap 仓库。 安装 brew tap sunhaojava/kimi-code-switch [email protected]:sunhao-java/homebrew-kimi-code-switch.git brew install kimi-code-switch 使用 kimi-code-switch 使用说明 点击查看 (点击了解更多详细信息) 截图 2 个帖子 - 2 位参与者 阅读完整话题
社区的大佬们,俺需要一个答案,就是为啥前面那个抽奖的帖子要被举报关停,新人有点不太懂这个社区的规则。就想免费送点福利都这么难吗?之前抽了两次直接号被禁了,这次发现号活过来了再抽奖,直接帖子被关停了。是有什么敏感机制被触发了吗?想学习一下。 5 个帖子 - 4 位参与者 阅读完整话题
第一次来社区,请大佬们多多关照,新人一枚,一般福利有什么? 5 个帖子 - 4 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 之前一直用 codex-auth 管理不同团队和 Plus 账号,每次都要在命令行切账号,再重启 codex 才能生效,用着特别麻烦。 后来想改用 CPA 来管授权,让 codex 直接走 OPENAI_API_KEY 调用。结果把 codex app 导出的 auth json 导进 CPA 里,格式不兼容,站内也没找到能用的转换工具,就自己写了个脚本,实现两种 auth json 格式互转。 用了几天 CPA,发现它不支持分组管理,就又换到 sub2api。没想到 sub2api 的 auth json 格式又是另一种,于是接着扩展脚本,把 codex 或 ChatGPT 格式的授权文件批量转成 sub2api 能识别的格式,导入就能直接用。 希望能给有需要的佬友提供到帮助。 ~ ❯ codex-auth-bridge -h usage: codex-auth-bridge [-h] [--lang {auto,zh,en}] {detect,convert,export-sub2api} ... 探测、转换并导出 ChatGPT / Codex auth.json positional arguments: {detect,convert,export-sub2api} detect 只探测输入文件格式,不执行转换 convert 探测后执行双向转换 export-sub2api 将 auth.json 文件导出或追加到 sub2api.json options: -h, --help show this help message and exit --lang {auto,zh,en} 输出语言:zh、en 或 auto(默认 zh,auto 按环境判断) 示例: codex-auth-bridge detect auth.json codex-auth-bridge convert auth.json codex-auth-bridge convert auths/ output-dir/ codex-auth-bridge export-sub2api auths/ sub2api.json --proxy-key proxy-demo ~ ❯ 仓库地址: github.com GitHub - kekexiaoai/codex-auth-bridge 通过在 GitHub 上创建帐户来为 kekexiaoai/codex-auth-bridge 开发做出贡献。 2 个帖子 - 2 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 写在前面 (点击了解更多详细信息) Dexo 是一款 Discourse iOS 客户端 APP, 目前基本功能已经完备, 所以重新发一个新的主贴 支持功能 登录授权 — 支持 授权登录 和 web登录 . 如果使用 L 站建议使用 web 登录 , 否则无法进行 发帖, 回帖, 发布 boost 等需要写入权限的相关功能 查看主题 — 可正常渲染大部分常见样式, 如 表格 , 图片 , 投票 等 主题&帖子 – 发布 主题 帖子 , 支持 上传图片 , 提供简单的 markdown 工具栏 , 暂无预览功能 Boost — 发送和查看 boost, 默认以 弹幕形式 查看, 可在设置中修改 颜色配置 — 提供一些护眼默认 颜色配置 , 也可以自定义自己喜欢的颜色配置并保存成方案 通知&私信 — 在个人中心支持查看当前通知和私信, 底部 Tabbar 会有实时新通知提醒 功能预览 论坛首页 板块分类 帖子详情 海洋配色 日落配色 森林配色 常见问题 是否支持 iOS16 及以下系统 (点击了解更多详细信息) 是否支持 DoH? (点击了解更多详细信息) 开源地址 (求个 star ) github.com GitHub - Eilgnaw/dexo 通过在 GitHub 上创建帐户来为 Eilgnaw/dexo 开发做出贡献。 TestFlight testflight.apple.com 加入 Beta 版“Dexo” 适用于 iOS 14 个帖子 - 10 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 Aniu——利用东方财富妙想接口进行虚拟炒股的平台,个人第一个Vibe Coding项目 项目地址: AnacondaKC/Aniu: 利用东方财富妙想接口的AI模拟炒股平台 1.背景情况 在介绍项目之前先多啰嗦两句吧,我大学本科是土木工程,毕业后从事的是投资领域的工作,虽然对电脑、电子产品以及软件程序等都非常感兴趣,但是完全的 编程小白 。自从加入 Linux.do 以来,也算是找到组织了,刷 Linux.do 感觉像回家一样,这里的佬友个个都是人才,讲话又好听,我超喜欢这里的。自去年 Openclaw 和 Vibe Coding 火起来以后,每天都有各种新想法,前端时间 东方财富 开放了 妙想Skill 的龙虾炒股技能,一直在让自己的龙虾去股海沉浮,但是相关数据不是很直观,所以就想着开发了这样一个程序,专门用来虚拟炒股,这个项目由此诞生,全称用 OpenCode+GPT-5.4 开发,大概用了一个周末+两个晚上的时间,再加上我的代码水平基本是0,所以基本上也没啥优化,不完善的地方大家多担待。 2.项目情况 Aniu是一个本地运行的开源AI模拟股票交易项目,采用 Vue 3 前端和 FastAPI 后端构建。 项目提供了包括账户总览、AI分析运行、定时任务执行、AI聊天和模型/API 配置。它是通过东方财富的模拟仓进行操作,不面向真实资金交易。 功能特性 (点击了解更多详细信息) 技术栈 (点击了解更多详细信息) 3.更新路线图 白天工作比较忙,只有晚上和周末有空,所以更新速度不会很快。 1.继续优化后端工具平台的调用逻辑,让大模型能更加便捷和高效的调用相关接口来获取信息; 2.增加Telegram、QQbot、微信等接口渠道; 3.优化前端页面,现在的页面只满足了功能性,美观性不足; 4.设置界面增加DeepSeek、MinMAX等预设渠道,设置界面增加易用性; 5.AI聊天功能强化,将定时任务调取的信息和大模型分析的结论进行保存,作为记忆方便后续聊天的时候AI大模型进行调用。 6.希望大家能提出更多好的建议… 4.如何使用 前提条件 :需要大家下载东方财富APP,首页搜索妙想Skills,立即领取。点击APP下方交易,点击上方模拟,领取20万元模拟资金。回到妙想Skills界面,下滑找到妙想模拟组合管理skill,绑定你的模拟组合。然后将API Key保存到程序设置界面填入即可。 注意妙想的相关技能使用有限额。 程序使用 :程序支持Docker和二进制直接部署 5.整活玩法 大家设置系统提示词的时候可以整活的人设,比如穷困潦倒的中年男人突然获得20万元,踏上炒股之旅,或者是60岁的老登专炒夕阳产业,赌徒打板,甚至是精神病炒股? 6.多多分享 这是我用默认提示词+GPT-5.4操作的结果,说实话挺震惊的,它的很多操作让我一个具有十多年投资经验的人都觉得佩服,杀伐果断,雷厉风行。我也跟着它操作了几笔,赚到了一年的大模型Token费用。希望大家多多分享自己的收益情况,或者搞一个大模型A股收益排行榜? 7 个帖子 - 5 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 背景 前段时间基金估值消失了,本着轮子不嫌多的程序员思维,业余时间vibe coding了一个,俺不太玩美股,所以还没适配。 C++牛马不懂前端,发出来请各位佬提提建议。 项目链接 github.com GitHub - SurpassHR/fund-manager: 纯前端基金管理,净值查看、加减仓管理、当日估值。 纯前端基金管理,净值查看、加减仓管理、当日估值。 主要功能: 基金估值、跨设备同步基金、截图批量录入基金等。 通过github pages托管。 截图 大屏 (点击了解更多详细信息) 移动端 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 ai-repo-cleanup 地址: codex-skills/skills/ai-repo-cleanup at main · tiezhuli001/codex-skills · GitHub 这个 skill 是我在反复改 AI项目时做出来的。vibeCoding很爽,但是仓库很容易越改越胖,AI存在局部性,上一轮对话改了A,下一轮对话修改成B,那么A需求的历史代码和测试代码就很可能出现冗余。包括plan计划越来越多,有些plan计划已经和代码仓库不一致了。 目前我本地1.3w行代码,1.7w行测试代码的情况下,清理了近4000行无用的代码,聊胜于无吧,持续迭代下去,希望能真的好用。 long-run-execution 地址: codex-skills/skills/long-run-execution at main · tiezhuli001/codex-skills · GitHub 这个 skill是被codex逼出来的,做一半就开始总结、问我下一步的意见,经常夹断,十分难受。现在是要求把任务拆成可验证的小步,做完一块就验一块,然后继续往前推,直到真的完成或者真的被卡住。 我本地使用一般只要有执行计划文档,都能全部完成之后再结束,测试也比较完善,还算好用。定期用历史对话总计提升了几轮,也是希望能越来越好用吧。 希望能帮助到有需要的佬友 ,自取即可~ 1 个帖子 - 1 位参与者 阅读完整话题