Life-long learner

Earth
Joined May 2013
Mason retweeted
FFmpeg makes extensive use of hand-written assembly code for huge (10-50x) speed increases and so we are providing assembly lessons to teach a new generation of assembly language programmers. Learn more here: github.com/FFmpeg/asm-lesson…
50
460
30
3,711
Mason retweeted
我微调了一下风格Prompt: 一枚复古风格的邮票,图案为[蜡笔小新+撅屁股吐舌头],设计色彩鲜艳/充满活力/可爱卡通风格化,细节丰富,背景为白色。焦点清晰,光线突出了[关键视觉元素——动态姿势、服装、纹理等]。配色方案为[主色调——2至3种]。邮票图案独立于[柔和色调]背景之上。
🚨PromptShare🚨 VINTAGE STAMP A vintage-style postage stamp with an illustration of [character + pose or action], featuring a [colorful / vibrant / stylized] and detailed design on a white background. The focus is sharp, the lighting highlights [key visual element — dynamic pose, outfit, texture, etc.]. The color palette is [main colors — 2 to 3]. The stamp is isolated on a [pastel color] background.
9
37
1
222
Mason retweeted
关注 AI Agent 的力荐 MMC 的这篇刚发布的《State of Agentic AI: Founder’s edition》,不仅数据扎实,分析了问题,还提供了可行的解决方案。 今年 2025 年是公认的 AI Agent 元年,“Agentic AI” 非常火,新产品也层出不穷:Deep Research、Coding Agent、Browser use、Computer use …… 当然 Agent 争议也不小,一部分人认为没啥用,一部分人则觉得 Agent 无所不能,也无可厚非,大家都是主观感受 ,每个人使用场景都不一样,比如我自己就很喜欢 Coding Agent,真的能解决问题。但这种争议如果用数据说话就会有说服力的多,比如说这玩意儿,在真实的企业里,真的用起来了吗? MMC 则是深入访谈了 30 多家正在做 AI Agent 的创业公司创始人和 40 多位企业里的实际用户,写了这篇报告:《Agentic AI 现状:创始人版》。 【1】真正限制 AI Agent 的,可能不是 AI 不够聪明 大部分都以为目前 Agent 最大的困难会是“AI 不够聪明”、“幻觉太严重”或者“太难和当前系统集成”。 这些确实是问题,但出人意料的是,在创始人眼中,它们排不进前三。 根据调查,部署 AI Agent 时的三大问题分别是: 1. 工作流集成 和 人机交互(占 60%) 2. 员工抵触 和 非技术因素(占 50%) 3. 数据隐私与安全(占 50%) 也就是说最大的障碍,是“人”和“流程”的问题。 1. “这玩意儿我该怎么用?”(工作流集成) 这是占比 60% 的最大难题。 一个 AI Agent 再牛,如果它是一个需要单独打开的 APP,需要员工在现有的工作软件(比如钉钉、飞书、Salesforce)之外,再打开一个新窗口去指挥它,那它的使用率注定高不了。 成功的集成,是把 AI 嵌入到员工已有的工作流里。比如,当销售在 CRM 里更新一个客户状态时,AI Agent 自动跳出来说:“我帮你把刚才的会议纪要总结好了。” 这已经不仅仅是个技术问题了,更需要企业改变观念,企业得先想清楚:“要集成这样的 AI Agent,我原有的工作流程需要怎么改?”这往往比买一套 AI Agent 难得多。 2. “它会不会抢我饭碗?”(员工抵触) 这是 50% 的创始人提到的信任危机。 我们得承认一个现实:在企业里,人类和 AI 的合作,目前大多不太愉快。 - 一种是“过度依赖”:员工把活儿全丢给 AI,自己不检查,结果 AI 出了错,比如给客户报了个错误的价格,酿成大祸。 - 一种是“过度怀疑”:员工根本不信 AI,AI 做的每一步,他都要自己再核查一遍。这非但没提高效率,反而增加了工作量。 更深层的,就是对被 AI 取代的恐惧。这导致员工在用的时候束手束脚,或者干脆阳奉阴违,不愿配合。 3. “我的数据喂给 AI,安全吗?”(数据隐私) 这也是 50% 的创始人提到的核心关切。 这个问题在金融、医疗等行业尤其严重。企业会担心:“我把内部的财务报表、客户病历交给这个 AI Agent 分析,这些数据会不会被拿去训练别的模型?会不会泄露?” 这种担忧,有些是真实存在的,比如需要符合 GDPR、ISO 27001 等合规认证,也有些纯粹是感觉上的。但无论哪种,都会让企业在部署时畏手畏脚。 【2】做得好的 AI Agent:高准确率和高自主性 既然有这么多困难,那现在做的好的那些 AI Agent,实际表现怎么样? 这个报告给我很大收获的一点是它从两个维度来量化现在的 AI Agent:准确率(Accuracy)和自主性(Autonomy): - 准确率:AI 干的活儿,多大比例是对的、被人类接受的。 - 自主性:AI 干活儿时,多大程度不需要人来插手。 理想状态当然是高准确+高自主。但现实是,超过 90% 的Agent创业公司声称自己的方案达到了 70% 以上的准确率。 所以 MMC 把 Agent 划分了三个分类(低准确率+低自主性的Agent就不配存在): 1. 中准确、高自主: 适用于低风险、高重复、易验证的工作场景。比如自动给海量的营销邮件打标签。就算 AI 标错了 30%,但它帮你自动处理了 1000 封,你只需要人工纠错那些明显不对的,总体效率还是远超纯人工。 2. 高准确、低自主: 适用于高风险、高价值领域,比如医疗场景。比如 AI 帮你起草临床试验的研究报告。它必须保证 90% 以上的准确率,但人类专家必须在每一步进行严格审核(低自主权)。它扮演的是“超级助手”,而不是“决策者”。 3. 高准确率 + 高自主性: 这可以说是最理想的“甜点区”,是大家努力的方向。它适用于那些 AI 部署相对成熟或规则边界清晰的领域。比如客户服务、网络安全或金融合规。在这些场景下,AI Agent 已经足够可靠,达到 80%-90% 的准确率和自主性,可以被授予高自主权去端到端地处理任务。报告提到,这里的秘诀通常是将概率性的大语言模型与更具确定性的 AI 方法相结合,以提高准确性,从而进一步提高自主性。 【3】企业开始为 Agent 付费了 聊 AI Agent 落地,绕不开收费的问题,毕竟靠烧钱是无法持久的。 好消息是企业开始真掏钱付费了 报告发现,62% 的 AI Agent 创业公司,已经拿到了企业的“业务线预算(Line of Business budget)”。 这是个超级积极的信号。可能很多人不知道大公司内部的预算分两种:一种叫“创新预算”(Innovation budget),就是小金库或实验经费,数额不大,用完了算,大家图个新鲜。 而“业务线预算”,是各部门(如销售部、市场部、财务部)用来保证自己核心业务运转的支出。 当 AI Agent 开始动用“业务线预算”时,意味着它已经从可有可无的玩具变成了能帮我干活的生产力工具。 坏消息是现在还没摸索出最佳的收费模式 虽然知道这玩意儿值钱,但到底该怎么定价?报告显示,大家都在摸索,主流的两种方式是: 1. 混合定价(23%):比如“基础服务费 + 超出部分按用量付费”。 2. 按任务次(23%):AI 帮你干成一件事(比如发出一张发票),收一次钱。 而大家最期待的按照按效果付费(Outcome-based),目前只有 3% 的公司在用。 为什么?因为太难了。 比如,一个“销售 AI 助手”,它帮销售赢了个大单。这个功劳,到底 80% 算销售的,还是 20% 算 AI 的?怎么衡量?如果 AI 没功劳,企业是不是就可以不付钱?这根本算不清。 所以,目前最现实的还是按苦劳付费,而不是按功劳付费。 【4】最重要的部分:成功的 AI Agent 落地策略 既然 AI Agent 落地这么难,那些成功的 Agent 公司是怎么说服企业客户的呢? MMC 的访谈总结出了一套非常实用的落地经验: 秘籍一:“Think Small”(从小处着手) 报告总结了一个非常务实的落地策略:Think Small (从小处着手)。 忘掉那些“彻底颠覆行业”、“全自动替换人类”的宏大叙事。成功的 AI 智能体,往往从一个非常小、非常具体的切口进入: - 起点: 选一个低风险、中等收益的任务。 - 关键: 选一个员工最讨厌干的活儿。比如,销售团队最烦的手动录入客户数据,或者财务团队最烦的核对发票。 - 定位: 永远不要说你是“替代品” (Replacement),要说你是“副驾驶” (Copilot)。 你的目标不是让老板开除员工,而是把员工从那些重复、枯燥、没人想干的破事儿里解放出来。 当员工发现,这个 AI 真的帮我省了每周 5 小时填表的时间,信任的种子才算种下了。 秘籍二:“保姆式”服务(Hand-holding) 现在的 AI Agent 还远没到即插即用的程度。企业买的不仅是软件,更是一整套陪跑服务。 成功的创业公司都在用“前线部署工程师(FDE)”模式。这帮人既是程序员,又是咨询顾问,他们会直接“扎”到客户的办公室里,手把手帮客户梳理流程、清理数据、调整 AI。 同时,人机交互界面要做到“3E”: 1. Education(教育):AI 要能主动教用户“我能干啥,你该怎么用我”。 2. Entertainment(趣味):交互得有趣。 3. Expectation Management(预期管理):AI 必须坦诚地告诉用户“我干不了啥”,别吹牛。 秘籍三:定位决定生死(Positioning) 最后,你怎么“说”你是谁,可能比你“是”谁更重要。 - 是“副驾驶”,不是“替代者”: * 一定要把姿态放低。你的产品是“Copilot”(副驾驶、领航员),是来“Augment”(增强)员工能力的,不是来“Replace”(替换)他们的。哪怕你的技术真的能替换掉 80% 的人,也千万别这么说。 - 看人下菜碟: * 在医疗这种保守行业,你最好少提“AI”,多谈“自动化”、“效率提升”。 * 在金融这种激进的行业,你就得猛吹“Agentic AI”,显得你很前沿。 - ROI 要具体: * 对于成熟流程,就说“节省了 XX 小时”或“降低了 XX% 成本”。 * 对于 AI 创造的新能力(比如“千人千面”的网页),就把它和你已有的工具挂钩,比如:“能让你的谷歌广告转化率提升 20%”。 【最后】 港真,年初的时候我还是 AI Agent 的怀疑论者,自从用了 Claude Code 后,我开始“真香”,变成了 AI Agent 的积极拥护者,也一直很关注这个领域的发展,这份报告质量还是很高的,尤其是给我最大感触的点是: 决定 AI Agent 落地成败的,最重要的因素已经不是模型能力够不够强,而是它怎么和企业内部的流程整合,怎么取得员工的行人,怎么证明它存在的价值。 另外从准确率和主动性这两个维度来量化评估 AI Agent,是挺科学的,现在很多的 AI Agent,主动性高了准确率可能就不够,准确率上去了主动性又不行,要做好 Agent,最终还是要做到像一个情商高的真人那样,在你还没开口时,就洞察到你的需求,默默帮你把事情搞定。
Mason retweeted
15 remote jobs paying $85/hr, No Resume, No Experience required: ⤵️
🚨BREAKING: The world’s best all-in-one AI platform just rolled out its biggest update. Access GPT-5, Sora 2, Claude 4.5, Google Veo 3.1, Midjourney V7, Kling, and 100+ top models — all in one place. 🤯 💰 Use pumpkin credits 🎃 to unlock effects every day! Here’s how to use it: 👇
📢 RustFS Announcement 🚀 PR #747 merged! RustFS now includes Helm setup for k0s — making it easier to spin up full clusters in minutes. This marks a big step toward reproducible, cloud-native deployments and smoother DevOps pipelines across environments. Stay tuned for the next release 👉 github.com/rustfs/rustfs/pul… #RustLang #Kubernetes #Helm #CloudNative #OpenSource #AIInfra
这下还真的挺有意思了。 Zed 不仅提供了和 Gemini CLI 的集成,还搞了个新的协议,叫做 Agent Client Protocol. 这意思不就基本相当于,你们都继续搞你们的 CLI 的 coding agent 吧,到时候通过 ACP 把入口都统一放在 Zed 中... 这也算是一个釜底抽薪的办法了
Mason retweeted
我是不是可以开始当车头了? 10分钟蚂蚁仓已经翻倍
Replying to @Juu17__
坐等10倍了枪总 中文区第一买入人
Mason retweeted
基于 Langgraph 的企业级 Deep Research,提供了完整的Benchmarking Guide,如果有像我一样专门搞企业 AI Agent 的兄弟,建议收藏。 — github.com/SalesforceAIResea…
3
69
1
320
Mason retweeted
看了下,这两天强势的山寨大概是以下几个板块: 1、隐私币,龙头Zec,监管放宽,纳瓦尔领衔喊单,金融主权、去中心化等话题延伸。相关的有之前介绍过的隐私+ZK赛道次新币Prove,老牌隐私币XMR,Dash,Zen等等。 2、Hyperliquid,HIP3的推出,真正的链上金融市场,无需赘述。相关的可以看看Perp Dex赛道和HIP3相关的标的,但是我感觉Hype已经不仅仅是一个Perp Dex了。 3、X402,其实是已经被市场讨论了挺长一段时间,但是相关标的一直不温不火,直到Ping以Meme的形式出圈才彻底引燃。X402是用于AI智能体之间的支付协议,所以也带动了一批相关的山寨上涨,例如Virtual,Clanker等等。另外Eigen其实也很早就和谷歌合作推出了AP2,其中就包括了用X402实现加密支付。 以上标的我会作为近期主要观察对象,后续如果市场大跌,也可以优先选择,往往强势币的反弹是最迅猛的。
LLM is programmable. If you are not programming it, then someone else will program it for you.
1
1
6
Mason retweeted
Zcash is on the verge of a generational flip, the kind of seismic shift that revalidates crypto ethos the privacy renaissance reborn, the alpha epoch, the moment where fundamentals obliterate narratives it won’t be incremental, it’ll be parabolic, violent, and undeniable. $ZEC
Mason retweeted
GPUI Component v0.3.0 released. With new features: - AppMenuBar - Tree github.com/longbridge/gpui-c…
3
6
34
Mason retweeted
后端工程师日常建议多用AI搞点前端项目,产品,不要再去想着高并发,大流量,云原生之类。 时代不一样了,all in TS. 看推就发现了,越是前端用的溜的推友,各式产品,各种出海蹭蹭蹭一个接一个,钞票一把把往兜里揣。
Mason retweeted
就像短视频和碎片化信息会削弱人类的注意力一样,垃圾数据也教会了 AI 模型“偷懒”,放弃思考!这两天 X 上很火的一篇论文 LLMS CAN GET "BRAIN ROT",用 X 的社交内容,验证了语言模型也会得“大脑腐烂”🧠 “大脑腐烂”在 2024 年被牛津大学出版社评为年度词汇,这是一种因沉迷互联网,大量消费低质内容,而对我们认知产生伤害的现象。研究者从第一性原理出发,将“垃圾数据”定义为那些“能够以琐碎的方式最大化用户参与度的内容”,他们从两个维度在 X 上筛选这些内容: 1. 短小 (长度 < 30个token) 且高热度 (点赞、转发、回复等 > 500次) 的帖子,利用了社交平台推荐算法的核心逻辑; 2. 包含阴谋论、夸大其词、标题党、虚假信息或肤浅的生活方式炫耀等内容; 通过喂给 AI 模型这些“垃圾内容”,实验显示它们会系统性地损害模型,导致其认知能力下降 。最核心的伤害机制是,模型学会了一种叫做“思维跳跃”(thought-skipping)的坏习惯 。就像它所学习的垃圾内容一样,模型开始放弃深度、连贯的思考,倾向于给出简短、未经推理的答案 。 这最终导致了模型在推理、长文理解和安全方面的能力全面衰退,甚至催生出如自恋和精神变态等负面人格特质 。并且这种伤害是持久的,即使之后用大量干净数据也难以完全修复 。。。 这篇论文不仅揭示了 AI 模型的一种新型脆弱性,更像是一面镜子,照见了人类自身在当前信息环境下面临的认知挑战。“精神食粮”的质量决定了认知能力的健康水平,这一点,对人类和 AI 同样适用🤔
DeepSeek just dropped a new OCR model! And this isn't about OCR. We've all heard "a picture is worth a thousand words." DeepSeek literally proved it. They've built a breakthrough in AI memory compression that could change how models handle long contexts. The core idea: Instead of storing every word as a token, take a picture of the text and compress it into vision tokens. - 100 vision tokens → 1,000 text tokens (10× compression at 97% accuracy) - 50 vision tokens → 1,000 text tokens (~60% accuracy) Why does this matter? LLMs struggle with long context windows. Processing millions of tokens is expensive and slow. This approach solves it: - Store entire chat histories as compressed images - Recent conversations stay as text (perfect fidelity) - Older messages compress to vision tokens (still retrievable) Context windows as long as 10-20 million are not very far! The model and code are on GitHub and Hugging Face. Link in the next tweet!
neuphonic 发布了一个新的语音克隆模型——neutts-air 最大的亮点是这个语音克隆模型可以用CPU运行,因为只有0.7B. 只需要输入你想克隆的语音,和语音对应的文本。然后输入你想要的文本就能克隆。我试了下大概 30秒可以生成18秒的音频。 缺点嘛——只支持英文.... 另外给大家介绍语音克隆的技巧,输入的声音尽量符合你输出的声音的情感,比如如果输入的声音无感情起伏,那么输出的声音也没什么情感起伏。 地址:huggingface.co/neuphonic/neu…
Mason retweeted
在生活中,有两种最基础也最核心的能力,能帮助我们把事情做得更从容、更高效。 第一种,是把注意力牢牢放在自己能掌控的事情上。 比如你想提升工作能力,那就专注于每天的任务完成质量、学习新技能、积累经验,而不是焦虑同事的评价或市场的波动——这些你无法直接决定。 就像农民种地,重要的是选好种子、深耕土地、适时灌溉,至于天气好坏,虽然有影响,但种子和耕耘是自己能做主的。 第二种,是学会放下那些管不了的事。 比如别人的看法、过去的遗憾、未来的未知,这些像手里的沙子,攥得越紧流失越快。 真正聪明的人,会像整理房间一样,把不属于自己的“杂物”轻轻放下,腾出空间给真正重要的东西——比如当下的行动、内心的平静,以及那些确实能被自己掌控的机会。 这两种能力,其实是人生的“操作系统”。 前者帮你明确方向,后者帮你减轻负担。无论是创业还是生活,能做到这两点的人,往往能在复杂的环境里保持清醒,把精力用在刀刃上,最终走得更稳、更远。就像登山,与其总回头看别人爬得高不高,或担心山顶会不会下雪,不如专注脚下的每一步,以及手里的登山杖——这才是真正能带你向上的力量。
1
10