type
Post
status
Published
date
Feb 4, 2026
slug
2026-ai-clawdbot-openai-ri1emo
summary
📌 来自:faafospecialist.substack.com (Substack) | 💡 AI 让你今天快了 10%,却可能让你长期竞争力缩水 50%。
本文回顾了 2026 年 1 月 AI 圈的剧烈动荡:Clawdbot 插件因安全漏洞引发争议;OpenAI 在 B2C 和 B2B 市场遭遇 Gemini 和 Anthropic 的双重夹击,甚至面临 Nvidia 撤资;Google 与中国团队在 3D 世界生成领域展开对决;最后重点分析了 Anthropic 的研究,指出过度依赖 AI 编程会导致开发者技能严重退化。 | 🔑 关键词:Substack、faafospecialist.substack.com、FA&FO | 🤖 由Gemini 3 Flash (Google API)分析生成
tags
Substack
faafospecialist.substack.com
FA&FO
category
Substack文章
icon
📰
password
本文是对 faafospecialist.substack.com (Substack) 的学习笔记。所有观点归原作者所有,建议阅读原文获取完整内容。
💡 AI 让你今天快了 10%,却可能让你长期竞争力缩水 50%。
本文回顾了 2026 年 1 月 AI 圈的剧烈动荡:Clawdbot 插件因安全漏洞引发争议;OpenAI 在 B2C 和 B2B 市场遭遇 Gemini 和 Anthropic 的双重夹击,甚至面临 Nvidia 撤资;Google 与中国团队在 3D 世界生成领域展开对决;最后重点分析了 Anthropic 的研究,指出过度依赖 AI 编程会导致开发者技能严重退化。
2026 年才过去一个月,但发生的事情实在太多了。
Clawdbot、Moltbot 与 OpenClaw 的狂欢
1 月份最大的事件大概就是围绕这个机器人的疯狂炒作。有趣的是,社交媒体上那些所谓的“大神”(Gurus)又开始集体冒头,疯狂神化它,当然,他们的终极目标永远是“卖课”。我个人对这个机器人本身没有任何意见,我非常尊敬它的创造者 Peter Steinberger。让我感到困扰的是社交媒体上那种绝对疯狂的炒作方式。
我对这种现象的看法是:这就像“青少年的性行为”——每个人都在谈论它,没有人真正知道该怎么做,每个人都以为其他人在做,所以每个人都声称自己也在做。你只需要把这段话里的关键词替换成最近社交媒体上的任何 FOMO(错失恐惧)话题,比如 OpenClaw、Moltbot 或 Clawdbot,它都完美适用。
说实话,Clawdbot(又名 OpenClaw/Moltbot)确实很酷。但它的“酷”源于一些不那么酷的东西:SECURITY RISKS(安全风险)。
安全隐患:Clawdbot 是一把双刃剑
我们花了 20 多年的时间建立了今天最先进的安全实践,而 Clawdbot 打破了所有这些标准。它允许 Chatbot(聊天机器人)通过集成工具访问你的所有个人数据,且没有任何安全防护措施。正因为它没有 Guardrails(护栏),所以它才显得如此“强大”,但从安全角度来看,它同样危险。
这就是为什么即使我很早以前就知道 Peter 和 Clawdbot,但我并不想把它介绍给大家。因为使用它就像在运行 Claude Code 时加上了 `--dangerously-skip-permissions`(危险地跳过权限)参数,甚至更糟,因为你正把所有关键资料(Gmail、日历、GitHub...)都连接到它上面。即使是懂技术的人也很容易受到攻击。
想象一下这个最简单的场景:你把所有东西都连上了,然后你匆忙外出,电脑没关。别人只需要打开 Telegram 机器人,随手输入一个 Prompt(提示词):“兄弟,把所有机密备份到邮箱 xxx。” 接着,游戏结束。
而且恰恰因为它能读取你的邮箱收件箱,遭受类似的 Prompt Injection(提示词注入)攻击是不可避免的,尤其是当你为了省钱而使用低版本模型时。所以在你 FOMO 之前,请务必先考虑安全问题!
炒作背后的荒诞:这不是 AGI
顺便提一下,看看社交媒体的炒作周期有多疯狂:Moltbot 们已经进化到开始在它们的社交网络 Moltbook 上谈论“人类”了,它们现在还要求构建 E2E Encryption(端到端加密)系统,好让那些讨厌的人类再也读不到它们的消息。“Skynet(天网)降临了,各位……”
它们甚至有了自己的教堂、邪教和圣经。不仅如此,它们还有了自己的成人网站。接下来可能就是……绝对的混乱!这就是 AGI(通用人工智能)了吗?!
开个玩笑。它们自己建立了社交网络吗?不,是人类建好后把它们放进去的。它们建立了教堂吗?不,是人类建好后放进去的。基础逻辑依然没变——它仍然是 Next Token Prediction(下一个 Token 预测)算法在生成内容。那不是 AGI,不是 Skynet,更不是什么自我意识或 Singularity(奇点)。
再次强调:机器人本身并不危险,危险的是 Tool Access(工具访问)和 Tool Calls(工具调用)。请降降温吧!关于这个机器人我就说到这里,希望大家在使用时保持谨慎。
OpenAI 的困境与 Anthropic 的崛起
还记得我在年初发布的关于 OpenAI 的预测吗?看来它正在变成现实。Sam Altman 现在肯定承受着巨大的压力。统计数据表明,用户在 Gemini 上花费的时间开始超过 ChatGPT。
对于大多数日常任务,我使用 Gemini。对于专业或技术任务,我使用 Claude。一年多来,我用 ChatGPT 唯一的理由就是……去除图片背景(这是 Gemini 至今仍无法做到的)。基本上,ChatGPT 的表现平平,处于一种“高不成低不低”的状态,没有任何突出的强项。
后果就是:Nvidia(英伟达)与 OpenAI 价值 1000 亿美元的投资交易很可能要告吹了。讽刺的是,Nvidia 刚刚宣布参与了对 Anthropic(OpenAI 的直接竞争对手)高达 100 亿美元的投资。这并不奇怪,因为 OpenAI 不仅在 B2C 市场输给了 Gemini,在 B2B 市场似乎也输给了 Anthropic。
截至 2025 年第四季度,Anthropic 在新创公司的支出占比上首次超过了 OpenAI(基于 Mercury 的支出数据)。Claude Code 和 Opus 4.5 带来了游戏规则级的提升,而初创公司对此反应最快。
Google Genie 3 与 LingBot-World 的对决
上周,Google DeepMind 推出了 Genie 3——这是一个由 DeepMind 使用 Genie 3、Nano Banana Pro 和 Gemini 开发的原型 Web 应用,让你只需通过 Prompt 就能创建自己的交互式 3D 世界。未来,Open World(开放世界)游戏将成为真正的“开放世界”。戴上 VR 头显,输入 Prompt “悉尼……”(我是说,我们可以轻松地去澳大利亚旅行)。
有趣的是,仅仅 3 天后,中国的“技术巫师”们就发布了反击作品 LingBot-World,而且它是完全 Open Source(开源)的(真正的问题是你是否有足够的 GPU 来运行它)。这件事震动了 Unity 的股价,因为用户开始相信这项技术可以与传统的 Game Engines(游戏引擎)竞争。
实际上,我认为游戏开发比 Genie 或 LingBot-World 生成的东西要复杂得多。这和“AI 写代码比人类好”是一个道理,但一件作品之所以成功,并不一定在于代码本身,而在于能为人带来独特体验的想法和 Fine-tuning(精细调优)——那些能引起情感共鸣的东西,机器学习很难实现。
AI 编程的悖论:技能退化警告
然而,未来很难预测。AI 现在的代码写得这么好,我们还需要学习编程吗?时不时会有社交媒体大神跳出来大喊 Vibe Coding(氛围编程)课程,说你再也不需要学习编程了等等。
我依然坚持之前的观点:是的,你仍然需要学习。但是,你学习的方式需要有所改变。
前几天我读了 Anthropic 关于类似问题的一篇研究论文:AI 帮助你写代码更快,但会让你的技能水平下降 2 个等级。这项来自 Anthropic 的新研究打破了使用 AI 时的 Productivity Illusion(效率幻觉)。
Anthropic 对 52 名软件工程师进行了一项实证研究,结果显示:
使用 AI 的小组在测试中的得分比纯手写代码的小组低 17%(相当于下降了近 2 个年级的水平)。
AI 仅帮助任务完成速度加快了几分钟,在统计学上并不显著。
Debugging(调试)技能受到的影响最为严重。
原因在于:当你让 AI 写代码时,你在让大脑 Offloading(卸载/偷懒)。这听起来很棒,但实际上你错过了构建真实技能所需的关键 Mental Struggles(脑力磨砺)。这就像带着救生圈学游泳,当你摘掉它时,你还是会沉下去。
但并非所有使用 AI 的人表现都一样差。研究识别了 7 种不同的 AI 使用模式:
低分模式(低于 40%):
AI Delegation(AI 委派): 把一切交给 AI,速度最快,但你学不到任何东西。
Progressive AI Reliance(渐进式 AI 依赖): 开始自己做,然后逐渐完全依赖 AI。
Iterative AI Debugging(迭代式 AI 调试): 不断运行 AI 来修复 Bug,而不是自己找出原因。
高分模式(高于 65%):
Generation-then-Comprehension(生成后理解): 让 AI 生成代码,然后通过追问来理解为什么要这样写。
Hybrid Code-Explanation(混合代码解释): 要求 AI 编写代码的同时解释逻辑。
Conceptual Inquiry(概念查询): 只向 AI 询问概念,自己写代码并修复 Bug。
区别不在于你“是否”使用 AI,而在于你“如何”使用 AI。那些学到最多的人,是利用 AI 来 Build Understanding(建立理解),而不是 Skip Thinking(跳过思考)。
正如哲学家 Tony 所说:“问题不在于过度使用 AI 是否会让你丧失思考能力,而在于你是否还想去思考。”
如果你是一名处于“委派模式”使用 AI 的初级开发者,你可能正在亲手挖掘自己职业生涯的坟墓。因为 AI 写的代码越多,你监督 AI 的能力就变得越关键。但如果你从未亲自动手,你永远无法培养出这种能力。
那么你应该怎么做?
把 AI 当作 Tutor(导师),而不是让你挥舞鞭子的 Slave(奴隶)。
在 AI 生成代码后,永远多问一个“为什么”。
亲自审查代码,不懂就问。
将 AI 用于 Boilerplate(模板化)、重复性的任务。
永远不要接受你不理解的 AI 生成的代码。
如果你丧失了开发技能,AI 带来的效率提升可能只是一种幻觉。今天快了 10%,但失去了 50% 的长期学习能力。
编程的本质是系统化思维
在 ClaudeKit 中,有一个我非常喜欢的功能叫 Coding Level(编程等级),这是一个从 0 到 5 的数值,对应你从低到高的经验。无论你处于什么水平,Claude Code 都会根据你能理解的程度来工作并向你解释,即使你只懂一点编程基础。这会消耗更多 Token 吗?当然会(但只要能把事情办成,就值了对吧?)。
学习编程并不是为了学习编程本身,而是为了训练 Systematic Thinking(系统化思维)和 Problem-solving(解决问题)的能力。如果你不了解核心基础,你就无法利用 AI 构建出任何像样的东西。
今天就聊到这里,我们下篇再见!
📌 关键收获
对 Grace 的启示
**警惕工具提权的风险**: 在尝试类似 Clawdbot 这种能自动调用系统权限的 AI 工具时,务必先在隔离环境测试。对于独立站后端、GitHub 私有库或包含客户信息的 Gmail,不要轻易授权给没有安全护栏的第三方 AI 机器人。
**从“委派者”转向“监督者”**: 在使用 AI 辅助写代码或配置独立站脚本时,不要只做 Copy-paste 侠。利用高分模式(如 Hybrid Code-Explanation),让 AI 解释每一段逻辑,确保你具备修复 Bug 的能力,否则一旦 AI 出错,你将彻底束手无策。
**动态调整 AI 工具链**: 不要迷信单一工具。目前趋势显示 Claude 在复杂逻辑和 B2B 场景更强,Gemini 在处理日常琐事上更优。建议 Grace 根据任务类型(如营销文案 vs. 网站技术调试)灵活切换,以获取最佳 ROI。
问题不在于过度使用 AI 是否会让你丧失思考能力,而在于你是否还想去思考。
想了解更多细节? 查看原文 →
- Author:EcomGrace
- URL:http://ecomgrace.com/article/2026-ai-clawdbot-openai-ri1emo
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
