最近"十五五"规划讨论得很热,里面有一条我觉得值得普通人认真对待:让AI真正落地,成为生产力的一部分。

这不是一句口号。这是一个信号——AI不再只是科技公司的玩具,它已经被写进国家层面的生产力布局里了。"十五五"规划(2026-2030年)将"人工智能+"作为核心方向之一,强调AI要从实验室走向工厂、办公室和家庭,成为像电力一样的基础设施。这意味着,未来五年,AI将不再是"会不会用"的选择题,而是"用得好不好"的必答题。

那普通人该怎么办?

一、回避解决不了问题

我知道很多人的第一反应是:这东西太复杂,离我太远,我不管它。

这种心态可以理解,但问题是——你不管它,它会来管你。

先说最贴近个人的现实:职场上,会用AI的人和不会用的人,效率差距正在迅速拉大。不是将来,是现在。这种差距一旦形成习惯,很难追回来。

往大了说,AI浪潮已经扑面而来了。你不研究,不代表别人不研究。更现实的是:在国家竞争层面,AI早就被用于军事领域——无人机蜂群、AI辅助情报分析、自主作战系统……这些早就不是科幻小说里的情节了,是正在发生的事。国家层面需要AI人才和AI生产力,这也是"十五五"规划把它写进去的原因。

回避只会让自己掉队。既然跑不掉,不如主动迎上去,早学早受益。

二、"养龙虾"是什么意思?

所谓"养龙虾",是我们对使用 AI Claw(AI智能体框架)的一个戏称。

AI Claw,顾名思义,就是给AI装上"爪子"——让它不只是会聊天,还能帮你操作电脑、浏览网页、管理文件、执行各种任务。这类工具,正是"十五五"规划里"AI落地成为产能"的具体体现。普通人也能养一只属于自己的AI助手,替你干活。

我最近一直在折腾这个,踩了不少坑,分享几点心得。

三、养"龙虾"做什么?

很多人第一步就卡在这里:我又不是程序员,我能用它干嘛?

有一点认识值得建立:AI不只是给你答案,它也能给你灵感。其实没必要想太多,直接把自己的工作告诉AI,问它一句:"你能帮我做哪些事?"就够了。AI会给你列出一堆你可能根本没想到的用法,说不定就打开了一扇新门。

苦恼也可以问它。我就直接问过AI一个自己一直有点放不下的问题:

"我对'AI as me'感到恐惧——AI掌握的信息越来越多,会不会有一天,我的人格、隐私都直接暴露在网上?"

AI的回答让我稍微放了点心,也更清醒了一点:

这个担心是真实的,也是合理的,不用觉得自己想多了。"AI as me"的核心风险,在于你喂给AI的信息越多,它对你的"模拟精度"就越高。如果这些数据被滥用——被平台收集、被黑客窃取,或被拿去训练模型——理论上确实可能出现一个"数字版的你",能模仿你的语气、偏好,甚至推断你的想法。

但也有几点可以让你放心一些:

第一,现阶段大多数AI Claw工具处理的是任务,不是在建你的"人格档案"。它记住的是工作偏好和操作习惯,和真正意义上的"人格复刻"还有相当大的距离。

第二,风险是可以管理的。对话里涉及的个人信息越少,泄露风险就越低。后面会讲到的定期审查AI记忆,做的就是这件事。

第三,这种恐惧本身是一种保护本能,值得保留。对AI保持适度警惕,比完全信任要安全得多。不是要你不用,而是要你清醒地用。

四、工具选择:新手别直接上OpenClaw

市面上AI Claw工具不少,但我不推荐普通人直接上手OpenClaw。

原因很简单:它配置项太多、太灵活,对不熟悉技术细节的用户来说,很容易在不知情的情况下开放了不该开放的权限,留下安全隐患。

我更推荐 WorkBuddy、AutoClaw 这类"一键安装"的工具。它们在默认配置里做了基础的安全加固,权限控制更保守,操作边界更清晰,普通用户上手门槛低,不容易因为误操作酿成大麻烦。不过需要说明的是,这些工具目前较为适合新手,但"一键安装"不等于"绝对安全"。建议你在使用前,自行查阅工具的隐私政策和权限说明,了解数据是否上传云端、是否存在跨境传输等问题。没有绝对安全的工具,只有相对清醒的用户。

当然,如果你愿意花点时间研究技术细节,OpenClaw这类框架反而是很好的学习工具——它能让你更清楚地理解AI的权限边界和工作原理。选择哪种,取决于你想"拎包入住"还是想"自己装修"。

另外,这里有个误解要顺带澄清一下。

OpenClaw本质上是一个框架。框架这个词,用买房来打比方最直观——就像开发商交付的"框架房":毛坯地面、基础水电三通,仅此而已。但它同时确立了一套通用规范:电压220V,下水管道什么口径,入户燃气什么压力……这些标准是固定的,保证你后续怎么折腾都不会出大乱子。

在这个框架之上,任何人都可以按自己需求自由装修:铺地板、刷墙、打穿墙体重新分割空间,想怎么来怎么来。WorkBuddy、AutoClaw这类工具,本质上就是"精装修版"的框架房——开发商替你提前做好了水电改造、装好了门窗、刷好了墙,拎包入住。

所以,根本不存在"WorkBuddy或AutoClaw抄袭OpenClaw"这种说法。它们都建立在同一套框架规范之上,就像北京的精装公寓和上海的精装公寓,都用220V的电、都符合国标管径,这不叫抄袭,这叫遵守标准。OpenClaw的价值在于制定和开放了这套标准,WorkBuddy们的价值在于把这套标准变成了普通人能直接用的产品。两者是上下游,不是竞争,更不是抄袭。

五、用AI,脑子里要始终绷一根弦

不管你用什么工具,有一件事我要特别强调:在安全和隐私这件事上,永远不要完全依赖工具替你把关。

我自己养成了几个小习惯:

第一,养成"最小化输入"原则。 在向AI提交任何任务之前,先问自己:这件事必须告诉AI这些信息吗?有没有更匿名的方式?原则上,不要在对话中透露身份证号、银行卡号、家庭住址等高度敏感信息——哪怕是在本地部署的工具中也要谨慎,因为你无法预知这些信息未来会不会被用于模型训练或意外泄露。

第二,在提交任务前,先问AI一句:"执行这项任务时,如何同时确保我的隐私和安全性?"

别小看这一句话。AI会给你列出风险点,提醒你哪些信息不该提交、哪些操作会留下痕迹。这个过程本身,就是一次很好的安全意识训练。每次问,都能学到点东西。

六、定期审计AI的"权限"和"记忆"

这是我特别想强调的两个习惯,缺一不可。

第一,定期问AI它的权限边界

可以直接问:

"未经我明确提示的情况下,你对我电脑上哪些磁盘目录或文件拥有读写权限?你手里有我交给你的哪些账号密码或API Key?"

这个问题问出来,AI会告诉你它"知道"什么、能操作什么。你会发现,有些权限是之前不经意间授予的,有些敏感路径是自己随口提到的,心里清楚了,用起来才真的放心。

不过这里要补充一点:AI的自报是有局限的,而且这个局限有时候相当隐蔽。

举个例子。我让AI调用一个Skills去搜索、读取股票研报并下载保存。问AI的时候,它只告诉我:会把研报保存到某个指定目录。听起来没问题。

但它没告诉我的是——这个Skills在运行时,会读取系统环境变量,而我之前为了方便,把一个API Key存在了系统环境变量里。Skills读取了这个变量,AI也就顺带"知道"了这个API Key。但因为这个读取行为发生在系统层面,不在AI的直接感知范围内,所以它在自报时压根没有提。

这不是AI在撒谎,也不是AI故意隐瞒——它只能报告它"知道自己知道"的东西,对于通过底层调用间接获取的信息,它自己也未必意识到。AI的自报,不是坦白,是生成。

所以,AI的自查是有价值的辅助手段,但不是万能的。你还是要养成自己去检查的习惯:调用的Skills或插件会不会读取系统环境变量?环境变量里有没有存着不该暴露的敏感信息?这个Skills的源码或说明文档你有没有看过?这些问题,只能靠你自己去查,不能全指望AI替你发现。

第二,定期让AI把它记住的东西交给你审核。

现在很多AI Claw都有"记忆"功能——它会把你的偏好、习惯,甚至你提过的某些信息记下来,方便下次更好地服务你。听起来很贴心,但这把双刃剑用不好,就可能在你不知情的情况下,把一些不该记住的隐私也存进去了。

养成定期查看的习惯:让AI把它的记忆内容列出来给你看,有问题的直接让它删掉。但是也要知道,你在前端界面里删掉的记忆,不一定等于在后端服务器里彻底清除——很多商业AI系统仍然会保留备份或用于模型训练。删除是必要的步骤,但不能把"删了"等同于"忘了"。

七、我的一个期待

说完安全,说说我的期待。

我最希望看到的事,是各家AI Claw大厂能尽快统一一套面向硬件的接口标准——针对可联网家电、家用机器人,搭建统一的操作指令框架。

想象一下:你自己养的那只"龙虾",不仅能帮你处理电脑上的工作,还能按你的喜好和习惯,智能操控家里的空调、洗碗机、扫地机器人,乃至未来的家用服务机器人。

技术上,这已经不是很远的事了。现在缺的,是一个统一的"语言",让AI和硬件能顺畅沟通。不过也要清醒地看到,这条路上的现实阻力不小——各厂商的商业利益、封闭生态的壁垒、隐私法规的约束、安全认证的门槛,都需要时间去协调和解决。也许,未来更可能出现的图景,不是"统一标准",而是"AI学会适配一切"——AI在不同平台之间切换操作,而不是平台主动向AI开放。

不过方向是对的,一旦标准形成,有望引发新一轮消费浪潮。那时候,谁的"龙虾"养得好、养得聪明,谁就能在这场浪潮里过得更舒服。

结语

AI浪潮不等人。与其等着被浪打到,不如主动学会冲浪。

养好你的"龙虾",用好它,管好它,别让它变成一个失控的危险玩意儿。

这是技术时代,每一个普通人的新必修课。

(作者注:文中提到的AI Claw工具均为个人使用体验,不构成商业推荐。)