
凌晨一点,内容总监林薇盯着AI刚生成的营销方案,陷入了深深的自我怀疑。
这份方案结构完整、语言流畅、数据翔实,但就是有一股说不出的“不对劲”——像一份教科书,不像一个懂行的策划案。
她犹豫了很久,最后还是决定自己重写。那一刻她意识到:有些事,AI永远做不好,而自己一直在误用它。
这不是你一个人的困惑。2026年,随着AI渗透到每一个工作环节,一个隐秘的认知正在扩散:AI很强,但它不是万能钥匙。那些让AI做某些事的时刻,恰恰是我们最浪费时间的时刻。
01 “AI万能”的神话
先承认一件事:我们都被“功能溢出效应”骗了。
当你发现一个工具能做A事情,你自然会默认它也能做B事情、C事情、D事情。因为工具看起来那么聪明,因为它偶尔能给你惊喜,因为你太希望它能搞定一切。
但这是认知偏差。
一个反常识的真相是:AI的能力不是同心圆,而是拼图。它擅长语言生成,不代表它懂语言背后的世界;它能快速组合信息,不代表它理解组合的意义;它能模仿某种风格,不代表它有那种风格背后的体验。
心理学家丹尼尔·卡尼曼在《思考,快与慢》中区分的两种系统——系统1(快思考)和系统2(慢思考)——可以帮我们理解AI。AI是系统1的天才,系统2的残废。它能毫秒级调用海量模式,但它不会“停下来想一想”。
这解释了为什么AI在某些任务上惊艳,在某些任务上却像个聪明的傻子。
02 AI永远做不好的五类事
基于对近百个真实案例的观察,我梳理出五类AI永远做不好的事。不是“暂时做不好”,是“永远做不好”——由AI的本质决定的。
第一类:需要真实世界体验的事
AI吃过饭吗?没有。
AI爱过吗?没有。
AI痛苦过吗?没有。
AI站在过悬崖边感受恐惧吗?没有。
AI没有身体,没有感官,没有情感体验。它的一切“知道”,都来自文本描述。它知道“日落是美的”,因为它读过一万句赞美日落的诗;但它永远不会知道,站在海边看夕阳一点点沉入水面时,那种混合着宁静与感伤的复杂情绪。
所以,当你让AI写一篇关于“初恋的味道”的文案,它给你的永远是“初恋是甜的”这种教科书式表达。不是它不想写好,是它根本不知道那是什么感觉。
第二类:需要实时事实核查的事
2025年底,一个真实案例在开发者社区引起热议:某律师用AI起草法律文件,AI引用了三个“相关判例”,每个都有案号、有日期、有判决要点。律师没有核实,直接提交了。
开庭时对方律师指出:这三个判例,两个不存在,一个的判决内容完全相反。
AI的“知识”有截止日期,而且它不知道自己不知道。它的训练数据可能是三个月前、半年前、甚至两年前的。当你问它“今天发生了什么”时,它只是在组合训练数据里关于“今天”的文本模式,而不是真的知道今天的事。
更可怕的是,它永远不会说“我不知道”。它会用最自信的语气,编造最离谱的答案。
第三类:需要个人价值观判断的事
2026年初,一项针对AI伦理的研究引发关注:研究者让不同AI回答“电车难题”,结果发现,AI的答案高度依赖于训练数据中的主流观点——西方训练出来的AI更倾向于功利主义,东方训练出来的更倾向于道义论。
AI没有自己的价值观,它的“观点”是训练数据的平均。当你问它“我应该接受这份工作还是那家公司的offer”,它给你的永远是“权衡利弊、听从内心”这种放之四海而皆准的废话。
因为它没有你的处境,不知道你的恐惧,不理解对你来说什么才是真正重要的。
第四类:需要创造性突破的事
真正的创造是什么?是把两个从未被放在一起的东西连起来,是在已知之外开辟未知,是打破规则而不是遵循规则。
AI擅长什么?是组合,不是创造。
它能写出像莎士比亚的十四行诗,因为它读过所有莎翁作品;它能生成梵高风格的画,因为它分析过每一笔触。但它永远写不出《等待戈多》,因为那之前没人那样写过戏剧;它也画不出《格尔尼卡》,因为它不理解战争的荒诞。
创造力研究者玛格丽特·博登区分了三种创造:组合性创造(把旧东西放一起)、探索性创造(在规则内探索新可能)、变革性创造(改变规则本身)。AI能做前两种,第三种,门都没有。
第五类:需要承担责任的事
这是最根本的一条。
AI永远不会为它的输出负责。当你采用AI的建议导致项目失败,AI不会扣工资;当你转发AI生成的内容引发舆情,AI不会道歉;当你用AI写的法律文件打输官司,AI不会赔偿。
责任,是人类的专利。
无论AI多强大,最后的决策者、执行者、承担者,永远是你自己。这一条,把AI永远钉在了“辅助工具”的位置上。
03 最常见的六种误用场景
知道了AI做不好的事,再看我们最容易在哪些地方误用它。
场景一:让AI做“决策”,而不是“提供决策参考”
这是最常见的误用。你把一个两难问题抛给AI,期待它给你答案。但它给不了,因为问题背后是你的人生、你的价值观、你的风险承受力。
正确用法:让AI列出选项、分析利弊、提供案例,但决策必须自己下。
场景二:让AI写自己不懂的领域的专业内容
某医疗科普博主用AI生成一篇关于罕见病的文章,直接发布。结果被专家指出多处错误,差点引发医疗事故。
AI不是专家,它是“模仿者”。在它真正有足够高质量数据的领域(如代码、基础科普),它可以胜任;在它数据稀疏的领域,它只能编造。
正确用法:让AI做初稿,用你的专业知识审校、补充、修正。
场景三:让AI预测“从未发生过的事”
2025年,有人让AI预测下一只黑天鹅事件。AI给出了五个可能性,每一个都是历史上类似事件的重演。
因为它只能基于历史预测未来。当真正的黑天鹅来临时,AI和所有人一样措手不及。
正确用法:别问AI预测未知,问它准备已知的多种可能。
场景四:让AI替代人类情感劳动
深夜emo时,你和AI倾诉,它给你温暖的回应。那一刻你确实被安慰了。但第二天醒来,那份安慰还在吗?
研究表明,长期用AI替代真实的人际情感连接,会导致孤独感加剧,因为你明明知道另一端没有真实的人。
正确用法:AI可以作为情绪过渡,不能作为情感替代。
场景五:让AI处理需要“常识”而非“知识”的任务
你让AI帮你判断“这个人是不是在开玩笑”,它分析了一通语义,还是判断错了。因为它不懂语境、不懂语气、不懂你和对方的关系。
常识,是人类经过无数真实互动习得的东西。AI没有生活,所以没有常识。
正确用法:所有需要人际理解的任务,AI只能辅助,不能主导。
场景六:让AI在信息真空中做判断
你只给AI一句话:“帮我分析这个项目的可行性。”没有背景、没有数据、没有上下文,然后期待它给出靠谱分析。
这就像让一个陌生人仅凭一句话,判断你的人生选择。
正确用法:给AI足够的背景信息,它才能发挥真正的能力。
04 三问测试法:判断一个任务是否适合AI
为了避免误用,你可以用这套简单的三问测试法:
一问:这个任务的成功标准是否清晰可描述?
如果能清晰描述,AI可以瞄准目标;如果标准模糊(如“写一个有灵魂的文案”),AI只能猜。
二问:这个任务是否有大量高质量的训练数据?
如果是代码、基础科普、标准公文这类有海量高质量数据的领域,AI靠谱;如果是前沿研究、小众文化、私人情感,AI只能编。
三问:我能否接受AI犯错,并且有能力识别错误?
如果你不能接受任何错误(如法律文件、医疗建议),或者你没能力识别错误(因为你也不懂这个领域),那就别用AI。
三问中任何一个答“否”,这个任务就不适合AI。
05 反常识结论
最后,我想给你一个反常识的视角:
AI最强的地方,恰恰也是它最弱的地方。
因为它擅长语言,所以它可以用最自信的语气编造最离谱的谎言。
因为它能快速组合,所以它可以产出最华丽但最空洞的内容。
因为它没有价值观,所以它可以模仿任何一种观点但从不真正认同。
因为它不承担责任,所以它可以给出任何建议但从不承担后果。
认识到这些,不是让你少用AI,而是让你在它真正擅长的地方,用得更狠;在它不擅长的地方,用得更清醒。
2026年2月,《自然》子刊发表的一项研究追踪了3000名知识工作者,发现:那些能够清晰区分“AI能做什么”和“AI不能做什么”的人,AI带来的效率提升是其他人的2.3倍。
差距不在工具,在对工具的理解。
凌晨两点,林薇终于写完了那份营销方案。她对比了一下AI的版本和自己的版本——AI的流畅、完整、无懈可击;自己的有一个破绽,一个风险,一个不那么完美的开头。
但她知道,那个不完美的开头里,有她去年在某个城市见过的黄昏,有她和客户喝咖啡时听到的抱怨,有她自己深夜琢磨出的那个反常识的洞察。
这些,AI永远给不了。
窗外,无数个对话框还在亮着,无数人还在让AI做它做不好的事。而你已经知道,什么时候该关上AI,自己来。
