中文搜索引擎指南网

 找回密码
 禁止注册

QQ登录

只需一步,快速开始

搜索
查看: 21|回复: 0
打印 上一主题 下一主题

AI越强大,你越需要真正懂点什么

[复制链接]
跳转到指定楼层
1#
发表于 前天 22:42 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
@爱可可-爱生活


【AI越强大,你越需要真正懂点什么】

Ryan Holiday 最近写了一篇长文,核心论点其实很古老:AI 擅长生成看起来合理的东西,但不擅长生成真正正确的东西。区分这两者的能力,恰恰依赖于那些"据说即将被淘汰"的旧技能。

他不是反技术的卢德分子。他用 ChatGPT 规划希腊旅行、给孩子生成故事。但他发现了一个规律:每次 AI 给出错误答案,他之所以能识别,全靠自己多年积累的知识。

一个例子:他问 ChatGPT 某句话是否出自林肯,AI 信誓旦旦地确认了,还给出了出处。问题是,这句话根本不是林肯说的。如果他不是研究过林肯,他会直接把这个错误写进书里。

另一个例子:AI 告诉他美国海军学院每年有多少学员死亡,数字看起来很权威。但他凭直觉觉得不对,一查,AI 把完全不相关的统计数据张冠李戴了。

有人在回复里说了一句极有穿透力的话:AI 自动化的不是知识,而是"看似合理性"。当流畅的废话生产成本趋近于零,瓶颈就变成了谁来承担"确认正确"的成本。

Holiday 提到他的导师 Robert Greene 年轻时做过一件事:逐字翻译修西底德的《伯罗奔尼撒战争史》。不是为了翻译本身,而是为了训练思维。这个过程花了几个月,痛苦、缓慢、低效。但正是这种"必要的困难"塑造了他后来的写作能力。ChatGPT 三十秒能给你答案,但过程被隐藏了。

这里有一个残酷的悖论:AI 对最不需要它的人最有用。你知道得越多,越能分辨 AI 输出的信号和噪音,它对你的帮助就越大。你知道得越少,越无法判断它是否在骗你。

有人反驳说,Holiday 描述的那些 AI 错误已经过时了,新模型好多了。这话有道理,但恰恰证明了他的核心论点:你需要知道怎么提问,需要知道什么时候答案不对,需要知道该用什么工具。这些都是人的能力。

也有人指出了一个更深的问题:如果辨别 AI 胡说的能力需要广泛阅读、深度研究、批判性思维,而获得这些东西的成本越来越高,那么能辨别真伪的人会变成一个越来越小的群体。这不只是个人选择的问题,而是结构性不平等的问题。

回复里有句话说得好:没有自己的知识基础,你不是在使用 AI,是 AI 在使用你。

AI 是一面镜子,反射的不是真相,而是你辨别真相的能力。如果你有能力,它放大你的能力。如果你没有,它放大你的无知,而且以一种看起来像知识的方式放大。这比单纯的无知更危险。

塞涅卡说过:没有人偶然变得智慧。你不能通过概率获得智慧,而大语言模型从根本上说就是一台概率机器。

机器越来越擅长听起来聪明,所以我们必须真正变得聪明。这不是一个关于技术的论点,这是一个关于人之为人的论点。

x.com/RyanHoliday/status/1933535083988693267
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏

Archiver|手机版|小黑屋|教你搜 ( 鲁ICP备16006309号

GMT+8, 2026-2-17 07:25 , Processed in 0.731840 second(s), 21 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表