每次技术跃进,总会伴随一波“道德恐慌”,AI也未能免俗。前几天邮箱收到篇《华盛顿邮报》的文章推送,讲现在越来越多的学生、艺术家和自由职业者,以“捍卫创作纯洁性”、“害怕偏见”或“保护人类工作”之名,对AI说了“不”。
精神可嘉,但说真的,这与其说是抵抗,不如说是一种对现实的拒绝。
在教育、交流和工作中彻底拒绝一项已经无处不在的技术,本质上是一种自我流放。问题不在于你是否盲目信奉AI,而在于你是否能有脑子地使用它。今天斩钉截铁说“不”的人,很可能在未来的日常里手足无措。
不做AI瘾君子,也不当AI原始人
我对AI的态度,谈不上狂热,也绝非排斥。我的策略是:选择性利用,战略性使用。它能提升效率时,我用它;但它一旦靠近我安身立命的根本,我会立刻叫停。
比如,我不是插画师,所以就算用AI生成文章配图,我毫无心理负担。之前做内容依赖公共图库时,还时不时有人跳出来维权,追问我用的图来源是否清白。现在好了,生成式模型让整个过程流畅无摩擦,基本没人再来索赔,我的文章配图也能更丰富了,更多选择。
再比如,我经常让语言模型帮我检查错别字、总结长文档、精炼语言、或者给我正在写的文章提供反面论点。这么做的结果是,我错误更少,时间省下,思路也更开阔。这并没让我的观点变水,反而让它更扎实,至少我是这么认为的。
为什么AI不能替我写文章
那么,我能更进一步,让AI直接替我写文章吗?
当然能。
只要拿我过去写过的报告、邮件和文章等等去训练一个模型,它就能完美复刻我的文风、结构和语言习惯。这很简单,很便宜,效果可能以假乱真,甚至“青出于蓝”。
但我绝不会这么做。
原因无关伦理,而是因为:写作,是我定义自己的方式。
写点东西是我学习、理解和记忆的途径。如果把这个过程外包给机器,就等于亲手拆掉了支撑我知识体系的承重墙。我的文章不止是观点输出,更是我思考的方法本身。
我写作,是为了理清思绪,把它们钉在记忆里,以便将来在课堂或会议上解释和讨论。如果连写作都外包,我将无法捍卫自己的论点,无法应对质疑,甚至记不起当初为何那么想。AI或许能写得更好看,但永远无法替代我写作的目的。
“拒绝AI”很可能是一种新型无知
许多人都没搞懂这种与技术共存的关系。问题不在AI,而在于我们不知道为何使用它。
全面拒绝AI的政策反而会加剧不平等,因为拒绝学习的人终将被边缘化。
MIT 也指出,逃避AI并不能保护批判性思维,反而会降低认知能力,远不如那些学会审慎使用它的人。
实证研究也证实了这一点。一项2024年6月的研究表明,虽然过度依赖聊天机器学生会侵蚀学生的认知能力,但将其作为辅助而非替代的战略性使用,却能加强理解和创造力。
未来,所有硬技能的学习都将由AI代理和生成模型来教导,它们能24/7地、用你最适应的方式向你解释。所以,问题从来不在工具,而在于你怎么用。这有点像“认知卸载”——把部分脑力劳动交给系统,只要不放弃那些定义我们的核心能力,就完全ok。
拒绝用AI写文章,不代表我是AI否定者。我天天都用它,但划清了界限:不用它替代我智力工作中最核心的部分。
简而言之,我在用AI,没让AI用我。
我们的选择
或许这就是时代的注脚吧:一个人们宁愿怀疑也不愿阅读,宁愿否定也不愿理解的世界。
但我们能怎么办?蠢人和粗人一直都有,很不幸,未来也不会少。
归根结底,21世纪的新型素养,不是逃避技术,而是学会如何使用它,同时保护好让你之所以为你的东西。
在一些讨论关于AI伦理的论文中提到的,讨论的焦点不应是“用或不用”,而应是在自动化生态中 “如何保留人的能动性与责任”。在原则上说“不”是简单的,无需动脑。构建与技术的自洽关系,则困难得多。
任何不理解这一点的人,终将发现,世界早已前行,而自己却选择了背过身去。 到那时,问题将不再是AI,而是你当初决定不去学习如何与它共存。
写在最后:
这个号记录的纯粹是个人观察与思考,欢迎不同观点的碰撞,有碰撞才有火花。努力保持日更中(立个flag),各位要是能从这些文字里得到一丝启发,我便觉得值了。如果觉得还不错,不妨点个赞、关个注,咱们下次再聊。