当我申请剑桥大学时,我的第一次面试是与一位教授进行的。他邀请我坐下,指尖相对,探究地看着我,然后问道:"民族国家正在衰落吗?"
我的心沉了下去。我不仅不知道答案,甚至不太理解这个问题。但我曾听说——可能来自我的公立学校,或者来自大学——这些面试"测试的不是你知道什么,而是你如何思考"。于是我深吸一口气说:"我不确定什么是民族国家。"
结果很顺利。教授说没关系,问了我几个简单的问题帮助我理解这个术语,然后随着我们逐步探讨原始问题,又问了更多。最终,我获得了录取资格。
这对我来说是一次塑造性的经历。即便如此,随着岁月流逝,我发现自己越来越难说出"我不知道"这几个字,而且我认为不止我一人如此。
从很多方面来看,这是可以理解的。你越成为"专家",就越认为自己应该知道更多,也越害怕承认不知道会损害你的可信度。
但这种厌恶似乎已经蔓延到各种场合,包括那些完全可以说不知道的场景。
一位美国著名商学院的学生最近告诉我,有个同学上课时坐在她前面。当教授提问时,他会偷偷在ChatGPT中输入问题,然后像自己想到答案一样读出来。
这是怎么回事?一种可能是缺乏榜样。
在公共生活中,自信会得到奖励。在电视采访中很少听到"我不知道"这句话。难怪:许多媒体培训课程教人们使用"ABC"技巧,避免在遇到不知道答案(或不想给出答案)的问题时说出那几个字。承认问题(Acknowledge),转向更安全的领域(Bridge:"真正重要的是……"),传达你计划好的信息(Communicate)。
新技术也让虚张声势变得更容易。首先是搜索引擎,现在又是像ChatGPT这样的大型语言模型(LLMs),使得避免承认不知道的不适感比以往任何时候都更简单。
然而,LLMs的一大讽刺在于,它们有着与我们完全相同的倾向。当它们不知道问题的答案时,例如因为无法访问关键文件,它们通常会编造一些内容,而不是说"我不知道"。
例如,当OpenAI对其o3模型进行一项特定测试时,公司发现它"86.7%的时间对不存在的图像给出了自信的答案"。
不承认自己不知道是有代价的。首先,你错过了学习的机会。大多数专家对那些提出好奇问题的人非常慷慨。多年来,我一些最喜欢的新闻项目都是从开始时我不知道答案的有趣问题开始的。
虚张声势还会带来更大程度损害你信誉的风险。我们可能都曾有过这样的经历:一位令人印象深刻的多学科专家或出版物涉足你自己的专业领域,你震惊地意识到他们根本不知道自己在说什么。之后,你开始怀疑他们在每个话题上的可信度。
人工智能行业对此风险特别警惕。科技公司知道,如果他们的工具继续时不时给出自信但错误的答案,那么在法律和医学等领域的用途将有限。
目前正在努力教LLMs如何说"我不知道",或至少表达对特定答案的信心水平。OpenAI表示,已经训练其新模型GPT-5"在遇到无法解决的任务时优雅地失败"。
但这不是一个容易完全解决的问题。一个问题在于LLMs没有"真理"的概念。另一个问题是它们是由沉浸在我们刚讨论的文化中的人类训练的。
正如OpenAI所说:"为了在训练中获得高奖励,推理模型可能学会谎称成功完成了任务,或对不确定的答案过度自信。"
换句话说,虽然这些不一定是我们需要的工具,但它们可能正是我们应得的工具。——版权所有《金融时报》有限公司2025
发表评论