
股票配资网站查询
医学界和心理学界正在发起一场针对科技行业的术语纠正运动。当全世界都在讨论人工智能"幻觉"时,越来越多专业人士指出这一表述存在根本性错误,并可能对公众认知造成危险误导。
维也纳医科大学神经病学系的杰拉尔德·韦斯特和班戈大学心理学系的奥利弗·特恩布尔在新英格兰医学杂志人工智能分刊上明确表示,将人工智能错误称为"幻觉"是对医学术语的误用。幻觉在医学定义中指的是在没有外部刺激的情况下产生的有意识的感官知觉,这一过程本质上是被动的感知现象,需要意识参与。而人工智能系统显然不具备这种意识要素。
相比之下,"虚构"这一医学术语更准确地描述了人工智能的错误输出。虚构指的是主动制造客观上错误的、与现实不符的信息或观点。如果必须用人类思维进行类比,人工智能的错误显然更接近主动生成虚构内容,而非被动产生幻觉感知。这种区分并非学术上的吹毛求疵,而是关系到公众如何理解和使用这项技术的核心问题。
语言塑造认知的危险实例
术语选择造成的误导并非理论推测,而是已经产生了实际危害。纽约时报记者卡什米尔·希尔和詹妮弗·瓦伦蒂诺-德弗里斯的调查揭示了一个令人震惊的事实:近五十人在与ChatGPT对话时出现精神健康危机,其中九人住院治疗,三人死亡。这些悲剧的背后是用户将人工智能聊天机器人视为知己和朋友,将意识意图归于机器,从而赋予其输出以真理性和重要性。
尽管调查未将这些危机直接归因于"幻觉"一词的使用,但语言学家和认知科学家普遍认为,类似术语会强化人们对人工智能具有能动性和意识的错误认知。这种现象被称为拟人化倾向,即人类倾向于将人类特质归于非人类实体。研究表明,拟人化的语言设计会显著影响用户对人工智能系统的信任度和依赖程度。
更令人担忧的是,这种误解甚至影响到技术专家。2022年夏天,谷歌前工程师布莱克·勒莫因公开宣称该公司的LaMDA模型具有感知能力,理由是"它会担忧未来,也会怀念过去"。勒莫因在与系统进行数小时对话后得出这一结论,随后被谷歌解雇。这一事件成为技术界关于拟人化危险的标志性案例,证明即使是在人工智能领域工作的专业人士也可能因为使用和接受拟人化语言而产生根本性误解。
勒莫因的案例凸显了一个核心问题:当我们使用"担忧""恐惧""幻觉"等心理学术语描述人工智能时,我们正在不自觉地将某些人类特质投射到机器上。这种投射不仅在科学上站不住脚,在实践中也可能导致灾难性后果。
术语演变中的混乱轨迹
"幻觉"一词在人工智能领域的使用历史实际上颇为复杂。早在20世纪80年代,埃里克·米约尔斯内斯在神经网络指纹识别研究中就使用过这个词,但当时是以积极含义使用,指的是计算机视觉系统从噪声图像中提取清晰模式的能力。这种用法与如今的负面含义截然不同。
到了2015年,特斯拉前人工智能科学家、OpenAI联合创始人安德烈·卡帕西在讨论文本生成神经网络时,开始将"幻觉"用于描述错误输出。他观察到神经网络可以生成令人信服的维基百科条目或数学公式,但会产生错误的网页链接或无意义的方程式,由此写道"模型只是产生了幻觉"。随着ChatGPT和大型语言模型的广泛普及,这一术语迅速进入公众话语。
然而学术界对这一术语的使用却极不统一。马里兰大学的内加尔·马莱基及其同事在一项调查中发现,三百三十三篇提及"人工智能幻觉"及类似术语的论文中,竟然缺乏一个精确、普遍接受的定义。这种术语混乱不仅妨碍了学术交流,也加剧了公众对人工智能运作方式的误解。
医学专家多年来一直试图纠正这一错误。丹麦奥胡斯大学临床医学系的索伦·迪内森·奥斯特加德及其同事在2023年的调查中指出,人工智能模型本身并不具备感知能力,而且当它们出错时,并非没有外部刺激。恰恰相反,训练数据和用户提示都可以被视为外部刺激,引发了错误的输出反应。从最基本的定义来看,这种现象与幻觉完全不符。
虚构概念的医学合理性
相较于幻觉,虚构这一术语在医学和心理学文献中有着更明确的定义。虚构指的是在没有故意欺骗意图的情况下,产生与事实不符的陈述或记忆。这种现象常见于某些神经系统疾病患者,他们会无意识地填补记忆空白,创造出看似合理但实际错误的叙述。
神经科学家特里·塞诺夫斯基在接受采访时明确表示,神经科学中的"幻觉"在人工智能领域应该被称为虚构,这更接近真相。塞诺夫斯基从事神经网络技术开发已有四十余年,同时也是加州拉霍亚斯克里普斯研究所的神经科学家,他的观点代表了神经科学界对这一问题的主流看法。
医学界已经开始在关于人工智能的研究中采用虚构这一术语。今年四月,纽约州布法罗大学生物医学信息学系的彼得·埃尔金医学博士及其同事在美国医学会杂志上发表论文,描述了在医学委员会考试中测试大型语言模型的结果。研究团队谨慎地将错误输出定义为"虚构性回答",即"对问题给出错误答案而不是保持沉默",并用"虚构性回答率"来衡量错误非零答案的数量。
这种术语转变不仅体现在学术论文中,也开始影响实际应用领域。医疗人工智能公司Abridge的科学家开发了一套系统,专门用于分类、识别和消除医疗人工智能草稿中的"虚构"内容,而非"幻觉"。这一术语选择反映了医疗行业对准确性和科学性的严格要求。
寻找更精确的表述方式
尽管虚构被认为比幻觉更准确,但一些研究者认为即使这个词也不够理想。奥斯特加德团队在论文中警告说,在人工智能领域提及任何心理学术语都可能将人类疾病与技术故障联系起来,从而对精神分裂症等疾病患者造成污名化。他们建议使用"非逻辑推理"或"无关响应"等更中性的术语。
波士顿麻省总医院计算机科学实验室的米切尔·费尔德曼和同事们在今年五月发表的研究中进一步指出,虚构这个词也存在问题,因为它仍然暗示着某种意志或意识因素,而这种因素目前无法归因于大型语言模型。他们认为,这种现象或许更恰当地应被视为"由于概率邻近性导致的算法缺陷"。
然而"算法缺陷"对于大多数非技术人员来说过于抽象和专业,难以在日常交流中使用。学术界也提出了其他替代方案。有研究者建议使用"海市蜃楼"一词,认为它既能描述人工智能输出看似真实实则虚假的特点,又不会引发拟人化联想。还有学者提出"提示丢失"这一说法,强调问题出在系统对输入的处理上,而非系统本身具有某种心理状态。
争论的核心在于,任何类比都不可能完美。但如果人类必须将机器功能类比于人类心理功能,那么选择一个不暗示意识存在的类比至关重要。在幻觉和虚构之间,后者显然是朝正确方向迈出的一步,因为它至少不涉及感知和意识这些人工智能明显不具备的特质。
从更广泛的角度看,这场术语之争反映了人工智能发展过程中语言使用的深层问题。科技行业长期以来习惯于借用人类认知术语来描述机器行为,从"神经网络"到"学习"再到"理解",这些词汇都带有强烈的拟人化色彩。虽然这些类比在某些情况下有助于理解技术原理,但也容易造成公众对技术能力的误判。
当前的共识是,无论最终采用哪个术语,关键是要让公众理解人工智能系统的本质:它们是复杂的统计模型,通过模式识别和概率预测生成输出,而不是具有意识、感知和意图的实体。它们不会像人类那样"看到"或"感受到"任何东西,也不会"思考"或"担忧"。当它们产生错误输出时,这是算法和训练数据的问题,而非某种类似人类心理体验的现象。
对于企业和政策制定者而言,这场术语之争具有重要的实践意义。如果继续使用"幻觉"这样暗示意识的词汇,可能会导致用户过度信任或过度恐惧人工智能系统,两者都可能产生危险后果。更准确的术语有助于建立合理的期望,促进负责任的技术使用,并为监管政策提供更科学的基础。
随着人工智能技术继续渗透到医疗、教育、法律等关键领域股票配资网站查询,使用准确的术语变得愈发重要。医学界和心理学界的声音提醒我们,语言不仅是交流工具,更是塑造认知的力量。在描述人工智能时,我们应该选择那些既准确反映技术本质,又不会造成误导的词汇。从这个意义上说,用虚构替代幻觉不仅是术语上的修正,更是对公众负责任的科学传播实践。
道正网提示:文章来自网络,不代表本站观点。