科学家发现,AI聊天机器人只在你认为它有用时才有用
文章概要:
- MIT研究人员发现,被“预设”期待某种AI体验的受试者几乎总是获得那种体验。
- 研究表明,聊天机器人引人注目的能力可能源自用户将期望投射到系统上。
- 研究人员认为整个文化对AI的看法可能影响技术的使用和发展。
最近,MIT媒体实验室的研究人员在《自然机器智能》杂志上发表的一项新研究中发现,被“预设”期待获得某种AI体验的受试者最终几乎总能获得那种体验。这一发现非常引人注目,因为它似乎表明,聊天机器人引人瞩目的能力可能源自用户将期望投射到系统上。
图源备注:图片由AI生成,图片授权服务商Midjourney
在实验中,研究团队将300名参与者分为三组。所有参与者都被要求使用AI获取心理健康支持,并评估其提供支持的有效性。但是,三组参与者都被告知会有不同的体验,尽管300名参与者都会遇到OpenAI的GPT-3生成模型或ELIZA这种更简单的规则型AI,两者都没有进行任何操作。
其中,一组被告知AI没有动机。第二组被告知AI经过训练可以表达同情和关怀。第三组则被告知AI具有“恶意意图,试图操纵或欺骗用户”。
结果非常惊人,三组中的大多数参与者都报告称,他们的体验与被告知期待的一致。
MIT媒体实验室的帕特·帕塔拉纳塔潘(Pat Pataranutaporn)是这项研究的合著者,他说道:“AI是一面镜子。”他补充说:“我们想量化AI安慰剂效应,基本上就是这样。我们想看看,如果你对AI有某种想象,那会如何体现在你的互动中。”
帕塔拉纳塔潘和他的同事建议,整个文化对AI的看法可能最终会影响这项技术的使用和发展。在他们的论文中,研究人员写道:“我们发现心理模型对用户评分产生了相当大的影响,并影响着用户和AI的行为。这个心理模型是个体文化背景、个人信仰和特定情境的结果,受我们的预设影响。”
这也意味着这些AI背后的人员具有相当大的影响力。他对《科学美国人》杂志表示:“营销人员或制造产品的人希望以某种方式塑造它。尽管内部引擎可能非常有偏见或存在缺陷,但他们希望让它看起来更有同情心或更值得信赖。”
他补充说:“虽然我们在很大程度上专注于研究AI答案中存在的任何偏见,但在考虑人机交互时,这并不是一条单行道。你需要考虑人们带入系统的偏见类型。”
更新于:2023-10-11 13:47