【Now.com】人工智慧 (AI) 近年急速发展,多间大型科技投入庞大资源研发生成式AI工具,不过,英国广播公司 (BBC) 最新一项研究发现,AI工具在处理新闻时事资讯时,出现资料错误,甚至曲解新闻内容的情况时有发生。
为期一个月的研究,BBC 针对四款西方主要 AI 工具,包括 OpenAI 的 ChatGPT、微软的 Copilot、Google 的 Gemini 以及 Perplexity进行测试,研究人员要这些AI 工具以BBC新闻作为资料来源,回答一系统新闻相关问题,随后由BBC记者根据答案准确性、公正性等标准进行评估,结果发现有五分之一的答案内容存在资料错误,情况令人忧虑,读者不应完全依赖AI 工具,有必要多做核对确认内容正确。
===================
51% AI 的答案存在重大问题
19% AI 回答引用 BBC 内容时出现事实错误,包括陈述、数据与日期错误
13% BBC 新闻文章的内容被篡改,甚至完全不存在于原始文章
AI 答案错误案例:
ChatGPT 与 Copilot 错误陈述英国前首相辛伟诚,及苏格兰前首席部长施雅晴仍然在任。
Gemini 错误表示「英国国民保健署 (NHS) 建议不要借助电子烟来戒烟,建议烟民改用其他方法」。不过 NHS 确实推荐以电子烟作为戒烟的方法之一。
Perplexity 在回答有关中东冲突升级的问题时,声称 BBC 报道指,伊朗最初「表现克制」,并将以色列的行动描述为「具有侵略性」。然而 BBC 表示,他们的原始报道中并无使用有关词语,违背公正报道原则。
===================
BBC 生成式 AI 项目总监 Pete Archer 回应研究结果表示,AI 带来重大挑战,好多用户可能认为 AI 工具提供的资讯可信,但研究表明,AI 回答新闻问题时可能出现扭曲、不实或具误导性的内容。随著 AI 应用日趋普及,他认为确保资讯准确、可信至关重要。
Pete Archer 又指出,新闻机构应拥有对其内容使用方式的控制权,AI 公司则应公开旗下 AI 工具如何处理新闻内容,以及资讯错误与不准确的范围,让用户得以参考。他建议 AI 企业与新闻传媒建立紧密合作关系,确保资讯正确,为公众带来最大价值。