新闻 硬件和技术 EBU研究揭示每隔一个AI助手的回应可能会误导人。

EBU研究揭示每隔一个AI助手的回应可能会误导人。

Arkadiy Andrienko
在完整版本中阅读

人工智能服务正越来越多地取代传统的互联网搜索,定期扭曲新闻信息。这是来自欧洲广播联盟(EBU)22家媒体组织的记者得出的结论。专家们测试了来自流行聊天机器人的三千多个回答,包括ChatGPT、Gemini、Copilot和Perplexity,重点关注事实准确性、正确来源和区分事实与观点的能力。

分析显示,81%的回答存在不同程度的问题。最令人担忧的发现是,几乎一半的案例(45%)中,系统至少出现了一次重大错误。此外,三分之一的答案(31%)存在严重的来源归属问题:来源要么缺失,要么不正确,或者具有误导性。

五分之一的回答包含不准确或过时的细节。例如,一位助手提供了关于最近立法变化的不正确信息,而另一位则将当前政府职位分配给几个月前已离职的人。在测试的模型中,Gemini AI出现了最多的关键错误,而其他系统的表现大约好两倍。

人工智能助手正迅速成为信息的首选来源。根据路透社研究所的数据,7%的在线新闻消费者现在定期使用它们获取信息,这一数字在25岁以下的受众中上升到15%。研究人员警告说,不准确答案的泛滥削弱了人们对数字信息环境的基本信任。

尽管研究人员强调了人工智能生成新闻的可靠性问题,但这些技术在教育等其他市场开始自信地竞争。例如,搜索引擎Perplexity最近 推出了一款语言学习辅导工具,这一举措已经影响了领先教育平台的股票价格。

    关于作者
    评论0
    留下评论