炒股第一步,先开个股票账户

在使用AI工具时经常会出现这样一种情况:AI的回答看似有逻辑性,但并不完全准确。这是否意味着我们对人工智能的期待有些过高?

今日,在2025中关村论坛年会期间,中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅接受了红星资本局的专访,探讨了人们是否该信任AI的问题。

主办方供图

曾毅表示,现在的人工智能大模型是一个看似智能的信息处理工具,但实际还只是一个统计模型,它还不会非常有效地进行大规模知识的验证、合理性的推理,所以仍然会犯很多人不会犯的错误。

“它从大规模的数据当中去学习一些具有统计显著性的表达,但是由于机制缺陷生成的内容很多人不会犯类似错误,特别是大家熟知的大模型幻觉问题,也就是大家常说的‘一本正经的胡说八道’,这些都是人类不会犯的错误。”

但曾毅认为,近期人工智能推理能力的发展,已经为解决人工智能幻觉等问题提供了一个机遇,不过仍有两类问题值得重点关注:一是互联网上已有很多的幻觉信息存在如何应对,另一个是有很多的人工智能构造的虚假信息产生,这两点在未来都需要用人工智能的技术去鉴别。

曾毅指出,如果构造虚假信息的人工智能被滥用和恶用是“魔高一尺”,未来就一定要发展人工智能的技术去解决,使得向善的人工智能“道高一丈”。

“作为工具的人工智能,没有人能够确保它不犯错误。”曾毅认为,令人欣慰的是,现在人工智能的发展每一天都在变好,有了更可靠的数据和更强大的推理模型,慢慢的从一个信息处理工具,向自动化的理解去发展。重要的是,不管人工智能发展到哪一天,都要去给它构建伦理安全的护栏,使得人工智能的输出,尽可能不要对人类社会产生负面影响。

“没有绝对安全的人工智能,但是安全的人工智能应当作为其发展的第一性原理,不能被删除,也不能被违背。”曾毅强调,发展人工智能的过程当中,我们要有安全意识,要“以技制技”,即用人工智能技术去解决人工智能的安全隐患。只要人工智能技术在社会上的应用存在,就需要用人工智能与人类协同治理人工智能的生态。

“我们永远不应该完全依赖人工智能,所以不应当使用人工智能代替人类决策,人类也不应该对人工智能的输出毫不辨别的去采用。”曾毅说。

红星新闻记者 王田

编辑 肖世清

恭喜解锁12个月手机L2专属领取资格,立即领取>>

追加内容

本文作者可以追加内容哦 !