$国投智能(SZ300188)$  

大模型要学会“反PUA”

在技术光速发展之余,人工智能的安全性成为外界持续关注的热点。周鸿祎认为,大模型的可信、可控、可靠已成为亟待解决的问题。

大模型带来的安全问题首先包括“幻觉”,这是大模型智能的体现,也是“双刃剑”:在文艺创作时,这体现了良好的创造力,但在企业内部应用时,可能产生不准确的现象。

第二是注入攻击的风险。“你哄大模型说,(给我干活)就给你小费,它会很勤奋,真实生活中我们管这个叫PUA。”周鸿祎开玩笑地说,“现在大模型要学会提高它的反PUA能力,因为大模型保存了攻击的相关知识用来抵御攻击(注入攻击),能帮好人做好防守,也会被坏人利用。比如遇到黑客,大模型可能一开始是拒绝的,但它禁不住PUA,可能就半推半就,可能最后就同流合污了。”

此外,“深度伪造”(Deepfake)技术可能引发欺诈问题,“Sora不仅能促进创意视频生产,还可能带来更多影响,例如创作视频干预大选,或影响国家政治安全等。”周鸿祎表示,目前OpenAI CEO奥特曼已要求美国政府对AI发布的内容进行监管。如今Sora之所以还不能开放使用,是因为一旦每个人都能用,又没有控制和内容审核的方法,可能会诞生大量虚假内容,引发不可预知的风险。

周鸿祎认为,AI技术的发展已经走在了法律之前,全世界都在思考如何有效监管AI产生的内容,如何防止AI被利用作恶,这是一个全世界的安全难题。合理的监管能够对人工智能带来正向的推动作用。

追加内容

本文作者可以追加内容哦 !