随着科技的飞速发展,AI客服已成为众多网站和企业的首选,用以替代传统的人工客服,为用户提供快速便捷的咨询服务。然而,近两年来的一系列事件让人们开始质疑:AI客服真的可靠吗?它们是否会在某些情况下误导甚至欺骗客户?

以加拿大航空的AI客服为例,该客服曾向一位顾客Jake Moffatt提供错误信息,导致他无法获得应有的退款。在加拿大航空的网站上,AI客服告知该客户,在丧亲旅程中可以提供一些退款。于是,Jake在参加祖母葬礼的旅程中选择加拿大航空的航班。但事实上,AI客服提供的信息是错误的,Jake无法得到退款。加航似乎试图将责任推给AI客服,声称它是一个独立的法律实体。在诉讼的文档中,加航辩称,他们并不能为网站上的AI客服提供的信息负责。看起来,加航似乎觉得AI客服“是一个独立的法律实体,它要对自己的行为负责”,并且说,如果用户想选择“值得信赖的”服务的话,应该去看网页本身的信息。在经过了法庭上的多轮交涉后,法院最终判决加航承担责任,这显示了法律对AI行为责任的认定仍倾向于背后的操作者,加航最终也为其提供了赔偿,但这一事件却引发了人们对AI客服准确性和可靠性的担忧。

除了提供错误信息外,AI客服还可能出现更严重的“幻觉”现象,即自信地陈述错误或不准确的信息。这不仅可能误导客户,还可能给公司带来重大损失。例如,谷歌在2023年2月推出的Bard在一个广告中它可以为9岁的孩子讲述詹姆斯·韦布太空望远镜的科学新发现,然而在视频广告里,它却弄错了第一张系外行星的照片,这使得其母公司Alphabet市值下跌了1000亿美元。

这些事件让人们开始怀疑,当AI客服无法解决问题时,它们是否会成为“无用的聊天机器人”,甚至可能误导客户做出错误的决策。更令人担忧的是,AI客服在某些情况下可能无法提供正常的引导,使客户陷入“末日循环”中,即重复听到几句无用的话,无法得到有效帮助。这种体验不仅浪费时间,还可能让客户感到困惑、沮丧和失望。据英国数据显示,AI客服的使用已导致消费者对客服的满意度降至多年来的最低点。

所以,尽管AI客服在提供快速便捷服务方面具有优势,但其存在的问题也不容忽视。客户在使用AI客服时应保持警惕,避免被其误导或欺骗。同时,企业和开发者也应对AI客服进行更严格的监管和优化,确保其能够准确、可靠地为客户提供服务。在涉及重要决策或复杂问题时,建议客户寻求人工客服的帮助,以确保得到准确和有效的解决方案。

至于AI客服是否欺骗了客户的问题,从法律角度来看,AI本身并不具备法律主体资格,因此无法承担法律责任。

通俗点说,人不会被机器欺骗,实施欺骗行为的只能是背后操纵这个机器的人。

法律条文中对此也有类似的表述。根据《中华人民共和国刑法》第二百六十六条,诈骗罪是指以非法占有为目的,使用欺骗方法,骗取数额较大的公私财物的行为。这里强调的是人的主观故意和欺诈手段,而机器本身并不具备这样的主观故意。在许多案例中,虽然性质没有达到诈骗这么严重,但基本逻辑却是类似的。随着技术的发展,特别是人工智能和自动化领域的进步,对于涉及机器和自动化系统的法律问题,法律界也在不断探索和完善相关规定。然而,目前尚未有专门针对机器实施诈骗行为的法律条文,更多的是通过解释和适用现有法律原则来处理这类问题。

不过,当AI客服提供错误或误导性信息时,其背后的企业和开发者还是应承担相应的法律责任的。因此,客户在遇到问题时可以追究企业和开发者的责任,而不是直接针对AI客服。在未来,随着技术的不断进步和法律的完善,我们有望看到更加智能、可靠的AI客服系统。然而,在此之前,客户和企业都需要对AI客服保持清醒的认识和谨慎的态度,以避免不必要的损失和风险。

追加内容

本文作者可以追加内容哦 !