
您已经为推出人工智能聊天机器人做好了万全准备。数据质量差?您为其提供了高质量的输入。出现幻觉(错误解读)?您对算法进行了微调。旧系统崩溃?您已经迁移到云端并升级了基础设施。从纸面上看,一切都已为成功铺平道路——但当您最终推出它时,却遇到了迄今为止最大的障碍:不愿使用它的人类。
这种场景并非假设:尽管60%的金融机构正在加大对人工智能的投资以加强数字服务,但近70%的决策者却遇到了阻碍。员工担心人工智能会让他们失业,而IBM的报告指出,全球近40%的首席执行官承认,他们并不完全了解人工智能驱动的战略如何影响自己的员工。
几十年来,机器一直在改变人类的生产力,随着更多任务和常规决策实现自动化,这一演变将继续进行。这并不意味着人类将被取代。相反,他们将继续参与其中,转向更高价值的工作,并开辟新的机会。事实上,据预测,生成式人工智能(GenAI)将使全球国内生产总值增长7%。客服中心负责人也越来越倾向于投资人工智能,根据汤森路透最近的一项调查,到2025年,人工智能将至少为每人每周节省4个小时的时间 。这相当于每人每年节省近200个小时,这些时间可以重新投入到他们想要关注的领域:改善工作与生活的平衡。人工智能的真正力量在于以人类洞察力和监督为基础的协作。在本系列关于人工智能在客户体验中为何失败的最后一部分中,我们将探讨人类在采用人工智能方面发挥的最关键作用——无论是作为公司的最大资产还是最薄弱环节。
C级高管的参与和认可
目睹了无数技术趋势兴衰起伏的首席执行官(CEO)可能会将人工智能(AI)视为对他们多年来精心打磨的商业模式构成风险的颠覆者。首席财务官(CFO)则可能增添另一层担忧——实施AI的成本相当高昂。虽然维护成本通常只占部署成本的10%至30%,但保持生成式AI(GenAI)驱动的系统运行的成本可能与最初构建这些系统的成本相当。尽管潜在利益十分诱人,但回报却远非板上钉钉。
与此同时,首席运营官(COO)将专注于运营挑战。将AI融入现有的客户体验(CX)框架绝非易事,不能简单地一键切换。这可能意味着要彻底改造工作流程、重新培训员工,并且与首席技术官(CTO)一同重新设计整个基础设施。这样的运营变革可能会弊大于利。
值得庆幸的是,越来越多的C级高管正在认识到AI的重要性。事实上,超过60%的高管将GenAI列为未来两年的前三项优先事项之一。然而,其中只有约35%制定了明确的计划,将GenAI转化为真正的商业价值。
这种脱节凸显了高层战略一致性的迫切需求。当领导团队支持AI倡议时,它们就不再是边缘项目,而是成为公司核心战略的一部分。这至关重要,因为AI项目需要大量的资金、人力和技术资源。如果没有C级高管的全力支持,获取这些资源可能会成为一大障碍。为了获得这种支持,AI解决方案必须名副其实,提供具有明确用例的实际价值,并展示对底线可衡量的益处和贡献。事实上,美国、英国和德国近一半的被调查企业表示,在实施AI和GenAI时,估算和证明商业价值是他们面临的最大障碍。
组织文化与克服阻力
对于许多组织而言,引入人工智能(AI)可能是一场范式转变,而正如任何经验丰富的领导者所知,变革往往难以让人接受。
AI挑战着公司的运营方式和员工的工作方式。一个典型的例子是:2024年IBM的一项调查发现,近三分之二的首席执行官(CEO)正在推动公司加快采用生成式AI(GenAI),但这比员工所能接受的速度要快。许多员工多年来一直在完善他们的客户服务技能,因此他们理所当然地感到担忧,认为这项技术可能会让他们的角色简化为仅仅按下按钮。这种怀疑很快就会转变为阻力,随着时间的推移,这种阻力会深深植根于公司文化中。要克服这种阻力,需要采取多方面的措施,首先要做的就是进行清晰、透明的沟通。
员工需要将AI视为增强他们技能的工具,而不是让他们变得过时的东西。通过将AI定位为赋能者,公司可以改变员工对AI的恐惧心理,转而看到其中的机遇。赋能员工还包括进行持续的对话、积极解决他们的担忧,并定期提供更新。当员工感觉自己也是这个过程的一部分时,他们更有可能接受变革。这可能意味着让一线员工参与AI工具的选 择和测试,或者创建跨职能团队,将AI专家和最终用户聚集在一起实施新技术。
采用AI既是对人的管理,也是对技术的管理。组织需要致力于持续的培训和发展,并且像任何其他大型倡议一样,衡量AI的成功不仅要看技术的表现如何,还要看它对人的影响。员工敬业度、客户满意度和运营绩效等指标能够更全面地反映AI倡议是否真正击中要害。
AI熟练度和数据素养
许多组织可能已经有了相关技术,但缺乏充分挖掘其潜力的人类知识。这一差距可能导致员工难以操作AI驱动的工具或理解AI提出的建议。
要让AI发挥效用,员工仅仅使用这些工具是不够的。他们还需要理解这些工具背后的数据。一个令人担忧的问题是,美国和英国接受调查的高管和IT领导中有90%承认,他们“并不完全了解团队成员的AI技能和熟练程度”。如果领导者不知道员工的水平,就很难确定AI的发展方向和起点。
要弥合这一差距,需要建立专业知识。这包括在技能缺乏的领域加强培训,并教导员工如何更好地理解数据。熟练度并不意味着每个人都需要成为数据科学家或AI工程师,但他们需要具备解释AI解决方案输出、验证其生成的见解,并确保其建议基于现实情况的实践知识。在客户体验(CX)领域,这意味着赋予人类客服人员使用AI和数据的能力,以提供更个性化、响应更快、更有效的客户互动。
对抗AI中的人为偏见
尽管AI系统看似客观,但它们终究是由人类创造的,并且是基于人类行为产生的 数据进行训练的。我们有意或无意地携带的偏见,可能会不经意地被编码进AI系统中。
一种通过人类视角来解决问题的方法,是引入多元化、跨学科的团队参与开发过程。例如,麦肯锡的一项研究发现,在AI项目中,多元化的开发团队比非多元化团队更有可能取得三倍以上的卓越表现。在韩国的一项案例研究中,旨在预测症状严重程度并改善医疗服务质量的AI模型,在由性别比例均衡的团队开发时,表现出了更高的准确性。
多元化的团队能够带来不同的视角,发现盲点,并仔细审查那些未经检验的假设。例如,一个致力于开发AI驱动客户服务工具的多元化团队可能会注意到,该系统的语言处理算法在处理非标准方言或口音时存在困难。通过早期发现这一问题,他们可以使用更具代表性的数据集对AI模型进行重新训练。
这凸显了另一个关键因素:人类参与循环(HITL)。

在客户体验(CX)中,人类参与循环(HITL)的一个示例场景可能是:人类客服使用由生成式人工智能(GenAI)驱动的工具来回应客户的咨询。在这个过程中,人类客服会审核自动回复,提供反馈,增加上下文信息,并对消息进行微调,然后再发送给客户。反过来,这次互动可以为生成式人工智能工具提供宝贵的反馈,以提高其准确性和相关性。
人类参与循环(HITL)使人类积极参与AI决策过程。例如,在社交媒体或游戏平台的内容审核中,当AI系统标记帖子或评论后,人类审核员会介入进行复审并做出最终决定。这可以监督AI系统的决策,确保不会遗漏上下文和细微差别,并减轻偏见或不公平结果的发生。
HITL还有助于保持AI驱动客户体验(CX)中的责任追究。当客户知道有人类参与时——有人可以介入、解释决策并解决问题——他们更可能信任AI系统。事实上,在2023年对25个国家的消费者和企业买家进行的调查中,有81%的人强调了人类在审核和验证AI在客户互动中的输出方面的重要性。
人类在循环中的参与对于算法透明度也至关重要。AI系统通常像“黑箱”一样运作,即使对于设计它们的人来说,决策过程也是不透明的。这可能会引发问题,尤其是在面向客户的应用中,AI做出的决策(如推荐、定价或服务资格)直接影响客户。
以金融机构使用的AI驱动CX系统为例,该系统用于确定客户的信用度。如果客户基于AI评估被拒绝某项优惠或促销,他们有权了解做出该决定的原因。然而,如果AI的决策过程不透明,就很难提供清晰的解释,从而引发对公平性和责任追究的担忧。这会导致不信任,尤其是当客户认为AI系统做出偏见或任意决策时。例如,公司可能会违反《欧盟人工智能法案》,该法案对各种类型的AI系统规定了处罚和特定义务,包括AI系统工作原理和风险水平的明确文档。
随着AI的不断发展,新的角色和技能将重塑CX劳动力。数据素养将成为普遍要求,并将出现新的角色来管理AI系统。CX的未来将取决于人类与AI发挥各自优势的协作。AI可以承担日常、数据密集型和数字计算任务,而人类员工则专注于他们擅长的领域:建立关系、提供个性化服务以及在复杂情况下做出判断。
即将于10月10日在新加坡滨海湾金沙举行的“TDCX Talks:在AI时代创造强大的客户体验”活动,将通过实用见解和现实世界中的成功案例来深入探讨这些理念。本次活动将汇聚行业领袖、创新者和专家,共同探讨AI驱动客户体验的最新趋势以及人类将发挥的越来越重要的作用。