
加纳特的一项调查显示,81%的消费者不会与不信任的品牌进行交易。在此背景下,信任源于在处理客户互动时能够保持透明、一致和负责任,而所有这些因素都直接影响消费者对品牌的看法。
近期研究结果表明,75%的企业认为缺乏透明度会导致客户流失。然而,随着人工智能(AI)的融入,消费者信任度却有所下降。消费者认识到AI的潜力,但对AI对隐私的影响却持谨慎态度。事实上,近期研究表明,消费者对利用AI的组织(如媒体)的信任度有所下降,这加剧了现有的担忧。
为建立和维持信任,企业必须将透明度置于比以往更重要的位置,确保就数据使用、决策过程以及保护消费者隐私的保障措施进行清晰沟通。
公众对AI的一般态度
随着AI不断渗透到我们生活的方方面面,对于旨在将这些技术融入其客户体验(CX)战略的企业而言,了解公众对AI的一般态度至关重要。客户对AI的看法受到好奇心、怀疑态度以及实际担忧的混合影响,这些会极大地影响他们与AI驱动服务的互动。
一般而言,许多客户对AI提升他们体验的潜力感到好奇,尤其是在个性化推荐、简化客户服务以及预测需求方面,麦肯锡2023年的一份报告强调了AI(尤其是生成式AI)的变革性影响。
尽管持乐观态度,但许多人仍持怀疑态度。事实上,60%的消费者担心AI会滥用他们的个人数据。这种怀疑态度受到一些备受瞩目的数据泄露事件(如2023年的ChatGPT数据泄露事件)以及AI做出错误决策的事件的影响,同时也源于对准确性和可靠性的实际担忧。此外,当AI无法满足消费者期望时,期望与现实之间的差距会导致失望和不信任。皮尤研究中心(Pew Research)最近的一项调查发现,虽然大多数消费者都熟悉AI,但有很大一部分人仍对其准确性和可靠性持怀疑态度。
通过解决这些态度和担忧,企业可以更好地使AI战略与客户期望保持一致,最终提升客户体验并建立更加牢固、更加信任的关系。
客户对AI的常见担忧
随着AI越来越深入地融入客户体验(CX)战略,客户们出现了几个常见的担忧:
隐私:60%的消费者在与聊天机器人等AI解决方案互动时,担心个人信息安全。这种担忧源于他们的信息可能被滥用或被未授权方访问 ,从而导致潜在的身份盗窃或其他隐私泄露。
数据安全:数据泄露和个人信息被未授权访问的风险是客户的一大担忧。消费者对于AI系统中他们数据的安全性持谨慎态度。
决策制定:客户通常对AI做出影响他们的决策感到不安,担心缺乏人为监督。福布斯(Forbes)的一项调查显示,超过75%的消费者担心AI工具的误导信息,特别是在金融科技或医疗保健等行业,AI驱动的决策可能产生重大影响。
不准确:AI有时会产生不准确的结果,导致客户感到沮丧和不信任。在客户服务等领域,错误的回应会产生严重影响,导致问题无法解决,最终引发客户不满。
客户困境循环:这个术语指的是客户在到达人工客服之前被困在自动化系统中的循环。这有时会导致无法达成满意的解决方案,从而使客户感到沮丧和被低估
语言障碍:AI在理解和准确处理不同语言和方言方面可能遇到困难,导致沟通不畅和不满,尤其是在全球市场,客户可能使用多种语言。虽然AI在通过语言翻译打破语言障碍方面取得了进展,但准确性仍然是一个重大挑战。
伦理考量:关于AI有更广泛的伦理担忧,包括AI算法中的偏见以及AI可能加剧现有不平等的潜力。算法歧视,即AI系统基于有缺陷的数据做出有偏见的决策,是一个重大担忧。消费者意识到这些风险,并且超过一半的人认为公司应该对AI的滥用负责。
缺乏透明度的风险
虽然AI沟通的透明度对于建立信任至关重要,但缺乏透明度可能会导致严重的负面后果:
违反法规及面临罚款:不透明可能导致企业不遵守如欧盟人工智能法案(EU AI Act)或加利福尼亚州消费者隐私法案(CCPA)等规定。这些法规要求明确沟通数据收集和使用的做法,不遵守可能会导致巨额罚款。麦肯锡(McKinsey)的一份报告强调,根据欧盟人工智能法案,组织可能面临高达其全球 年收入7%的罚款。
客户信任丧失:当企业不透明地处理其AI实践时,客户可能会感到被欺骗或对其数据的使用方式感到不确定。根据最近的一项调查,59%的消费者担心AI会产生有偏见的输出。
员工对AI的信心下降:当员工没有充分了解AI系统的工作原理及其影响时,可能会导致对这些技术缺乏信心。一项调查显示,25%的数据和分析决策者认为对AI系统缺乏信任是一个主要问题,这可能会阻碍AI在组织内的有效实施。
偏见和歧视风险增加:缺乏透明度可能会加剧偏见,导致不公平的结果和潜在的法律挑战。确保透明度有助于定期审计AI系统是否存在偏见,并采取纠正措施。
运营效率低下和决策失误:AI的透明度对于识别算法偏见、数据不准确或模型漂移等问题至关重要,这些问题都可能对决策产生负面影响。如果没有明确的监督,企业可能难以及时发现这些问题,从而导致效率低下和决策失误。
公众负面看法和品牌损害:AI实践的不透明可能导致公众的反感和负面媒体报道。例如,斯坦福大学AI指数报告强调的不披露AI训练数据和方法等问题,可能会损害品牌形象并削弱公众信任。对AI实践保持透明有助于避免这些风险,并表明对道德使用AI的承诺。
阻碍创新和产品改进:过于隐秘的AI实践可能会限制企业收集了解客户需求的数据。根据世界经济论坛首席风险官展望报告,超过一半接受调查的首席风险官表示,他们的组织计划在未来六个月内对AI进行审计,以确保所使用的算法的安全性、合法性和道德合理性。尽管如此,只有55%的人对理解提高透明度和主动审计以在管理风险的同时促进创新的紧迫性感到自信。
透明化AI沟通的最佳实践
透明度始于清晰解释AI在组织内部的使用方式:
明确AI的数据收集、存储和使用方式。客户需要了解AI系统内的数据生命周期,包 括数据的收集方式、存储的数据类型以及数据如何用于决策。提供清晰、易获取的数据操作信息有助于消除AI的神秘感并建立信任。使用视觉辅助工具,如信息图或流程图,可以帮助说明客户数据的使用和处理方式。
遵循行业标准和框架。遵守既定的AI伦理和透明度行业标准可以进一步建立信任。例如,IEEE自主与智能系统伦理全球倡议提供了指导方针,有助于组织确保其AI实践符合伦理和透明度的要求。通过与这些标准保持一致,公司可以展示其对负责任使用AI的承诺。此外,遵守欧盟通用数据保护条例(GDPR)或加利福尼亚州消费者隐私法案(CCPA)等法规可以向客户保证他们的数据得到了安全和伦理的处理。
除了解释AI的作用外,提高透明度还涉及教育客户和鼓励反馈的努力:
教育客户了解AI流程。提供清晰、易获取的资源,解释AI在公司运营中的应用方式,有助于客户了解这项技术。这可以包括AI如何处理客户数据、做出决策以及支持客户互动的见解。教育客户可以使他们有能力做出明智的决策,并在与AI互动时感到更加自在。
鼓励反馈以持续改进。积极征求客户对AI互动的反馈有助于识别改进领域并培养归属感。根据普华永道(PwC)的一份报告,63%的消费者认为AI将有助于解决复杂问题,但他们也希望参与到对话中来。实施反馈机制,如调查或反馈表,可以使客户能够表达他们的担忧,并为AI驱动的客户体验(CX)的持续改进做出贡献。
为客户提供AI互动的控制和选择。给予客户控制其与AI互动的选项可以增强他们的舒适感和信任感。例如,允许客户在AI和人工支持之间进行选择,或提供选择退出某些数据收集步骤的选项,可以使他们在想要分享什么或如何互动方面拥有更多控制权。
使用非专业术语以避免混淆。以简单、非技术的语言沟通AI流程有助于澄清并使这项技术更加易于理解。
在员工和利益相关者内部建立信任。确保员工和利益相关者了解AI流程对于提供一致且值得信赖的客户体验至关重要。当团队对AI的作用及其影响有清晰了解时,他们就能更好地解决客户的担忧。
持续监控AI性能。定期进行审计、检测并减轻偏见以及发布透明度报告等关键做法有助于识别潜在问题、维护公平性,并确保AI模型不仅按预期运行,而且易于理解和解释。
在TDCX Talks:在AI时代创造强大的客户体验这一思想领袖活动中,我们探讨了更多关于AI在客户体验(CX)策略中的应用。该活动邀请行业专家分享在AI时代建立信任的最佳实践。