实验性训练
在创新驱动的业务领域中评估和启动较小规模的用例是非常有益的。创建这些类型的人工智能实验室有助于在组织内部培养对人工智能解决方案更广泛的胃口和更大的接受度。它们还提供了一个改进新技术和建立技术能力的平台。而且它们提供了一种实用的方法来处理关键决策,比如是否在内部开发技术基础、内部提供技术基础、建立合作伙伴关系,或者探索其他整合选择。
然而,过去十年人工智能的发展和人工智能实验已经清楚地表明,实验很容易失控。一种广泛的“适者生存”方法(即启动大量小型用例,以确定哪些用例是成功的,哪些用例是蓬勃发展的)往往会产生令人失望的结果。最有效的人工智能策略包括在受控实验室风格的测试环境中进行选择性实验。这种方法使领导者能够利用从实验中获得的洞察力来精确定位少量高影响力的人工智能机会,并将组织团结在这些机会周围。
随着 GenAI 解决方案的迅速发展,持续实验的必要性对于充分发挥其潜力依然至关重要。然而,与此同时,一种有纪律的实验方法是必不可少的。
重新设想启用人工智能的端到端解决方案,重塑整个旅程
最近实施人工智能的成功与失败表明,当企业全面重新构想整个端到端和人工智能流程时,它们看到了更大的影响,并获得了更多的价值。关注于较大流程的单个部分的孤立用例可能会在短时间内大放异彩,但是它们往往会在年轻时就被耗尽,变更的规模和影响都达不到预期。将人工智能纳入围绕人类工人需求和能力构建的遗留流程,可能会导致推出工作脱节和员工之间的潜在摩擦。
超越微调ーー转变
人工智能的巨大成功始终来自于广泛的转变,包括重新思考作为人工智能领域一部分的整个过程的工作方式。端到端的方法不是在每个步骤中都插入人工智能,而是从头开始重新设计流程,同时考虑人工智能和人类角色以获得最优价值。
金融机构的庞大运作包含着一个等待解锁的强大协同作用。通过利用预测性人工智能和 GenAI 与人类专门知识相结合,金融机构可以实现提高流程效率和有效性的目标,其影响大于各部分之和。
让我们解开 FI 工作流中两个 AI 领域的角色:
- 分析和预测任务。这些左脑任务,比如确定与客户接触的最佳报价,适用于预测性人工智能。
- 富有创造性和表现力的任务。这些右脑任务,比如为客户提供的产品创建内容和设计视觉效果,更适合 GenAI。
这两个简单的例子可以构成现代超个性化产品营销活动的核心。预测人工智能和 GenAI 携手合作,将大多数广告活动任务端对端自动化,从选择目标客户到决定产品的许多参数和变量,再到编写定制信息和插入定制生成的图像。但是,即使人工智能简化了工作流程的许多方面,人类仍然是不可或缺的互补者,监督流程,并处理需要人类专业知识超出人工智能能力的例外情况。
金色图案
尽管使用人工智能的方法有很多种,但端到端工作流中的许多重大机会(特别是以互补方式将预测性人工智能和 GenAI 结合起来的机会)遵循基本模式。
其中一个模式包括三个步骤: (1)处理信息; (2)评估/决定; (3)采取创造性行动。实际上,这可能是回复客户询问、处理供应商发票、就信用卡申请作出决定、监控账户洗钱迹象或撰写投资招股说明书部分的工作流程。(见表6)
在基于人类专业知识的遗留过程中,人类筛选信息,评估信息,做出决定,然后采取行动。但是模式中的每一个阶段都是预测 AI 和 GenAI 与人类合作的机会。
根据具体情况,第一步(过程信息)可能提供一个机会,使用 GenAI 将大量信息合成并压缩成易于消化的摘要,或者通过从大数据集中提取有针对性的见解来利用预测 AI 的力量来缩小选择范围。
第三步(采取创造性行动) ,无论是写一封拒绝贷款信、一份可疑活动报告,还是回答客户的问题,通常都可以移交给 GenAI 模型ーー用于简单和/或非关键任务案例的全自动化,或者至少用于预处理重复元素,因为 GenAI 偶尔出现的不精确性会危及全自动化。
在一个或多个地方遵循这种黄金模式的重复的、大量的工作流是改变游戏规则的机会,可以从头到尾改变流程。
关注人和过程,而不仅仅是技术
人工智能的快速发展使得人们很容易专注于技术、 IT 实现以及其背后的数据。实际上,领导人在这方面面临着许多重要挑战。人工智能需要大量数据,并且可能导致数据不受控制的增殖,因此一个清晰的数据策略是必不可少的。而且,尽管像 ChatGPT 这样的 GenAI 模型对用户非常友好,但在大规模实现时,它对 IT 一点也不友好。
但我们一次又一次地看到,在银行的人工智能战略中,较为软性的成功因素(目标经营模式及其组织结构、人工智能人才和技能管理方法,以及必须伴随任何转型的变革管理)代表性不足、资金不足,这些都被证明是最关键的成功因素。
营运模式及组织结构
人工智能使生产力显著增长。工作是自动化的或增强的,角色必须重新设计。我们看到了四种主要的工作影响类型,它们将改变整个组织的角色(并驱动表4中列出的许多例子) :
- 重复性任务,例如低代码/无代码自动化
- 知识综合,如审查所有商业贷款协议
- 数据驱动的决策,如供应商谈判自动化
- 创造性的任务,例如增强代码生成
为了适应这种变化,金融机构必须大胆地重新思考以人为本的过程,并重新构想整个职能。这项工作将需要建立更多具有嵌入式数据、业务分析和法律能力的跨学科团队; 实施更扁平、更灵活的结构,以便更快地进行迭代和决策; 减少控制范围,以处理日益复杂的人类工作性质。
了解更多关于人工智能世代
生成型人工智能
生成型人工智能是人工智能的一种形式,它使用深度学习和 GAN 来创建内容。了解它如何扰乱或使企业受益。
人工智能
扩展人工智能可以创造巨大的竞争优势。了解我们的人工智能驱动的计划是如何帮助客户提取价值的。
最后,平台操作模型是支持成功采用人工智能的关键。更高的市场导向和更强的快速部署人员、流程和数据的能力将支持更快、更自信的业务模式创新和颠覆。对产品、旅行和服务拥有端到端所有权的跨职能团队将支持重新构想整个流程,平台运营模式以标准化和不影响定制的方式驱动可伸缩性的能力将是一个关键的推动因素。
天赋与技能
展望未来,几乎每一个人类角色都与人工智能有关:
- 构建人工智能的角色,比如创建和监控人工智能模型并支持技术平台的技术专家,他们利用深厚的技术能力
- 塑造人工智能的角色,例如指导人工智能业务交付业务成果并将模型整合到业务流程中的功能专家
- 使用人工智能的角色,如从事人工智能模型输出工作的从业人员,解释产生的内容和数据,为客户和员工提供价值
- 管理人工智能的角色,比如监控人工智能输出的专家,以确保软件驱动返回,并验证系统安全和合乎道德地使用技术
GenAI 将对某些功能产生很大的影响,包括市场营销、客户服务、法律和软件开发。这些功能可能会出现广泛的自动化,从而为降低成本、通过更高质量的服务产生需求以及将资源集中于更高价值的任务创造重要的机会。
金融机构在实施变革时必须务实。这需要确定哪些角色对其特定的 GenAI 战略具有最高价值,然后制定适当的增值人才计划。(见表7)为了在所有职能中很好地管理向 GenAI 的过渡,高管们必须将 GenAI 直接整合到他们的员工规划过程中,定义未来状态所需的技能,评估当前的员工潜力,设计填补供需缺口的战略,支持全面的文化和变革管理,为组织的“建立、购买或借用”人才战略提供信息。
优先管理,定义你自己的道路规则
只有在强有力的人工智能治理框架的保障到位的情况下,才有可能从人工智能中获得变革性影响,并在组织内获得对人工智能解决方案的接受和信任。如果没有可靠的治理,预测性 AI 和 GenAI 都可能很容易触犯法律、监管和声誉风险。例如,针对某些客户的偏见风险可能会随着大型语言模型(LLM)的增加而增加,这些模型基于从互联网获得的有偏见的公共数据集进行训练。波士顿咨询集团(BCG)最近对2000名全球高管进行的一项调查发现,企业领导人正在艰难应对这一困难。整整70% 的受访者表示,对 LLM 来源有限可追溯性的担忧阻碍了他们使用 GenAI,68% 的受访者表示,对该技术黑匣子性质的担忧和数据泄露风险的增加阻碍了他们实施 GenAI。
世界各地的监管机构一直忙于敲定具体的人工智能法律,用 GenAI 条款修正这些法律,并为新技术更新数据隐私、责任和版权法。(见表8)但是,这项技术及其影响的发展速度比以往任何时候都快,因此围绕 GenAI 的监管不确定性可能会占上风一段时间。然而,对于金融机构而言,有三个框架尤其值得注意。金融机构在所有这三种制度中都应受到特别审查,因为它们的产品被认为对公民至关重要,而且特别敏感。
第一个和第二个机制是即将出台的《东盟人工智能治理和伦理指南》(一个指导框架) ,更重要的是欧盟的《人工智能法案》(一部基于风险的消费者保护法,是世界上第一部关于人工智能的横向法律)。《欧盟人工智能法》将预测性人工智能和一般人工智能应用分为四类风险。属于“不可接受风险”类别的申请将被禁止进入欧洲市场,而属于“高风险”类别的申请将受到部署前后的壁垒和义务的限制。常见的预测性人工智能信誉评估可能是高风险的应用程序,GenAI 驱动的客户支持聊天机器人也是如此。《欧盟人工智能法案》仍处于最后谈判阶段,预计将在2023年底或2024年初达成最终形式,经过一段宽限期后,将适用于欧洲市场上的所有产品。未能遵守其要求可能导致罚款高达7% 的全球年营业额。
第三种机制是美国监管机构的做法,目前的目标是调整现有法规,而不是制定新的法律,它对 GenAI 的风险采取了一种更加以国家安全为导向的视角。美国总统乔•拜登(Joe Biden)2023年10月30日发布的人工智能行政命令,启动了一套针对特定行业的制衡机制,以及促进企业和政府自身安全、负责任地使用该技术的措施。这是迈向立法的第一步,但美国何时以及如何监管人工智能仍是国会和政府内部辩论的主题。
有了适当的护栏来指导人工智能开发者和用户,企业应该能够部署和快速推广即使是快速变化的技术,对风险有明确的控制,并具有高守规。这些防护措施应该围绕一个框架,确保人工智能的开发和运营与银行的宗旨和价值观相一致,同时仍能带来变革性的商业影响。我们称这种方法为负责任的人工智能。(见图9)
一个全面而敏捷的负责任的人工智能框架必须包括五个关键组成部分:
- 战略ーー一种与公司价值观、风险战略和道德原则相联系的全面人工智能战略
- 治理ーー由一个明确负责的人工智能领导团队进行监督,确定升级路径,以识别和减轻风险
- 程序ーー为监测和审查产品而设立的严格程序,以确保产品符合负责任的人工智能标准
- 技术ーー为减轻人工智能风险而建立的数据和技术基础设施,包括通过设计和适当的生命周期监测和管理支持负责任的人工智能的工具包
- 文化ーー所有员工,包括人工智能开发人员和用户,都非常了解他们在维护负责任的人工智能方面的角色和职责,并严格遵守这些规定
最近波士顿咨询公司与麻省理工学院斯隆管理评论合作进行的一项研究发现,成功地将负责任的人工智能实践整合到完整的人工智能产品生命周期中的组织实现了更有意义的效益。事实上,当公司成为负责任的人工智能领域的领导者时,充分利用预测性人工智能的好处的可能性几乎增加了两倍,从14% 跃升至41% 。
人工智能在工作场所的兴起,无疑将使与人工智能合作有关的复杂而紧迫的问题浮出水面,并可能引发工会在流程变化和技术实施方面的强硬立场。新的人工智能法规将不会回答这些问题。但是,现在通过开发一个全面的 RAI 框架来为这种可能性做准备的管理人员将拥有一个关键的优势,他们将建立自己的 AI 转换来取得成功。
瞄准地平线
与任何基础性新技术一样,GenAI 提出了许多重要问题,包括如何实现提高效率和效益的机会,以及如何部署技术,如何解决新的人员战略的复杂性,以及如何将技术保持在安全监管和良好治理的范围内。
等待和观望的诱惑可能很强烈,但是太多的东西正处于危险之中,不能玩这种短期游戏。高管们必须将调查和采用包括 GenAI 在内的人工智能作为其组织的转型优先事项,从中长期角度考虑其人工智能战略、人力资源规划以及围绕该技术建立健全治理框架的方法。今天那些积极计划即将到来的人工智能革命的玩家将会在未来处于决定性的优势地位。
发表评论
请先登录后参与评论
{{ item.user_info.display_name }}