董事会应如何关注人工智能可能带来的道德风险

2020年7月6日 22:26
來源:香港奇点财经特邀专栏 法经笔记

奇点财经7月6日推送

未来,公司治理领域将越来越多地要求董事会处理人工智能和道德问题交叉产生的相关领域。

法经笔记按:

由于新冠疫情的爆发,整个世界陷入了前所未有的局面,给各种规模和发展阶段的企业带来了很多基本挑战。随着人们的思维从危机应对转向复苏,很显然,在新冠疫情重塑的世界里,更有必要进行情景规划。人工智能(AI)可能会站在以数据驱动为主的场景规划的最前沿,因为它能够处理大量不同类型的数据,以适应快速变化的场景。

在新冠疫情爆发之前,董事会负责监督和审视的领域一直都在扩大。在过去几年里,人们越来越多地要求董事会在网络(安全)、文化和可持续性等领域进行审视,这是几个重点领域的例子。新冠疫情带来的挑战进一步增加了董事会需要关注和负责领域的内容和重要性。此外,将越来越多地要求董事会处理人工智能和道德问题交叉产生的相关领域。

本期法经笔记编译了Deloitte & Touche LLP的Vivek Katyal, Cory Liepold, and Satish Iyengar撰写的Artificial Intelligence and Ethics: An Emerging Area of Board Oversight Responsibility,供参考。

什么是人工智能,它所带来的道德风险又是什么?

人工智能可以用几种方式来定义,但也许最直接的定义就是使用机器–即计算机–来执行本应需要人类智能的任务。人工智能也有其他很多种名称,如机器学习、深度学习、自然语言处理和计算机视觉等。我们中的许多人每天都会体验人工智能–例如,当我们不得不与相关服务提供商的自动应答系统进行互动,才能联系到某人或获取信息。

作为一个非常典型的涉及多方面的技术,人工智能提供了许多好处,包括速度,一致性,同时降低劳动力成本。而随着越来越多的企业使用人工智能,以及人工智能的应用扩展到新的领域,企业可能会发现使用人工智能相对于不使用它,相对优势非常明显。

然而,人工智能在带来好处的同时也带来了风险。这些风险中有一些与道德无关,从一些次要的风险(如语音识别不能适应口音)到更主要的风险(如:供水的污染或电网关停)。在现实世界中,人工智能出了问题的例子包括了基于种族、年龄或性别产生对他人歧视的系统,以及无意中传播虚假信息的社交媒体系统等。

然而,随着人工智能成为企业必备的经营能力,企业不可能通过不采用人工智能来避免人工智能带来的独特风险。相反,他们必须学会如何有效地识别和管理人工智能风险。为了实现人与机器协作的潜力,各类组织需要将人工智能计划从传达室(mailroom)传达给董事会。通过建立一个道德框架,各组织可以创造一种共同的语言,用以阐明信任,并确保所有内外部利益相关方之间数据的完整性。

当然,也有一些风险在本质上是合乎道德的。与人类智力一样,人工智能的一个关键组成部分是信息或数据;没有数据就作出决定或者采取行动都将是武断的,是没有任何逻辑依据。以下是与使用人工智能有关的道德和治理方面的几个挑战:

1.不同组织及生态系统对AI及相关术语的不同定义
2.使人工智能目标与公司的使命和价值观保持一致
3.人工智能只被部署在了相对狭窄的目标上,而不考虑如何更好地改进业务
4.人工智能的发展是以一种特殊的方式进行的,只有有限的标准或规范
5.获得或使用人工智能设计和开发的数据时,不需要对偏见或真实性进行任何检查或测试。
6.人工智能是以提高效率为唯一或主要重点进行开发的
7.未对人工智能系统的结果进行监测,以使其与预期目标保持一致

如果有一个共同的框架和视角,能够在整个企业内一致地应用与人工智能相关的风险治理和管理方式,就可以更快、更一致地采用人工智能。

下文概述了如何使用人工智能的一些例子,以及使用人工智能所产生的道德和相关因素。

为什么是董事会?

前面概述的有关道德和相关风险考虑表明公司需要某种类型的监督进行相应的风险控制,但为什么董事会来进行这种监督呢?

首先,战略和风险是董事会监督的关键领域;第二,人工智能日益成为推进和支持战略的重要工具,尽管它本身存在风险。因此,董事会对人工智能的道德操守的监督是适当的也是必要的。董事会对人工智能的监督可以提供正确的基调,并为采用人工智能的道德框架设定指导原则。

具体需要检视的人工智能道德风险领域

风险领域:从董事会的角度来看,道德风险的一些主要领域包括:

公平:使用人工智能会导致歧视性结果吗?人工智能系统是否使用包含真实世界偏见的数据集,它们是否容易在数字速度和规模上学习、放大和传播这种偏差?

透明度和可申诉性:人工智能系统和算法是否可供检查,由此产生的决策是否完全可以解释?如何使用个人数据的人工智能在业务交互之前、期间和之后与受影响的个人进行沟通和解释?

责任和问责:谁对人工智能的意外结果负责?组织是否有一个结构化的机制来认识和承认意外的结果,确定谁对问题负责,谁负责做正确的事情?

稳健性和可靠性:在投入使用之前,人工智能系统需要满足哪些可靠性和一致性的措施?处理不一致和意外结果的过程是什么?

隐私与信任:人工智能系统是否与客户、员工和其他外部利益相关者保持或产生信任?人工智能系统是否为他们所不期望的个人带来了关注和行动,从而引发了对信任和行为规范的关注?

人身安全与系统保障:人工智能的结果是否有助于维护或提高安全性,是否在受控环境中进行了错误测试?是否查明和减轻了对人类生命、社会和经济系统的风险?

如前所述,来自人工智能的风险会以多种方式危害到广泛的公司群体。以客户为中心的企业可能面临客户挫折感或疏离感,如果包含人工智能的客户体验不能按预期执行,例如遇到会话中断或对独特或敏感的客户问题没有做出有意义的响应,这样的经历会直接导致客户失去信任,导致声誉受损。监管机构可以发现公司在使用不包含道德检查的数据或算法方法时,出现违反法律或者是采取掠夺性或垄断性的一些做法。

例如,一家公司的“准时”(just-in-time)库存系统使用人工智能但没有按预期执行,供应商可能会经历损失的时间和产品的损坏。换句话说,有缺陷的人工智能系统和流程会对公司产生负面甚至是严重的影响。

还值得注意的是,前面概述的风险领域可能既包括感知也包括了现实领域。即便人工智能“系统”运行良好,大家仍然会在感知层面认为它可能会产生不公平或不可靠的结果,可能与现实的不公平或不可靠的结果一样具有破坏性。因此,董事会必须从两个角度来处理人工智能的道德风险:第一是设定原则,主要是规避道德风险的原则;第二是具体的操作标准。

有关人工智能道德风险的管理建议

虽然与人工智能有关的道德风险可能与其他风险不同,但它们也有许多董事会习惯处理的共同因素。这些要素包括:

-确定整个组织在何处以及如何使用人工智能
-评估在特定情况下使用人工智能是否合适,以及AI是否产生期望的效益,同时又不增加组织的风险敞口
-评估与公司使用人工智能有关的道德风险和其他风险,设置或监督有关使用人工智能的适当“防护栏”
-熟悉使用人工智能的组织各部门的领导,以及对人工智能负有直接责任的个人。
-评估分配给人工智能的领导能力和资源是否充足,如果没有,则与管理层合作,提供所需资源,并解决不足之处
-考虑聘请独立顾问协助公司和(或)董事会确定和维持健全的人工智能道德方法和/或补充董事会的技能
-定期重新检查上述要素,以确定是否需要“调整”或更实质性的调整

为管理人工智能道德风险而采取的各项行动,通常可以作为董事会正在进行的综合风险评估进程的一部分,而不是单独的、独立的程序。例如,可以在企业风险管理进程中例行处理的项目中,增加对人工智能和相关风险的定期审查,负责监督人工智能使用的人员也可能被纳入定期人才审查。

此外,可以考虑董事会是否行使这一监督责任,还是更恰当地将其置于董事会的一个委员会内–如果是的话,是哪个委员会?各公司之间的答案可能大相径庭,这取决于它们各自的行业、如何使用人工智能,以及董事会及其委员会拥有的技能集的性质。因此,每个董事会都需要根据公司的个人特点、其业务模式和董事会成员作出这些决定。

此外,公司可能需要考虑其董事会和(或)委员会的组成,部分依据其使用人工智能的性质和程度。一家具有影响力地且广泛应用人工智能的公司可能会考虑寻找一位对人工智能和/或数据科学有一定熟悉程度的董事会成员。如上所述,在这一领域拥有董事会专门知识的一个潜在替代办法是,聘请顾问或顾问协助委员会监督人工智能道德操守和(或)补充委员会现有的技能。

法经笔记按:

1.本期法经笔记编译的内容更多的可以视为新时期公司治理的新问题,正如此前法经笔记多次提到的,网络安全、环境治理、非金融企业的风险管理,都极为重要但是又没有得到足够的在公司治理层面或者说董事会层面的关注。本文提到的人工智能领域又是另一个在现代公司的生产经营中越来越普遍被应用的技术领域,而且人工智能由于其独特的应用,对公司在道德风险领域带来很多挑战,需要从董事会的更高的层面予以关注,可以考虑通过本文提到的几个方面和问题来对自己的公司进行一下检视,看看是否已经设置好了关于人工智能风险的治理机制。

2.而另外一个视角是本文没有提到的,但是也许会有人感兴趣的,就是人工智能能帮到公司治理本身吗?恰好笔者找到一篇题为“哥大法学院:公司治理中的人工智能和技术”(来自公众号“AI与法”),该文有一段很精彩的论述:“我们报告了董事会为帮助管理其公司治理职责而采用的基本技术。它协助他们准备和分发报告,精简会议准备工作,安排会议。全球企业的董事会正朝着自己的数字化转型迈出初步的步伐。我们的调查显示,目前大多数辅助公司治理的人工智能应用程序都属于过程自动化分类(董事会报告、风险和审计系统、法律合规),在认知洞察力(风险管理、内部审计、法律合规)方面也取得了一些进展。执行认知参与的系统尚未形成自己的体系,但随着技术的成熟,它们在董事会的价值可能会提升(带有推荐操作的智能可视化、机器人顾问、物联网启用的功能)。尽管这很有帮助,但我们认为,这项技术并没有解决董事会面临的更大的治理挑战,比如参与有意义的战略、主动的风险监督,以及对公司运营的实时洞察。”所以说,人工智能,似乎无所不能。

3.2017年《法律科学》杂志也出了一期专门的人工智能与法律的专刊(《法律科学》2017年第5期),可参考法律科学公众号相关专题。

友情提示:请下载奇点财经APP(点击 IOS版 或 安卓版)或关注奇点财经公众号(奇点财经HK)以得更全面的资讯。