孙明春|人工智能产业发展中的ESG风险分析

2021年4月28日 06:54
來源:香港奇点财经专栏作家孙明春

奇点财经推送于2021年4月28日

(编者按:本文为香港奇点财经特邀专栏作者、海通国际首席经济学家孙明春先生提供。作者为孙明春、夏韵。人工智能技术在给人类带来效率提升、福利改善的同时,也带来诸多道德和伦理方面的挑战与困惑,形成社会不稳定因素。在现阶段相关政策法规尚不完善的情况下,企业主体可通过引入ESG(环境、社会与公司治理)管治框架,建立相关的政策、制度和措施,使人工智能技术服务于企业自身及各利益相关方,以确保技术向善。原文于2021年4月25日首刊于现代金融导刊。)

人工智能(Artificial Intelligence, 缩写为AI)技术在给人类社会带来效率提升、福利改善的同时,也带来诸多风险与挑战,例如冲击就业、加剧不平等、侵犯个人隐私、滥用数据等,形成社会不稳定因素,甚至令人类深陷道德和伦理困境。因此,我们必须未雨绸缪,提升认知和关切,致力发展“以人为本”的人工智能。本文将从企业主体的角度出发,以ESG(环境、社会与公司治理)作为分析框架,探讨人工智能产业发展所带来的ESG风险,并提出相应的对策。

人工智能与可持续发展

人工智能技术在发展和应用过程中所涉及的可持续发展议题,已在全球得到广泛重视。各界已就人工智能伦理原则的重要性达成共识,但由于人工智能技术的发展和应用实践尚处于早期,对这些问题的研究探讨、准则制定仍在探索阶段,法律法规、政策制度和管理规范有待发展完善。

(一)全球概况

联合国是推动建立全球人工智能伦理规范的重要力量。2019年,联合国教科文组织启动了全球人工智能伦理建议书的撰写,并于2020年9月完成草案,现阶段已提交193个会员国协商,预计将于2021年底发布。另外,联合国教科文组织还于2017年联合世界科学知识与技术伦理委员会发布了《机器人伦理报告》。经合组织(OECD)也高度重视AI准则的制定,于2019年5月发布首个政府间人工智能政策指南《OECD人工智能原则》,发布初有42个国家签署,随后也被G20采纳。

各国政府在制定人工智能战略的同时,也积极推进人工智能伦理标准的制定。截至2020年1月,全球已有28个国家发布了有关人工智能的国家战略及政策,而伦理问题是各国政策的重要领域之一 。美国在2019年修订了《国家人工智能研究与发展战略计划》,提出包括应对伦理、法律和社会影响、确保人工智能系统安全等八项战略重点。欧盟在2019年4月发布了《可信赖的人工智能伦理指南》,并在2020年2月发布的《人工智能白皮书》中也将伦理监管作为重要政策目标。2020年10月,欧洲议会通过了三项有关监管人工智能的立法倡议,以更好地平衡技术创新和社会治理的关系。

与此同时,专业/行业组织、学术机构和企业界也提出了相关的道德规范和伦理倡议。国际化标准化组织(ISO)已于2017年成立人工智能委员会,负责涵盖算法偏见、隐私保护等领域的标准研制工作。电气和电子工程师协会(IEEE)致力推进人工智能伦理道德研究,其在2017年提出的“人权、福祉、问责、透明、慎用”的五项原则已成为国际上最具影响的人工智能伦理原则之一。牛津大学、剑桥大学和Open AI公司等7家机构于2018年共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,分析了人工智能可能带来的安全威胁并提出应对建议。在企业界,微软、谷歌、IBM等科技企业制定了人工智能开发的伦理原则,脸书也在2019年初联合慕尼黑工业大学建立了人工智能伦理研究所。

(二)中国概况

中国已发布的人工智能相关规划、指导意见等政策文件,均包含对人工智能安全和伦理等方面的要求。例如,2017年7月,国务院在《新一代人工智能发展规划》中提出,要“制定促进人工智能发展的法律法规和伦理规范;开展人工智能行为科学和伦理等问题研究;制定人工智能产品研发设计人员的道德规范和行为守则……”此外,相关部门还就自动驾驶、金融等细分领域的安全问题制定了规范性文件。

2019年2月,国家新一代人工智能治理专业委员会成立;同年6月,委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,旨在“更好地协调发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展”。同年4月,国家人工智能标准化总体组发布了《人工智能伦理风险分析报告》,提出“人类根本利益原则”和“责任原则”。全国信息安全标准化技术委员会近年也在个人信息保护等方面制定了多项国家标准。

中国的学界和企业界也积极关注人工智能伦理问题。2019年5月,由科技部和北京市政府指导成立的研究机构北京智源人工智能研究院成立了人工智能伦理与安全研究中心,并联合北大、清华、中科院、新一代人工智能产业技术创新战略联盟(发起成员包括百度、阿里、腾讯、华为等)和其他学术机构及产业组织共同发布《人工智能北京共识》,提出了人工智能研发、使用和治理应遵循的“有益于人类命运共同体的构建和社会发展”的15条原则。2019年8月,深圳人工智能行业协会与旷视科技、科大讯飞等数十家企业联合发布《新一代人工智能行业自律公约》。百度、腾讯等主要科技企业也提出了企业自身的AI伦理准则;旷视科技还在制定准则的基础上,成立了人工智能道德委员会,以推动“可持续、负责任、有价值的人工智能生态”。

人工智能产业发展中的ESG风险

发展“以人为本”的人工智能是全社会的课题,需要政府、商界、学界、社会公众和所有利益相关方共担责任,协力推动。作为人工智能技术应用与推广的主体,企业在应对相关挑战中负有不可推卸的社会责任;特别是在现阶段政策监管和法律法规尚不完善的情况下,企业的自律自治尤为重要。我们认为,企业主体可引入ESG分析和管治框架,将ESG理念融入人工智能技术的研究、开发和应用的各个环节,识别其中的环境(E)、社会责任(S)和企业管治(G)方面的风险与机遇,建立相关的政策、制度和措施。

(一)环境(E)

研究表明,人工智能技术可以通过改善气候数据模型、提高交通效率、优化能源使用、创新低碳材料等途径帮助人类治理污染和应对气候变化。例如,北京市政府和IBM“绿色地平线”计划达成合作,使用人工智能技术来定位污染源,协助城市环境治理;谷歌的子公司DeepMind开发的人工智能温控系统可降低传统的供暖和制冷系统约40%的电力消耗;运用极端气候事件数据训练出来的机器学习算法,可成功识别人工难以预测的灾难性气候现象。人工智能的广泛应用也能通过多种途径在生产、生活的诸多环节(如提高电力系统效率、以远程办公替代出行和差旅等)降低或抵消碳足迹。据微软和普华永道预测,人工智能技术有望在2030年前将全球的温室气体排放量减少1.5%~4%。

另一方面,由于人工智能技术应用将产生电子废料和增加能源消耗,其高速发展也给环境保护和气候变化带来了压力。例如,单一机器学习模型训练所产生的碳排放相当于普通汽车寿命期内碳排放量的5倍;2018年中国数据中心的总用电量(73%为火电)为全社会用电量的2.4%(超过上海市2018年全社会用电量),预计2023年数据中心总用电量将增长66%。

总体而言,人工智能技术的发展对环境的整体影响究竟如何,仍未有定论。但关注环境议题、充分考虑公司业务对环境和气候变化的影响不仅是企业的社会责任,也是面对日趋严格的监管政策所必须采取的行动。一方面,企业(尤其是科技企业)应充分考虑人工智能研发和应用对环境的影响,评估、追踪能源消耗和碳排放情况,努力减少碳足迹(例如,科技公司可将数据中心设立在可使用可再生电力能源的地区,或通过采购可再生能源项目进行碳补偿);另一方面,企业需要评估人工智能技术发展对企业自身能源使用的影响,例如制造业企业对引进智能制造设备带来的能耗变化做充分评估,并制定规划及应对措施。

(二)社会责任(S)

人工智能技术的广泛应用有可能引发大规模失业、隐私泄露、偏见和歧视、道德伦理失范等社会问题,影响社会稳定,并在一定程度上影响甚至重塑企业与客户、员工、供应商、社区等利益相关方的关系。

1.就业问题。人工智能发展带来的技术革命将令部分人力工作被自动化取代,重塑产业流程,并由此引发就业结构和就业方式的改变。具体表现为:淘汰部分传统岗位,引发大范围的技术性失业(主要包括简单、重复、机械性操作的工种,如智能客服取代银行柜员和接线员,财务机器人取代初级会计师、自动驾驶取代司机);催生新的工作类别,创造新的就业岗位(如人工智能工程师、物联网工程技术人员等);部分岗位工作方式的变化,例如由单一的人工操作转化为人机交互/协作(如制造业的技术人员需掌握智能制造操控技术、金融业的分析师需通过人工智能技术获取和处理数据等)。这些变化将导致某类劳动者受技能限制无法在人工智能催生的新工作类别中获得就业,从而面临永久性失业,加剧贫富差距。

在宏观层面,关于人工智能发展对整体就业率影响的研究仍存在争议。“乐观派”指出,历次技术变革推动的生产力进步带来了收入提升和就业机会增加。因此,人工智能时代新型工作的诞生很可能提升整体就业率。“悲观派”则认为,人工智能的发展不同以往的技术进步,将对就业造成巨大冲击。不论从哪个角度看,部分劳动者的失业将成为必然。据普华永道2018年的估算,2030年之后,美国接近40%的工作都面临被自动化的风险 。BCG在2018年测算,到2027年中国金融行业约23%的工作岗位会受到人工智能的颠覆性影响,削减或转变为新型工作。

针对上述冲击,企业应在人力资本发展方面制定应对措施。例如,公司在引进人工智能技术的同时,应同步评估对就业的影响,识别受影响的员工群体、影响程度,制订预案以保障平稳过渡;同时也应尽可能提供资源支持劳动者学习新技能、适应新变化,针对人机协作的需求,可建立和强化培训制度和职业教育,提高员工业务能力。针对失业问题,可建立再就业培训制度、提供再就业津贴、或考虑以减少工作时间替代裁员等。

2.隐私保护问题。随着大数据、人脸识别等技术的广泛应用,社会各界对数据使用和隐私保护的关注度不断提升。在ESG实践中,客户隐私保护已成为衡量公司社会责任(S)表现的主流议题。全球主要的ESG评级已将隐私保护作为评价公司表现的关键指标。例如,MSCI将其纳入“产品责任”维度,富时罗素将其纳入“人权与社区”维度。全球报告倡议组织(GRI)、港交所等主要交易所也将“客户隐私”作为ESG信息披露的标准项目。企业对该议题的重视程度也不断提升,据德勤报告,2019年80%的香港上市公司披露了隐私保护的具体措施,较2017年的56%显著提升。

隐私泄露和数据滥用可能造成严重危害。个人信息泄露可能威胁客户的人身和财产安全。用户的个人信息可能被非法分子利用,进行倒卖、诈骗等犯罪活动。例如,窃取人像信息用于破解人脸识别,登录个人银行账户转移资金;利用医院泄露的儿童就诊记录用于税务诈骗、贩卖人口。据统计,中国约九成的网络诈骗案件都源自隐私信息泄露。数据滥用则有可能涉及对用户意识和思想的操控。企业应用人工智能技术收集用户数据,对用户行为进行追踪、监控、分析,掌握了大量的个人信息(包括年龄、性别、健康数据、社会关系、消费记录、网络使用习惯等)。如果数据充分、有足够的计算能力,这些企业就可以精准掌握用户的喜好、思维和行为习惯,他们对用户的了解程度甚至超越用户本人,从而具备了操控个人的能力。例如,通过推送定制化信息影响选民投票,选民以为自己的选择是基于个人的自由意志,而实际上是运用数据进行政治操纵的结果。

因此,在人工智能时代,“负责任”的数据使用和隐私保护应成为所有企业必须高度关注的ESG议题,保障用户信息安全也是每个企业的责任。企业可按照法律法规、国际标准和行业规范,建立完善的管控机制。相关制度不应仅限于数据获取方面征得客户同意等单一维度,还应在数据的管理、使用等方面保证公开透明,保证用户的知情权,进行全流程、系统化的管控。

3.平等问题。人工智能的大规模应用还有可能通过加强企业垄断以及在性别、种族、民族、宗教、健康状况等方面的偏见和歧视等加剧不平等现象。例如,由于技术壁垒、网络效应的存在,人工智能相关企业天然更易趋向垄断,经济资源可能越来越向少数大企业集中,而小企业可能会逐渐被淘汰。

人工智能还可能加剧和传播偏见。以算法偏见为例,算法训练以输入的历史数据为基础,如果这些数据本身包含带有偏见的信息,那么算法就会学习、应用、放大、传播这些偏见,令错误决策成为系统性问题。例如,在贷款申请中,女性申请商业贷款的难度远远高于男性,黑人申请贷款被拒的可能性是白人的两倍。如果贷款申请算法学习的是这些历史数据,那么人工智能得出的结论可能更倾向于男性而非女性、白人而非黑人,从而加剧性别、种族不平等的趋势。

在ESG实践中,“减少不平等”是社会领域(S)的常规议题。为避免因算法偏见而导致不平等,科技企业作为设计方,在研发、创建人工智能应用时应引入公平原则,尽量降低所构建应用模型的偏差,保障数据来源和用途的透明度;企业作为应用方,也有责任了解潜在偏见,并向设计方反馈应用中出现的偏见重现等问题,尽力降低对利益相关方(如客户、员工和社区)的负面影响。

4.安全问题。人工智能技术应用越广、对各行各业的渗透越深,经济和社会运行对技术和数据的依赖性就越强,未来面临的安全挑战(包括系统安全、数据安全、技术安全、不当使用、通过恶意攻击进行犯罪活动等)也就越严峻。安全问题也是ESG领域的常规议题,保障员工的健康与安全、产品服务安全、防控安全风险事件,都是企业应尽的社会责任。

人工智能应用有可能因为技术的复杂性而存在安全隐患。以深度学习为例,机器并非依靠输入的指令运行,而是基于输入的数据、通过自主学习做出智能决策;由于技术本身的复杂性,即便是最初的设计人员,也难以解释算法决策的过程,于是形成“算法黑箱”;这也导致算法可能会偏离设计的初衷,形成安全隐患。例如,在智慧医疗应用场景中,如果算法做出了诊断,而医生和设计人员却无法知晓算法决策的依据和逻辑,就无从判断其失误的可能性,那么人工智能的可信性和安全性便无法保障。

人工智能的设计缺陷、技术漏洞也可能导致伤害,甚至威胁人身安全。近年全球曾发生多起自动驾驶安全事故,技术漏洞是引发事故的因素之一。此外,法律法规不完善、管理缺位、防护措施不足,也会酿成安全隐患。例如,近年全球无人机扰航事件频发,严重时导致机场关闭,数万名旅客滞留。这些事件发生的直接原因虽然是无人机操作者所致,但是通过有效防控机制(如引入侦测预警系统、制定应急计划)可降低事故发生的概率及危害性。

人工智能的安全问题引发了人们的担忧。国际组织、政府机构和企业提出的人工智能伦理原则,几乎都对这一议题作出回应并达成共识,即人工智能技术研发与应用必须以“安全可控”为前提、遵循“公开透明”、“可解释”等原则。欧盟的《可信赖的人工智能伦理指南》针对人工智能技术的设计与研发,提出了“可解释性”“测试与验证”“建立质量指标体系”等原则;针对人工智能技术的使用,提出“健全监管”“通过治理框架实现问责制”等原则。

就ESG实践而言,企业可着重考虑两方面,一是如何有效防控人工智能设计与应用中的安全隐患,二是如何保障企业、员工、客户及其他利益相关方的安全。首先,从技术安全的角度来看,开发方的企业应将“安全可控”作为人工智能研发和设计的首要原则,保障技术的透明度、可解释性;而应用方的企业则有责任了解人工智能技术存在的安全隐患,审慎评估并慎用。其次,从管理安全的角度来看,企业应从保障利益相关方的安全和自身的稳健经营出发,建立相应的人工智能安全管理系统,或将相关的安全问题纳入公司现有的风险管理体系。

5.伦理问题。广义而言,隐私保护、不平等现象都属于道德伦理的范畴。除此之外,人工智能还可能涉及到更深层次的伦理问题。比如,如果机器越来越聪明,人类会不会失去对机器的控制,或者反过来被机器操控?又比如,当信息技术与生物技术高度发达,可以在人体植入生物传感器监测健康数据,或通过脑机接口技术读取和挖掘人脑意识,这种涉及人体实验的技术有哪些潜在风险和负面影响?其研发和应用的边界又如何界定?

面对这些伦理问题,企业对人工智能应秉持“负责任”研发、生产和应用的核心原则,将相关议题纳入公司的ESG管治框架。例如,科技企业可考虑设立公司层面的伦理委员会,对产品的研发和生产进行伦理方面的评估审核,思考如何建立行业标准和最佳实践,同时在企业内部进行宣导并面向所有员工开展培训。投资机构/金融机构也应将伦理问题纳入ESG投资框架,引导被投企业进行负责任的、合乎伦理准则的人工智能产品的研发、生产、销售和使用。其他企业如涉及人工智能方面的采购、应用等,也应将伦理作为筛选供应商的标准,并纳入企业供应链的ESG管理。

目前,一些科技企业已提出相关的道德和伦理准则。针对人工智能开发和应用,微软提出了公平、包容、透明、负责、可靠与安全、隐私与保密等六项道德准则;IBM提出信任、尊重与隐私保护的三大原则,谷歌也提出了七项准则,包含对社会有益、保障安全、不创造偏见等,并且明确了“不会进行的AI应用”(包括不开发武器等)。腾讯集团则提出“可用、可靠、可知、可控”(ARCC)的AI伦理框架以确保“AI向善”。

(三)企业管治(G)

面对人工智能技术带来的就业、平等、安全、隐私保护、道德伦理等方面的挑战和风险,企业应将相关议题纳入公司治理(G)框架,以更好地识别和应对相关风险,降低负面结果对企业带来的实质性影响。具体而言,企业可从两方面着手:

在尽职方面,明确董事会在涉及人工智能研发和应用领域负有监督责任,并在董事会层面加强人工智能道德伦理问题的教育,以提升认知、更好地权衡问题并做出决策。IBM商业价值研究院面向来自全球不同地区、不同行业的1250位企业高管,就人工智能领域的道德相关问题开展了调研,其调研报告指出,80%的董事会成员认为这属于董事会层面的职责范畴,但仅有45%的董事会成员表示为解决这类问题做好了充分准备。两者之间的差距显示亟待加强董事会教育。

在治理框架方面,需要建立系统化的管理体系,将“负责任”的价值观、AI道德伦理规范制度化。例如,在董事会下设人工智能伦理委员会,可聘请内外部专家任职,给董事会和管理层提供专业咨询建议,并明确公司高管团队的职责;制定公平、透明、安全、合乎道德的开发应用的总体原则、以及具体的行为准则;建立具体的管控制度和操作流程,明确责任主体和追责制度(如建立数据治理制度、明确数据责任),以规范管控、减少风险和负面结果;开展员工培训等。这对于人工智能研发端的科技企业而言尤为重要。(本文编辑:卜彬彬)

作者简介:孙明春,香港奇点财经特邀专栏作者、中国金融四十人论坛(CF40)成员、海通国际首席经济学家。

(声明:本文转自“海通国际宏观研究”公众号,已获海通国际宏观研究公众号许可。欢迎登陆网站https://sfl.gloal/或关注公众号“奇点财经HK”。如需转载请向[email protected]提出书面申请。奇点财经是全球首家提供多语种及专注于ESG投资与金融科技领域的媒体,是香港期刊协会创会会员。)


友情提示:请下载奇点财经APP(点击 IOS版 或 安卓版)或关注奇点财经公众号(奇点财经HK)以得更全面的信息。