人工智能怎样产生另外一种伦理倾向吗?

2020年1月14日 16:06
來源:香港奇点财经特邀专栏 机器人网

人工智能可能会导致让人类害怕,甚至做出伤害人类的伦理问题,已经在AI行业得到共识。但是,还有另外一种温柔的伦理道德问题也不可忽视:歧视和偏见!

如今随着人工智能技术的发展,从社交软件上的好友推荐,到地图的搜索提示以及预测文本等都有人工智能技术的支持,数以万计的人每天都会以某种方式使用人工智能,但不可避免的是,其中大部人的行为都是在不知不觉间进行的,也正是因为如此,提高人工智能透明度的重要性不断被凸显,人们应当了解这项技术背后的工作原理,然后做出决策。

在使用人工智能技术的过程中,往往会遭遇一个问题,就是其中所谓的“黑匣子”,人工智能技术采取神经网支持,使用算法产生结果生成决策,不过在任何一种情况下,人们都不知道这个决策是如何而来的。例如用户从一侧填充数据,从另一侧获得数据结果,但并不确定在这之中会发生什么,于是最近的几年中,有关“可解释的算法”到“透明的AI”趋势愈加明显。

在大多数的科幻电影中,人工智能最广泛的形象认知莫过于冷酷又冷漠,它们没有人类的情感,当然也没有所谓的人性。人们和人工智能互动时也要意识到其面对的并不是一个人类,因此人工智能驱动的平台和系统等产生的结果会对人类产生或好或坏的影响,这些都值得注意和调整,所以在此过程中偏差检测测试的引入,对于测试产品是否会对人类有害给出参考数据,以便于消除其中产生的偏见问题。

在现实世界中,人工智能技术不同于科幻电影中那么没有“人性”,因为人工智能产生的“歧视”和“偏见”问题正在成为越来越多人的研究课题,其中问题的关键在于人工智能的背后,需要有大量的数据去训练去得出结果,尽管人工智能本身不知道歧视和偏见是何种行为,蕴含着何种意思,但在其背后的研究人员会带有此种想法,而人工智能怎么看待这个世界在一定程度上反映人类的想法,最后人们可以通过各种手段去调整,但最好的方式是一开始就防止其发生。

如今人工智能技术已经深入渗透到人们生活中的方方面面,其导致的负面影响也将更加严峻,当然人工智能会学习会犯错,只有现实环境中面对多种场景使用算法后才能发现存在的偏见问题,有人可能会此问题抱有恐惧的心理,但这属实是一个消除人工智能偏见的好机会,在必要的时候进行干预能有效解决问题。总而言之,机器的偏见来源于人类的偏见,而消除偏见的方式除了采取有效措施进行制止外,还要保持其透明度以便让人们更加了解。