人工智能治理这个话题,在很多人眼里似乎还是一个笑话。

标题:AI隐患重重?人工智能之初应当性本善

人工智能正引发最重要的技术变革和社会变革,它在深刻改变人类物质生产体系的同时,也将对人类行为和社会关系产生深远的影响。

由于AI本身是一个新的热词,很多人觉得离人工智能还很远,就没必要讨论治理的问题。另一方面,在中国,很多技术带来的问题,似乎是可以容忍的,没有什么大不了的。

当下,人工智能正在以革命的形式横扫科技圈。智能音箱、AlphaGo、无人驾驶、NLP……世界发生了深刻的变化,我们可以时刻感受到科技带来的便利与乐趣。如同电力、蒸汽改变人类世界一样,人工智能也逐渐渗透进了我们的毛细血管当中。

2018年以来,人工智能安全事故、伦理道德侵害事件频发,社会各界普遍关注,特别是全球首例自动驾驶致死事件更是引发了公众对人工智能发展的议论。

最典型的隐私问题,普通大众就一直比较迟钝。正如去年李彦宏在中国高层发展论坛上所说:“中国人更加开放,或者说对于隐私问题没有那么敏感,如果说他们愿意用隐私来交换便捷性或者效率,很多情况下他们是愿意这么做的。”

在阿里巴巴、谷歌等国内外科技巨头的引领下,国内有诸如旷视科技、极链科技Video++、依图科技等聚焦于人工智能垂直领域的初创企业蓬勃发展。但与此同时,人工智能带来的安全隐患与道德争议,也让各界对AI治理更加重视。新兴技术的商业化之路,如果方向不稳,终将是空中楼阁,AI的发展之路,需要建立在“以人为本”的初心上。

实际上,近年来伴随人工智能向各行业、各领域的快速渗透,联合国、电气和电子工程师协会等国际组织已密集推出人工智能发展原则,以期为世界各国的人工智能监管提供参考借鉴,欧盟、日本、新加坡等国家和地区已明确提出人工智能道德伦理准则,人工智能从业者也在积极探索行业自律相关经验。然而总体来看,准则易定,实施难行,要克服道德准则主观性,要探索全球人工智能治理准则,并达成多方共识,仍然有较长一段路要走。

美高梅集团4858 1

来自科学和社会的双重警告

美高梅集团4858 2

而对从业者来说,要不要治理也很纠结。

美高梅集团4858 3

人脸识别系统。光明图片/视觉中国

没有明确的准则,意味着可以自由的浑水摸鱼,但同时又可能陷入“不知道自己已经犯了法”的误区。由于制度和相关法规跟不上,很多人不知道自己是清白的还是违法的。比如深圳车当创始人林雨案,数据是向别人采购的,但别人是从4S店盗取的,他表示不知情,但还是被抓了。他知道自己在河边走,但他分不清自己的脚是不是湿了。

人工智能发展带来的安全隐患与道德争议,包括数据泄露、算法偏见、AI技术被滥用、安全隐患、法规不完善等问题。例如AI技术被滥用引发安全威胁。智能化网络攻击软件具备一定的自我学习能力,可模仿系统中的用户行为,并不断改变方法,以实现长时间停留在计算机系统中的目的,黑客则可以通过人工智能发起网络攻击,引发安全威胁。例如不法分子利用人工智能电视的各种安全隐患进行:远程控制电视,远程安装恶意软件,远程监控家庭等,造成用户隐私泄露或财产损失。

美高梅集团4858 4

法律法规跟不上,其实对谁都没有好处,相关部门被诟病,普通大众利益可能受损,从业者也很尴尬,不知道哪一天自己踩中了地雷。

近来,AI换脸技术应用于明星影视剧中引起热议,人脸识别技术已经得到普遍应用,诸如上班打卡、刷脸购物、支付、手机解锁、抓交通违章等场景,拥有大量的用户群体。假如有人利用AI
换脸技术在这些领域弄虚作假,人脸识别又无法辨识真伪的话,那么个人隐私信息、财产等都会被盗,后果难以想象。

当地时间2018年3月20日,美国亚利桑那州坦佩市,美国国家运输安全委员会展开调查。18日晚,一辆以自动驾驶模式运行的优步汽车在坦佩市撞倒一名过马路的行人,并导致该行人死亡。光明图片/视觉中国

科技部也意识到这个问题的严重性,5月16日,在天津举行的第三届智能大会上,科技部部长王志表示:“正在加紧研究起草人工智能治理准则,近期将向全社会发布。”

隐私问题是数据资源开发利用中的主要威胁之一,智能系统掌握了个人的大量信息,这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成数据泄露、隐私侵犯。去年,科技部公布了6张行政罚单,其中涉及基因隐私问题,公众对于基因隐私的担忧愈加严重。虽然国内正在推进电子病历等医疗大数据的科研应用,但仍存在数据使用的安全规范和法律保障不够等问题。

美高梅集团4858 5

AI暴露的问题越来越多

美高梅集团4858,其三,目前的人工智能系统目前还不够成熟,技术缺陷导致工作异常,可能出现安全隐患。例如机器人、无人智能系统的设计或生产不当会导致运行异常,近年来已有多起安全事故发生,Waymo无人驾驶汽车事故、Uber无人驾驶汽车撞死了行人、特斯拉车祸等让大家对无人驾驶的安全性打上了问号。AI医疗领域,在图像诊断等领域以实用化为目标的开发正不断推进。如果配备疾病识别AI的医疗设备投入使用,有望通过AI分析大量的医疗图像,从而更易发现病变部位。

当地时间2013年4月23日,英国伦敦,国际机器人武器控制委员会的成员发起“停止机器人杀手”活动,希望各国能够以法律形式约束全自动杀人武器的研制和部署。光明图片/视觉中国

一直以来,我们谈论AI对我们的负面影响,主要集中在“人工智能威胁论”这种宏大的命题,什么“机器人毁灭人类”、“AI武器将人类带入万劫不复”等,听起来耸人听闻,却真的很遥远。但由于这类话题更有噱头,所以大佬爱高谈阔论,媒体爱追捧,民众也很喜欢被带进去。这就导致,人工智能在发展过程中实际遇到的问题,容易被忽略。

而伦理问题可能是人工智能技术带给人们最为特殊的问题,未来人工智能不仅具有感知、认知和决策能力,还会形成不同个性,在决策中可能会遵循与人类不同的逻辑,造成严重后果,对社会文明产生不良影响。

1、人工智能安全事故多发社会关注度日益提升

美高梅集团4858 6

人工智能治理的未来规划

自动驾驶车辆撞死路人,应该由谁来担责?

AI发展面临的问题,已经扩散到生活中的方方面面。

美高梅集团4858 7

2018年3月,优步自动驾驶汽车在美国亚利桑那州坦佩市碰撞到一个横穿马路的行人,该行人在送往医院后不治身亡,这是全球首起自动驾驶车辆在公共道路上撞击行人致死事件。意外发生时,汽车处于自动驾驶模式,驾驶座上有1名人类安全驾驶员,该驾驶员并未参与驾驶操作。那么,该由谁对这起事故承担法律责任?人类驾驶员、汽车制造商沃尔沃公司还是自动驾驶系统提供方优步公司?

一个典型的案例,是今年315曝光出的某金融公司利用探针盒子搜集消费者个人信息,然后向其推荐金融产品。这只是被曝光的冰山一角,在金融领域,骗子本来就无所不用其极,AI则是一个全新的工具,如果不对数据来源加以管制,未来将会造成一系列经济和社会问题。

人工智能的影响普及全球,然而目前还没有任何实质的政策或措施去制定能使人工智能的潜力最大化并管理其风险的治理机制。这并不是因为政府认为人工智能的治理不重要,而是因为这需要政策制定者、企业和用户等所有利益相关者一起去打开“潘多拉”魔盒,去讨论所有可能涉及到的问题。

一年后的2019年3月5日,美国亚利桑那州检察官裁定优步公司不承担刑事责任,同时建议警方对优步的安全驾驶员进行进一步调查。理由是,这一自动驾驶车辆处在自动驾驶模式时,其刹车的责任应由安全驾驶员负责。即优步公司的程序已设定,在自动驾驶模式下,即使遇到紧急情况,系统也不能启用紧急刹车功能,而是由人类驾驶员启动。优步公司制定的这一算法规则成为该公司被裁定不承担刑事责任的重要依据,那么优步这一规则的合理性又该由谁来判定?法律问题的背后实际是伦理准绳的设定。

另一个大家比较熟悉的例子,是人工智能电话。以前我们接到的垃圾电话,都是真人打过来,怼他两句基本可能就解决。但人工智能电话,可以没日没夜,没完没了,不断的变换形式骚扰人,让人防不胜防,不再是靠单个号码举报解决问题的,必须要相关部门介入,顺藤摸瓜,一锅端掉才有可能平息其骚扰。

人工智能的基石是数据,政府和企业在实际应用中所收集的数据如若被不当地处理或操纵,则会引发比以往数据隐私丑闻更大的风险,以及政府和企业尚未内化的声誉风险。因此,要防止大数据和人工智能的滥用和失控,应该从意识形态开始建立科学的数据价值观体系。

侵犯个人隐私,涉嫌种族歧视,这样的人工智能产品和服务你能接受吗?

虽然人工智能离我们想象的AI时代还很远,但由于这几年发展迅猛,已经在B端全面攻城略地,特别是金融、安防和产业升级上,发挥了巨大的作用。这些板块都是自带数据的,但在一些以销售驱动的板块,很多AI的想法,需要大数据来支撑,这就诞生了一个庞大的“搞数据”产业,有些是正经渠道,有些则来路不明。

除了从技术安全角度研究确保AI安全的可行技术方法和手段外,还需要从伦理层面为AI安全提供引导和约束,以确保“AI向善”。伦理规范需要在公司、行业、国家层面就人工智能伦理原则和框架达成共识并落实到人工智能研发应用中,因为在技术加速、法律滞后的趋势下,需要更多依靠伦理规则来发挥事前的引导和规范作用,来确保AI向善。

日前,美国科技巨头亚马逊公司向执法机构、私人企业销售人脸识别软件Rekognition,美国媒体和公众认为,这将对个人隐私造成严重威胁。因为,这款软件可以让政府和私企在任何有摄像头的地方追踪到普通民众,同时相关技术还因为有色人种被错误识别匹配的比例过高而受到种族歧视的质疑。

来路不明的数据,往往用处也是去路不明。前端,收集数据是非法的,后端,最终还是以非法的形式来得以变现。就像你被盗的隐私,最后被对方拿来骗你一样。AI的发展,催生了不少行业毒瘤,严重影响行业的形象和人们对AI的信心,更是让一些人陷入了万劫不复的困境。

同时,社会也亟待法律规范的制定,从具体的行业出发对自动驾驶、无人机、医疗诊断、机器人等具体的人工智能应用进行监管,以实现鼓励创新与保障安全的平衡。国际标准、规则的制定可以确保人工智能的研发应用符合伦理、国际法等共同性要求。

2018年7月,美国公民自由联盟的一项测试显示,Rekognition曾将535名美国国会议员中的28人误判为罪犯。对于有色人种国会议员识别的错误率为39%,远超对整个国会议员识别的错误率。2019年1月,麻省理工学院的一项研究显示,IBM和微软公司研发的人脸识别与分析软件也都存在种族和性别偏见问题。

政府部门在隐私问题上要带好头

未来已来,普惠全民

人工智能用于研发战争机器人会加剧军备竞赛吗?

现阶段,政府部门采购占据了人工智能市场的半壁江山,万亿的安防市场,养活了商汤、旷视、依图等独角兽,更多的上下游AI企业数不胜数。依托无数的摄像头,以及办公系统,政府部门拥有了严格意义上最优质的大数据,而且随着AI技术的介入,其数据量更是源源不断,涉及人们生活的方方面面。

未来的人工智能会发展怎样已有迹可循,而构建一个开放的人工智能生态系统,确保技术进步造福人类更是我们应该关注的。当下的中国正进入新技术带来的全球大变局,政府、科技公司、学术机构和用户等所有利益相关者应该联合起来,坚持以未来共同体的心态,建立积极的生态规则。

早在21世纪初,美国已将无人系统用于军事活动。特别是近期,美国部署启动了诸多人工智能军事项目,包括各类军用无人车、无人机、无人船等。谷歌、微软等公司都参与了军用人工智能技术与系统的研发。

美高梅集团4858 8

科技的进步带来的是社会生活方式的重塑,普罗大众都能平等地享受科学技术带来的便利与可能。在这个机会与挑战并存的时代,让我们以负责任的态度开启智能美好生活。

2018年4月,3100多名谷歌员工联名请愿,敦促公司终止与美国国防部合作开发的ProjectMaven人工智能武器项目。

AI的力量,也极大的辅助了政府部门提升工作效率,从智慧城市到智慧交通,从安全管理、资源调度、坏人抓捕、失物调查、打拐等领域,诞生了大量经典案例。曾有外国记者测试天网的能力,玩了一个“出逃”游戏,结果7分钟就被找到“抓住”。这种能力的背后,是AI系统对各种数据的全面精通和运用。

2018年2月,韩国科学技术院KAIST与韩国军工企业HanwhaSystems合作共建“国防和人工智能融合研究中心”,该中心目标是“开发应用于军事武器的人工智能技术,参与全球自主武器研发竞争”,而HanwhaSystems的母公司韩华集团因为制造集束弹药已被联合国列入黑名单。2018年4月,全球20多个国家的50多名顶尖学者在公开信中联名抵制韩国科学技术院的这一行为,“韩国科学技术院研发自主武器将会加速人工智能军备竞赛,这样的技术可能导致更大规模战争加速到来,如果自主武器研制成功,战争速度之快、规模之大将是前所未有的,也有可能成为恐怖分子的武器”。

巨大的数据窗口和监控能力,政府部门如何安全的使用这些数据和AI,也成为大家关注的对象。政府部门是AI行业的引导者,也是大客户,更是数据矿山,它在这个领域拥有巨大的话语权和示范作用。

2、国际社会密集推出人工智能的应用研发准则

做好隐私工作,应该从政府部门抓起。如何使用该部门积累的数据,使用流程应该怎样,那些数据不能碰,相关工作人员和供应商的保密条款等等,都应该有专门的法律法规来做后盾。政府的数据安全,不只涉及到公民的隐私问题,还关系到国家的机密问题,如果有纰漏,会造出严重的损失。

以联合国为代表的国际组织,以及汇聚了众多人工智能学术界和产业界人士的阿西洛马会议等,都在积极探索相关原则与解决路径,以期为世界各国的人工智能监管提供参考借鉴。

因此,政府部门要带好头,这次科技部起草的治理法则,应该着重关注政府部门对数据的使用。政府部门注重了,对外面的供应商和AI行业的创业者,起到了极大的示范效应和震慑作用。反之,如果目前政府目标对数据的使用不够规范,外面的AI公司,也会跟着不重视,甚至滥用数据,妄想浑水摸鱼。

联合国高度关注人工智能与自动化系统等应用的安全、伦理和道德问题,呼吁共同应对人工智能发展所带来的全球性挑战。

坚持技术永远服务人的基本原则

联合国主要聚焦自动化武器运用,早在2014年便开始筹备起草《特定常规武器公约》,以限制人工智能杀手武器的研制,到2016年有包括中国在内的123个国家的代表同意缔结该公约。近两年,随着新一轮人工智能热潮的到来,联合国高度重视人工智能、机器人、自动化等在民用领域的广泛应用。2016年8月,联合国教科文组织与世界科学知识与技术伦理委员会联合发布了《机器人伦理初步报告草案》,专门提出了机器人制造和应用的伦理道德问题和责任分担机制,并强调了可追溯性的重要性,即机器人的行为及决策过程应全程处于监管之下。

不久前,美国科技重镇旧金山市的监事会(Board of
Supervisors)以8:1的高比例票额通过了《停止秘密监察条例(Stop Secret
Surveillance Ordinance
)》的提案,该提案明文禁止旧金山的政府机构使用人脸识别技术,哪怕是需要探案抓人的警察叔叔也不行。虽然在我们看来,这个做法有点极端,但对于一个靠科技推动的世界级城市来说,旧金山政府在全世界带了一个好头,那就是面对AI的发展,公民的隐私才是大爷。

2017年6月,联合国国际电信联盟在日内瓦举行了主题为“人工智能造福人类”的全球峰会,围绕人工智能的最新发展,人工智能对道德、安全、隐私以及监管等带来的挑战展开讨论,同时呼吁各国共同探讨如何加快推进人工智能大众化进程,并借以应对贫困、饥饿、健康、教育、平等和环境保护等全球性挑战。

美高梅集团4858 9

2018年4月,联合国“致命性自主武器系统问题政府专家组”在日内瓦召开会议,80余国的官员及专家共同讨论人工智能的武器化问题。

尽管,苛刻的法规,有可能影响甚至阻碍科学技术的发展。但是,如果不规范发展,全面放开,毫无规则,一旦高科技落入到恐怖分子的手里,后果不堪设想。打个比方,当今最可怕的核武器,就是高科技的产物,如果落入了恐怖分子手中,造成的负面影响,是波及到全球的稳定性的。同样,人工智能,已经在武器装备上,露出了更加可怕的苗头,如果不加以善用,造成的破坏将难以估量。

阿西洛马人工智能原则探讨如何确保人工智能为人类利益服务。这一原则源自2017年1月,未来生命研究所在美国加州的阿西洛马市召开的题为“有益的人工智能”的人工智能会议。来自世界各地,覆盖法律、伦理、哲学、经济、机器人、人工智能等众多学科和领域的专家,共同达成了23条人工智能原则,呼吁全世界在发展人工智能的时候严格遵守这些原则,共同保障人类未来的利益和安全。这23条原则分为三大类,包括科研问题、伦理和价值问题以及更长远的问题。包括霍金、埃隆·马斯克、德米斯·哈萨比斯等在内的近4000名各界人士表示对此支持。

AI武器只是往极端里说,生活中的人工智能,社会中的人工智能,牵扯到公民的实际利益,无论是隐私,还是安全问题,都应该值得重视,越是发展初期,就越好引导,越早做好规范,就越不容易出卡子。

电气和电子工程师协会尝试构建人工智能设计的伦理准则。为切实推动与人工智能伦理相关的标准制定,电气和电子工程师协会分别于2016年12月和2017年12月发布两个版本的《人工智能伦理设计准则》,并始终强调自主与智能系统不只是实现功能性目标和解决技术问题,还应该造福人类。电气和电子工程师协会早在2016年4月便发起“自主与智能系统伦理的全球性倡议”,数百名专家参与到人工智能伦理设计准则的研究与讨论中。他们来自学术界、产业界、政府部门以及非政府组织,具有计算机、数学、哲学、伦理学、社会学等多学科背景。

科技的本质是更好的服务人类,人工智能可以开创未来,但也可能毁掉未来。

第二版准则涵盖一般原则、价值嵌入、指导合乎伦理的研究与设计方法、通用人工智能和超级人工智能的安全、个人数据与访问控制、自主武器、经济和人道主义问题、法律、情感计算、政策法规、经典伦理问题、混合现实、人类福祉指标等13个方面内容,同时针对一些伦理事项提出了具体建议。

发展人工智能,必须坚持技术永远服务人的原则,而不是利用技术来窥探人,伤害人,为自己谋求更大的利益。只有把服务放在第一的公司,才可能走得远。不久前马化腾宣布,将会把“科技向善”纳入到愿景之中,这是AI时代最合适的生存策略。

该准则已成为全球范围内系统、全面阐述人工智能伦理问题的重要文件,并在持续发展和完善中,预计最终版将于2019年发布。人工智能伦理准则可以给电气和电子工程师协会正在推动的与人工智能伦理相关的标准制定提供参考,标准的制定则有望将人工智能伦理从抽象原则落实到具体的技术研发和系统设计中。

但不是每个企业都有腾讯的体量和底气,巨大的利益驱动下,各种妖魔鬼怪,也冒了出来,一部可以引导行业的规范准则,亟待推出。与此同时,行业的龙头,使用AI的各部门,也要肩负起示范和带头的责任。

3、一些国家提出人工智能发展与治理的原则和框架

发展人工智能,中国不能再是亦步亦趋的跟学者,而是要担当引领世界的开拓者之一,路径跟当年的互联网已经不一样,先发展后治理似乎已经走不通,一边发展一边治理,才是硬道理。

2018年以来,全球包括中国、美国、英国、日本、欧盟、印度、澳大利亚、加拿大、法国、德国、新加坡以及阿联酋等10余个国家和地区在部署实施人工智能发展战略时,已明确将人工智能治理问题纳入其总体战略,提出确保本国人工智能健康发展的基本原则。其中明确提出人工智能道德伦理准则的包括2018年6月新加坡发布的《AI治理和道德的三个新倡议》;12月欧盟发布的《可信赖的人工智能道德准则草案》,日本内阁发布的《以人类为中心的人工智能社会原则》等。德国计划在2019年提出人工智能伦理原则。

综合来看,这些国家和地区对人工智能治理进行部署推进的共同点主要包括四个方面。

一是坚持以人为中心的人工智能治理理念。欧盟提出要坚持“以人为中心”的发展原则,推动发展符合欧洲伦理与社会价值观和民众愿望的人工智能,确保人工智能技术能够给个人和社会整体带来福利。日本提出人类中心原则,人工智能的使用不得侵害宪法和国际规范保障的基本人权。美国将“提升公众对人工智能技术应用的信任度,保护公民自由、隐私和价值观,切实为国民带来福祉”作为人工智能发展的五大基本原则之一。阿联酋提出人工智能要负责任地发展,避免对人类造成巨大威胁。德国提出应负责任地、以公共利益为导向发展和应用人工智能,并积极为以数据为基础的商业模式和价值创造路径给出欧洲方案,使之符合欧洲的经济、价值和社会结构。

二是设立专门委员会或专家组开展人工智能伦理道德规范研究,以为政府提供决策咨询。欧盟组建了人工智能高级专家小组负责人工智能道德准则的制定工作,小组52名专家来自谷歌、IBM、贝尔实验室、SAP、博世等全球领军企业与研发机构和牛津大学、伯明翰大学等知名学府以及若干社会组织。新加坡成立人工智能和数据道德使用咨询委员会,以协助政府制定人工智能道德标准和治理框架。英国上议院人工智能特别委员会专门研究人工智能对经济、社会和道德伦理等的影响。德国数据伦理委员会负责人工智能技术发展与应用中的伦理和法律问题研究。印度成立人工智能特别委员会,研究人工智能应用可能产生的问题,并计划在具体行使人工智能技术研究和成果转化职能的两大类机构中设立道德委员联合会,以制定有关隐私、安全和道德的行业特定准则等。

三是积极参与人工智能全球治理。阿联酋人工智能部早在2018年2月便召开了一次关于人工智能全球治理的顶级闭门会议,讨论人工智能对人类社会带来的挑战,并试图寻找解决方案,当年11月,阿联酋人工智能部长表示将尽快举办全球人工智能治理论坛,以期在人工智能治理方面与全球达成共识。英国也希望能够与他国共同塑造人工智能研发和使用的伦理框架,并酝酿在2019年举办全球峰会,与各国、行业、学术界和民间团队一道在平等的基础上,商讨制定人工智能研发和应用的全球通用伦理框架。

四是加快调整部分领域监管规则,寻求相关行业健康发展。在自动驾驶领域,美国交通部于2017年9月更新了联邦自动驾驶汽车政策《自动驾驶系统:安全愿景2.0》,确定了12项安全性能自评标准,以为自动驾驶行业提供非监管性指导,企业可以据此提交安全评估报告。美国、德国、英国、新加坡和韩国等都引入了公共道路的自动驾驶汽车法规并颁发自主测试许可证。德国自动驾驶汽车道德委员会是德国联邦政府为制定自动驾驶汽车相关法律法规设置的专门机构。在智能医疗领域,2017年7月,美国食品药品监督管理局建立了一种针对低风险医疗人工智能产品的全新监管方式——“数字医疗软件预认证计划”,随后FDA选择了9家企业开始实施试点项目,试点项目结束后,FDA旗下专门负责医疗设备及科技监管的机构器械和辐射健康中心根据在上述试点项目中确定的客观标准来“预先认证”具备资格的数字医疗开发主体。经过预认证的开发主体可以直接销售自己的低风险医疗人工智能产品,而无须经过FDA的额外审查和一系列入市审查。

4、产业界探索行业自律经验

人工智能产业界、行业协会等也将人工智能治理作为重要议题开展相关研究,成为行业自律的重要经验探索。微软、谷歌、IBM、百度、腾讯、索尼、西班牙电信、德国SAP等公司都已明确提出公司人工智能研发与应用的核心原则,美国信息技术产业委员会则颁布了人工智能的14条政策准则,对人工智能系统的设计、部署与应用等的安全性提出要求,并探讨了企业、政府、研究机构应采取什么样的运作及合作方式,以确保人工智能发挥最大的积极效益。

微软公司总裁布拉德·史密斯表示,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此微软提出6个道德基本准则,即公平、包容、透明、负责、可靠与安全、隐私与保密。在经历了员工联合请愿事件后,谷歌公司CEO桑德·皮查发表署名文章《谷歌AI的原则》,详述了人工智能七大原则,即造福社会、避免偏见、确保安全、对人负责、保护隐私、遵守严格的科学标准、避免有潜在危害或可能被滥用的技术与应用,同时还明确了未来将严格坚守的四大底线等。DeepMind公司于2017年10月成立了“人工智能伦理与社会部门”,旨在理解人工智能的现实影响并帮助技术人员将伦理付诸实践,该部门于2018年启动关于算法偏见、问责制和自主杀人机器等课题项目的研究,希望可以帮助社会预测人工智能的影响,并根据预测结果给予正确的引导,确保人工智能给人类社会带来正面作用。德国商业软件巨头SAP于2018年9月发布了一份道德规范来管理其人工智能研究,并提出七条准则,旨在防止人工智能技术侵犯人们的权利,参与制定这一规范的包括工程师、神学家、政治家和生物伦理学家等。

总体来看,全球主要国家对人工智能治理仍然仅仅停留在原则和框架层面,具体到人工智能技术开发规则,比如如何使之严格遵守“人工智能系统不伤害人类”“人工智能决策应具备可解释性”等规则,各国都尚未提出明确的解决方案。理应涵盖技术开发、行业监管和公共治理等在内的成体系化的法律和规范建设尚显遥远。同时在产业领域,各国、各企业由于文化传统和价值观不同,彼此在人工智能部署原则上也有差异,比如美国、欧盟和中国对自动驾驶实施监管和规范的态度彼此就存在一定的差异。当前,全球人工智能应用的快速普及以及跨国界、跨区域要素的加速流动和产业互动,正为各方提出前所未有的挑战,国际社会理应尽快形成人工智能全球治理通用或一致性框架,确保人工智能为人类所用,并促进全人类平等受益。

《光明日报》( 2019年03月28日14版)[ ]

相关文章

网站地图xml地图