分享好友 资讯首页 频道列表

人工智能伦理之争

2023-03-03 10:018580

当人工智能越来越多地渗透到我们日常生活中的方方面面,人类社会在加速迈向智能化、数字化的同时,科技伦理问题也接踵而来。从AlphaGo击败人类围棋世界冠军,到人脸识别带来隐私安全问题,再到特斯拉自动驾驶事故频发问责难,以及虚拟人大热引起职场焦虑,不少学者都表达了对伦理治理问题的担忧。

近日,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》(以下简称“意见”)指出,重点加强生命科学、医学、人工智能等领域的科技伦理立法研究。这是我国发布的首个国家层面科技伦理治理指导性文件,为新兴技术伦理治理设置了“红绿灯”。

人工智能的真正价值不是取代人

“祝贺‘崔筱盼’获得2021年万科总部最佳新人奖!作为万科首位数字化员工,‘崔筱盼’今年2月1日正式‘入职’......她催办的预付应收逾期单据核销率达到91.44%。”今年年初,万科集团董事会主席郁亮发布的一条微信在朋友圈刷屏。据悉,这位名叫“崔筱盼”的虚拟人已经工作多日,而不少万科员工甚至不知道天天与其邮件往来的同事并不是真人,直到“最佳新人奖”揭晓,一切才真相大白。

伴随人工智能技术的飞速发展,虚拟人快步走向商业化落地。而眼看着一个个身怀绝技的虚拟人走进职场,“打工人”愈发担心自己的“饭碗”会不会被抢走。要知道这些虚拟人可不止能做到“996”,还能“007”,甚至可以全年无休,连工资都不用给。

然而,正如硬币的两面,人工智能的出现也填补了一些高危岗位的空缺,比如作业环境有毒有害或危险性较高的工作,抑或是需要长期远离市区的工作,人工智能对人力资源起到了很好的补充作用。这一方面,帮助很多企业解决了“用工难”问题;另一方面,在日趋严重的老龄化趋势下,有效缓解了劳动力短缺现象。

作为太空探索技术公司(SpaceX)CEO兼CTO、特斯拉公司CEO,马斯克对待人工智能的态度是复杂的。他一边警告说人工智能“脱轨”发展是人类当前面临的三大威胁之一,要避免彻底开发人工智能;另一边又在积极开发与人友好的人工智能,通过脑机接口技术寻求人类和人工智能共生之道,其麾下公司也几乎都与人工智能相关。

“人工智能伦理之争探讨的是人机关系,更重要的是以人工智能为媒介,人与人之间的关系。”中国社科院科学技术和社会研究中心主任段伟文对《中国电子报》记者说:“目前,人工智能伦理治理主要涉及四大难点:一是可控性和安全性;二是可靠性、精确性和稳定性;三是可解释性和透明度;四是问责追责问题。”在他看来,机器智能发展的每一步都是在学习人类智能,离不开人类智能的帮助,实际上是人类智能更智能、更智慧,而不是机器智能。

“人工智能的真正价值不是取代人,而是以人为本、造福于人。人工智能技术和伦理之间的关系,也不是此消彼长或者你强我弱的关系,而是相辅相成的。”旷视人工智能治理研究院院长张慧在接受《中国电子报》记者采访时表示,“其实对于任何技术来说,都不能脱离开法律法规、社会道德、行业规范等约束条件无序发展。在这一点上,人工智能也不例外。在合法合规、合情合理的框架下,人工智能只会发展地更好、更健康。”

全球人工智能伦理治理趋向同频

目前,全球至少已有60多个国家制定和实施了人工智能治理政策,可见世界范围内人工智能领域的规则秩序正处于形成期,伦理治理发展趋于同频。段伟文指出:“国外关于机器人的伦理治理应该是最为成熟的,像英国、新加坡、欧盟等都有相关伦理设计规范。”比如英国出台了历史上首个关于机器人伦理的设计标准——《机器人和机器系统的伦理设计和应用指南》。英国金融稳定委员会(FBS)制定了人工智能和机器学习在金融服务领域的应用规范,强调可靠性问责制、透明度、公平性以及道德标准等。

美国希望能够确保和增强在人工智能领域的优势地位,因此更强调监管的科学性和灵活性,也更重视实际应用领域的科技伦理治理,比如对大规模的生物特征识别技术的使用管理严格。美国证券与交易委员会(SEC)要求企业删除一些人脸数据库,甚至包括相关算法。

欧盟的监管风格则趋向于强硬,先后出台了《欧盟人工智能》《可信AI伦理指南》《算法责任与透明治理框架》等指导性文件,期望通过高标准的立法和监管来重塑全球数字发展模式。

微软、谷歌等国外科技公司在人工智能伦理治理方面也积极探索。比如,微软内设三大机构,包括负责任人工智能办公室(Office of Responsible AI)、人工智能、伦理与工程研究委员会(AI and ethics inengineering and research committee)、负责任AI战略管理团队(Responsible AI Strategy inEngineering),分别负责AI规则制定、案例研究、落地监督等,并研发了一系列技术解决方案。

谷歌是从积极方面和消极方面规定了人工智能设计、使用的原则,并承诺愿意随着时间的推移而及时调整这些原则。它还成立了负责任创新中央团队,推动伦理治理实践落地,比如,为避免加重算法不公平或偏见,暂停开发与信贷有关的人工智能产品;基于技术问题与政策考虑,拒绝通过面部识别审提案;涉及大型语言模型的研究谨慎继续,在进行全面的人工智能原则审查之前,不能正式推出。

在人工智能伦理研究方面,国外较为积极。全球私募股权巨头美国的黑石(Blackstone)集团联合创始人、全球主席兼首席执行官斯蒂芬·施瓦兹曼为牛津大学捐赠了1.88亿美元,用于资助人工智能伦理方面的研究。马斯克也曾向生命未来研究所(Future of Life Institute)捐赠1000万美元,教导机器人“伦理道德”。

张慧指出:“各国的政府、企业和相关社会组织、行业组织之间正在逐步加强对话与合作,联合国也在国际人工智能治理规则制定等方面发挥日趋重要作用。可以说,人工智能治理已经成为全球共识,且已从理念层面进入到建章立制、落地实施的阶段。”

“还有一点值得关注,对人工智能技术的动态治理,其实反过来也会促进人工智能技术本身的发展。”段伟文表示。如人脸识别技术在某些场景中被禁用的情况只是暂时的,治理力度加大会推动相关技术短板更快地被补上。

人工智能伦理治理还是一个新命题

人工智能已经对整个人类社会产生了深刻影响。张慧谈道:“能力越大的技术,越是需要妥善治理好。人工智能既是我们创造美好生活的重要手段,也是需要进行妥善治理的对象。”

我国人工智能技术领域走在世界前列,在人工智能伦理治理实践方面也处于前沿探索者的位置,一些好的做法也在被海外讨论和借鉴。比如,政策层面,《关于加强互联网信息服务算法综合治理的指导意见》《新一代人工智能伦理规范》《关于加强科技伦理治理的意见》等的出台为科技伦理治理提供了顶层设计指导,一些发展较快的领域也出现了细分规范要求。

同时,国内如旷视、京东、科大讯飞等一些科技企业相继成立AI道德委员会、AI治理研究院等专门组织,从企业内部开始、从自身开始大力推动AI治理工作落实。腾讯研究院和腾讯AI Lab联合发布人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,倡导建立面向人工智能的新技术伦理观。阿里安全探索“用AI治理AI”,促进人工智能可持续发展。旷视最早发布《人工智能应用准则》,并连续三年发起“全球十大人工智能治理事件”评选。

然而,截至目前,人工智能伦理治理还是一个新命题,没有太多历史经验可以参考,整个行业也在“边发展边治理”,逐步完善法律法规和凝聚道德伦理的共识。

“人工智能企业面临‘技术陷阱’。”段伟文指出,“人工智能技术在赋能社会的同时也会带来社会价值和伦理方面的冲击,而且短期内,负面影响可能会被放大。一些企业在早期发展中如果不重视伦理问题,就会导致社会对它的不信任。比如Facebook改名meta,转型去做元宇宙就招来了一片质疑,尤其是对隐私安全方面的诟病。这时候就需要进行‘伦理回调’,通过企业一系列行为让人工智能变得‘可信’。”

他认为,科技发展过程中带来的伦理问题要进行主动回应。比如数据伦理问题,要加强数据隐私保护、信息安全保护;再比如算法伦理问题,要督促平台消除偏见和歧视,尽可能维护公正公平;信息传播伦理问题,内容平台运用人工智能技术分发内容时需思考如何保证内容健康、减少虚假信息等。“仅是制定伦理规范是不够的,人工智能企业应该通过这些举措,把握好一个‘度’,谋求Social License(社会许可证),这样才能找到技术与伦理之间的最大公约数。”

寻找“最大公约数”一定是一个多方协同的过程。张慧表示:“人工智能的应用链条很长,有技术提供方、系统集成方、应用软件开发方、个人开发者等企业和从业者,也有不同行业的AI产品和应用的使用者、受益者等。目前国家各方面的法律法规正在逐步完善对不同相关方的权责说明,随着行业的发展,相信未来人工智能的伦理治理路径会越来越清晰。企业在推动AI技术创新和应用的每一个过程和环节也要严格遵守法律法规,这是所有工作的红线和底线。”


举报
收藏
打赏
评论 0