虽然“刷脸”的应用越来越多,但人工智能目前仍处于起步阶段,需加大对数据和隐私的保护力度,关注和防范由算法滥用所导致的决策失误和社会不公。
随着数据的积累、计算机算力的跃升和算法的优化,人工智能正在让生活变得高效。语音识别、图像识别使身份认证更可信赖,短短几秒就能证明“你就是你”;智能诊疗和自动驾驶,更让人们看到了战胜疾病、减少事故的新机会;人工智能还可以轻松战胜围棋高手,写出优美的诗句……其自主性和创造性正在模糊人和机器的分野。
但是,当隐私侵犯、数据泄露、算法偏见等事件层出不穷时,人们又不得不反思:人工智能的持续进步和广泛应用带来的好处是巨大的,为了让它真正有益于社会,同样不能忽视的还有对人工智能的价值引导、伦理调节以及风险规制。“刷脸”进站、“刷脸”支付、“刷脸”签到、“刷脸”执法……人脸识别技术正走进更为广阔的应用场景,与指纹、虹膜等相比,人脸是一个具有弱隐私性的生物特征,因此,这一技术对于公民隐私保护造成的威胁性尤其值得重视。
“虽然‘刷脸的应用越来越多,但人工智能目前仍处于起步阶段,需加大对数据和隐私的保护力度,关注和防范由算法滥用所导致的决策失误和社会不公。”在个人数据权利的保护方面,中国社会科学院哲学研究所研究员段伟文建议,应促使数据交易各方对自己的行为负责,让每个人知道自己的数据如何被处理,特别是用于其他用途的情形,减少数据滥用,让人们清楚知道自己的“脸”还是否安全。
段伟文认为,要进一步加强人工智能的伦理设计,对算法的理论预设、内在机制与实践语境等进行全流程追问与核查,从算法决策的结果和影响中的不公正入手,反向核查其机制与过程有无故意或不自觉的曲解与误导,揭示存在的问题,并促使其修正和改进。
在腾讯研究院法律研究中心高级研究员曹建峰看来,应对人工智能带来的伦理问题,一是要构建算法治理的內外部约束机制,将人类社会的法律、道德等规范和价值嵌入人工智能系统;二是在人工智能研发中贯彻伦理原则,促使研发人员遵守基本的伦理准则;三是对算法进行必要的监管,提升算法自身的代码透明性和算法决策的透明性;四是针对算法决策和歧视以及造成的人身财产损害,提供法律救济。
“我们生活在一个人机共生的时代,人类与机器之间势必将发生各种冲突和矛盾,仅靠法律和制度很难完全解决。”李伦表示,人们还应努力提升自身的科学素养,主动维护自身的权利,社会也应尽快建立讨论人工智能伦理问题的公共平台,让各方充分表达意见,促进共识的形成。