艾达·彭斯·德尔·卡斯蒂洛
欧盟委员会的人工智能战略,侧重于建立“信任”和“卓越”的需要。欧盟委员会认为,最近提出的人工智能法规,将通过解决新技术的风险来建立对其的信任,而卓越性将来自欧盟成员国的投资和创新。考虑到这两个因素,欧洲的人工智能应用应该会加速。
不幸的是,保护欧盟公民的基本权利似乎沦为了次要考虑;至于保护工人权利,则似乎根本没被考虑。
人工智能是欧洲数字议程的旗舰部分。欧盟委员会表示,其对人工智能的定义,以及作为法规草案基础的基于风险的方法,都是根据公开征询的结果得出的。但是,工业和科技公司在2020年《人工智能白皮书》的受访者中占了压倒性多数。这些企业将监管过程引向有利于其利益的方向。社会,尤其是工会的声音被淹没了。
法规有几个缺点,其中包括:欧盟委员会基于风险的方法过于狭隘,缺乏补救机制,未能解决涉及人工智能系统的损害责任问题。为解决这一缺陷,一项侧重于就业环境中的人工智能的临时指令,用于保护工人(包括平台经济中的工人),是一个可能的前进方向。
这一指令应该解决几个关键问题。首先,它应该设定雇主在预防人工智能风险方面的责任,就像他们有义务评估职业健康和安全危害。人工智能风险,包括可能因雇佣关系的性质发生的管理权力滥用,以及有关工人隐私、基本权利、数据保护和整体健康的其他风险。
保护工人隐私和保护数据同样重要。欧盟的通用数据保护条例(GDPR)是一个强大的工具。从理论上讲,它适用于就业环境中的工人数据。但在实践中,工人几乎不可能对雇主行使GDPR权利。欧盟应该引入额外的规定,确保他们能够做到。
使人工智能算法的目的可解释,也很重要。在这里,企业的职场透明度规定不会保护工人;相反,雇主作为算法的用户,需要考虑部署人工智能可能造成的职场伤害。使用有偏差的值或变量,可能会导致对工人进行画像,针对特定个人,并根据估算的“风险水平”对他们进行分类。
另一项重点工作是,确保工人可以行使他们的“解释权”。这里的含义是,雇主有义务在实施算法之前咨询员工,而不是事后通知。此外,所提供的信息必须使员工能够理解自动化决策的后果。
新的临时指令,还应保证工作中的所有人机交互都遵守“以人为主”的原则。这包括让人类拥有最终决定权,并解释當人类和机器一起行动时,哪些数据源负责最终决策。工会应被视为“人力”成分的一部分,并与管理者、IT支持团队和外部顾问一起发挥积极作用。
此外,欧盟立法者必须禁止算法监视工人。目前,监控工人受国家法律监管,而这些法律通常早于GDPR,没有覆盖先进的、侵入性的人员分析行为。人工智能赋能的生物识别、机器学习、语义分析、情感分析和情绪感应技术等工具,可以测量人的生物学、行为、注意力和情绪。这类算法监控不是被动扫描工人,而是“刮擦”他们的个人生活,主动构建形象,然后做出决定。
最后,工人需要能够通过了解人工智能来行使代理权。教他们技术数字技能以便他们能够操作特定系统,是不够的。理解人工智能的作用及其对工作环境的影响,需要员工知情、接受教育并批判性地参与到技术中去。
监管人工智能系统,尤其是被视为高风险的系统,不应基于其供应商的自我评估。欧洲可以成为该领域的全球领导者,培养公众对这一新兴技术的真正信任和接受,但前提是能有效地保护公民和工人并让他们参与进来。