据美国《科学》杂志网站19 日报道,欧盟委员会发布新计划称,将制定法律严格监管高风险人工智能(AI)技术,更新欧盟2018 年AI 发展战略,未来在AI 研发领域投资数十亿美元等,以进一步促进欧盟AI 产业发展。
该委员会将起草新法律,管理AI 技术的高风险应用,例如在医疗设备、自动驾驶汽车内的应用等。尽管这些法律将比欧盟以往发布的任何法律都更广泛且更严格,但欧洲委员会主席乌尔苏拉·冯·德·莱恩表示,这些法律的目的是促进“信任,而非恐惧”。
欧盟委员会指出,确定某些应用是否是“高风险”应用有一套准则。例如,是否会导致人受伤、或者会导致人对机器人决定(如AI 用于招聘或警务活动)没有任何发言权。欧盟委员会希望,高风险应用需要人工监督。
法律还将确定谁为AI 系统的行为负责:使用AI 系统的公司还是设计AI 系统的公司。高风险应用程序必须被证明遵守法规,才能在欧盟内广泛使用。
此外,这些法律还将管理用于训练AI 系统的大型数据集,以确保它们合法采购、来源合法。欧盟委员会反垄断专员玛格丽特·维斯塔格说:“AI 系统可靠的基础是技术强大且准确。”
欧盟委员会表示,将就“面部识别AI 系统在欧洲范围内开展一场广泛的讨论”。尽管德国等欧盟国家已宣布部署这些系统的计划,但官员们表示,这些系统经常违反欧盟隐私法,包括有关警察工作的特别规定。
新AI 计划不仅涉及法规,欧盟委员会还将提出一项“行动计划”,将人工智能整合到交通和医疗等公共服务中,并将更新欧盟2018 年人工智能发展战略,该战略拟投入15 亿欧元用于AI 研究。此外,欧盟委员会呼吁开展更多研发,包括创立AI“卓越和测试中心”,投资数十亿美元建立新型AI 产业合作伙伴关系等。