法国数据保护主管机构公布人工智能行动计划

  2023年5月16日,法国数据保护监管机构国家信息与自由委员会(CNIL)公布了一项旨在解决与人工智能——特别是像聊天机器人ChatGPT一样的生成性应用程序——相关的隐私问题的行动计划。

  在目前世界上最著名的聊天机器人ChatGPT发布后的前两个月里,其用户群已经扩大到1亿人。然而,在其受欢迎程度越来越高的同时,人们对它如何收集和处理个人数据的担忧也在增加。

  CNIL的公告中写道:“面对最近关于人工智能——特别是所谓的生成性人工智能,如ChatGPT——的新闻,CNIL发布了一项行动计划,以用于部署尊重个人隐私的人工智能系统。”

  3月底,意大利的数据保护监管机构Garante因ChatGPT的服务提供商OpenAI违反数据保护规定,对其进行了制裁。在采取了一些纠正措施后,OpenAI的这项服务于4月在意大利被恢复。

  不过,Garante的决定为欧盟各个国家采用碎片化的方法打开了大门。欧洲数据保护委员会(European Data Protection Board)将所有欧盟数据监管机构汇聚在一起成立了一个工作组,以确保采取一致的执法措施。

  CNIL的作用

  在欧洲层面,法国的数据保护主管机构已经被认定为欧盟最具影响力的机构之一,这意味着CNIL的计划可能会对欧洲监管机构处理ChatGPT和类似技术的方式造成影响。

  法国国内的知情人士在有条件匿名的情况下告知新闻媒体《欧洲动态(EURACTIV)》,CNIL正在将自己定位为主导《人工智能法案》成员国执法工作的机构。《人工智能法案》是一项具有重大意义的欧盟立法,旨在根据人工智能造成伤害的能力对其进行监管。

  这一目标也体现在其行动计划中,该计划指出:“这项工作也将使我们有可能为欧洲人工智能法规草案的生效做准备。”

  四步法

  该行动计划包括四个步骤:了解技术,指导技术发展,创建人工智能生态系统和控制人工智能系统。

  第一个步骤主要是回答与数据保护相关的问题,例如关于训练数据集的透明度、保护公开可用的数据免受抓取、防止偏见以及用户提出的意见等。

  由于这些方面在欧盟和法国是优先事项,CNIL投入了其内部资源来回答这些问题,并且已经公布了一份档案来分享其对回答数据保护问题的愿景。

  第二个步骤“指导人工智能的发展”是希望通过发布指导性文件和分享最佳实践和规则来引导生成性人工智能公司在尊重个人数据的情况下进行技术开发。

  第三个步骤所提到的“生态系统”分为三个层级。该系统旨在将监管机构现有的“监管沙盒”扩展到基于人工智能的创新项目。

  CNIL还发起了一项竞赛,以帮助公司遵守欧洲的数据保护规则。此外,在法国政府尝试使用2024年巴黎奥运会和残奥会相关法律规定的这些工具的背景下,法国主管机构启动了一个针对“增强型视频监控”服务提供商的项目。

  CNIL行动计划的最后一个步骤涉及其核心竞争力——数字系统的审查和控制。该机构将重点关注使用增强型视频监控、使用人工智能打击欺诈以及针对生成性人工智能的投诉的调查的合规性。

  关于最后一点,CNIL指出,它已经收到了几起针对OpenAI的投诉,它将会与欧洲工作组进行协调工作。

分享到: