如何深化人工智能立法
对外经济贸易大学兼职教授邵长茂在《数字法治》撰文指出,人工智能正在一点一点地当然也是迅速地颠覆着人类既有的社会结构、组织形式和生活状态。在这个过程中,一定会有大量的、意想不到的风险出现。对于这些风险,有两种应对方式:一种是搭建法治轨道,另一种是划出法治边界。
搭建法治轨道,就是设定目的地,至少有明确的方向;严格的过程控制,以及标准化的流程;对发展规律的全面把握,加上完备的制度体系。比如,正在制定的欧盟《人工智能法案》要求在人工智能发展过程中进行前置规划和连续监督,以严格缜密的规范体系引导技术前行,这就是典型的轨道性立法。但是,对我国而言,人工智能立法宜采用法治边界模式而非法治轨道模式。这是因为,人工智能还处于质变前夜,方向未明,标准的制式监管既不现实更不合时宜。实际上,欧盟法案也建立了监管沙盒机制,允许并不成熟的技术与社会直接接触,通过监管上的极大松动和更加灵活的机制为人工智能发展拓展空间。
划出法治边界,就是在法律上划出人工智能发展不能逾越的红线,并列明具体的负面清单。具体来说,应基于产业发展、权利保护、伦理捍卫三原则,分别从技术、社会和伦理的层面研究与应对风险。就技术层面而言,至少有三类风险:人工智能技术自身导致的不确定风险,人工智能偏离设计应用的风险,人工智能技术被非法使用、滥用的风险。就社会层面而言,至少有三类风险:算法歧视、深度伪造、错误信息等造成的混乱和失序,个体失业和社会失常风险,经济上的过分不平等和权力过分集中风险。就伦理层面而言,至少有三类风险:反人类的风险,异化人类的风险,奴役人类的风险。
为了有效管控风险,可从三个维度建立类型化、立体式的监管体系,提升监管措施的区分度和颗粒度。一是区分应用场景。基于人工智能技术广泛应用于政务、金融、医疗、教育、交通、零售、物流等领域的实际,区分不同的业务场景和行业场景制定监管政策。二是区分清单内外。在清单内的应当适用许可制,并进行全程监管;在清单外的,可适用备案制,并进行重点环节监管。三是区分风险程度。对不同类别以及不同程度的风险进行分类分级,适用不同的监管政策。类型化的处理方式是由人工智能的特性决定的,有效的人工智能技术无疑就是一种“魔法”,能够带来颠覆性变革,让生活更美好,当然也可能更糟糕。人工智能立法应基于不同的风险情形,明确完全禁止、部分禁止、有条件开放、完全开放的范围,明确事前许可、事前备案、事后备案、完全自主的情形,明确全程监管、重点环节监管、无需监管的条件。 (陆琴 辑)
免责声明
凡本网注明“来源:XXX(非高科技网)”的内容,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
如有侵权等问题,请及时联系本网,本网将在第一时间删除:gkjnet@qq.com
本站焦点
- 手机
- |
- 动态
- |
- 资讯
图文推荐