“全球治理话语竞赛下人工智能立法的中国方案”研讨会在京举行

最新信息

“全球治理话语竞赛下人工智能立法的中国方案”研讨会在京举行
2023-08-16 17:43:00
21世纪经济报道记者郑雪北京报道
  人工智能快速发展,人工智能治理规则也正一日千里。美国、欧盟等纷纷加快步伐推进人工智能相关的监管动作。新一轮人工智能监管浪潮之下,中国又该如何给出自己的监管方案?
  8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行,研讨会邀请监管部门、专家学者与行业代表,共同就我国人工智能发展相关问题建言献策。人工智能如何立法、如何处理与其他法律的关系,立法过程如何平衡安全和发展,人工智能法落地如何侧重,成为与会专家关注的焦点。
  值得关注的是,此次研讨会上,针对中国人工智能立法,也给出了中国方案示范。会上发布了《人工智能法示范法1.0(专家建议稿)》(以下简称《示范法》)。《示范法》按“研发者-提供者-使用者”三类主体进行制度设计,跳出具体应用场景;同时创设性提出负面清单管理机制,并结合产业发展、风险水平对人工智能行为主体的责任及相应义务进行了明确。
  AI立法思路:安全和发展并重以监管促发展
  以ChatGPT为代表的人工智能飞速发展,引起各方高度关注和重视。如何通过立法规制?如何促进技术安全和产业平衡?都在现实生活中引起众多争论。
  中国社会科学院法学研究所副所长、研究员周汉华表示,在中国讨论人工智能的立法方案尤其具有现实意义。人工智能是不是应该立法?人工智能立法对于全球竞争有利还是有弊?立法之后何种制度、规则更有利于国家提高竞争力?以及怎么立法,才能够更好地促进发展、实现安全和发展的平衡等问题?“围绕《生成式人工智能服务管理暂行办法》的制定,过程中已经有了一系列讨论。可以预见,接下来很长时间内这些问题依然值得思考和关注。”
  全国人大常委会法制工作委员会经济法室副处长林一英指出,现在国内外人工智能立法既有硬法,也有软法,监管方式不断创新,发挥着不同的优势。到底是采用综合性立法还是分散性立法,促进型立法还是监管型立法,都需要认真研究。能看到的是,目前已经达成了共识,不发展就是最大的不安全。林一英进一步说道,立法时需要考量人工智能作为维护国家安全、提高国际竞争力的重要战略,人工智能立法应该采取安全和发展并重、以监管促发展的思路来推进立法。同时,人工智能法和其他法律的关系也将成为下一步研究的重点方向。
  南财合规科技研究院院长虞伟提示,新一轮人工智能革命之下,带来了更加广阔的想象空间,但有很多问题值得探讨,如何建立高质量的语料数据库?如何加强全流程数据合规管理?“大力出奇迹”的人工智能如何精准纠偏,兼顾公平与效率?
  机遇和风险并存,环球同此凉热。需要关注的是,当前全球正在进行智力话语竞赛,掀起新一轮AI监管潮。欧洲谋求AI监管领域主导权,早早将立法提上日程;AI头部公司聚集的美国也在紧锣密鼓地推进监管工作。亚太地区,日本决定设立人工智能战略会议,东盟正在筹划人工智能治理和伦理指南。虞伟认为,人工智能发展或许会重塑未来的经济社会样态,在面临它时必须对行业发展情况以及伴生风险进行广泛地调研,深入地探讨,这也是今天举办这次研讨会的价值所在。
  AI模型落地:期待更具区分度和颗粒度的监管
  围绕人工智能立法,从模型落地来看,更多细节问题亟待回应:如何保障人工智能安全?人工智能相关标准应该如何划定?监管措施如何更具区分度?
  公安部第三研究所副所长金波回顾了以大语言模型为代表的新一代人工智能的发展历史、技术特点以及对治理造成的影响。他认为,新一代人工智能事关国家竞争力,监管应当为人工智能发展留足空间。如模型训练过程中训练数据的知识产权问题,大语言模型训练是读万卷书读出来的,如果强调每本书的知识产权,成本会大大增加,因此建议在知识产权方面设置一定的责任豁免。在他看来,模型训练需要大规模的算力、高质量数据与高性能的有效算法,当前最重要的是发挥我国制度优势研发出自主的基础大模型。
  中国电子技术标准化研究院人工智能研究室主任徐洋指出,世界各国重视人工智能标准化,这既是全球科技战略高地,也是国家创新战略重点。人工智能标准化是人工智能立法工作的重要补充和支撑,也为立法工作提供实践基础。
  据介绍,我国人工智能标准化实践从2017年开始。前期人工智能标准化过程中,标准化方向主要围绕AI生态开展基础通用、关键通用技术、产品和服务,以及风险管理和可信赖等方向开展国家标准研制;国际标准化工作则主要围绕基础通用和应用行为约束开展。当前,各国围绕人工智能都已出台相关政策措施,如何在保障安全的情况下,推动产业创新发展是重中之重。在下一步立法工作中,建议结合我国人工智能技术和产业发展现状,在数据隐私与安全、伦理原则与社会责任、透明度与可解释性、公平与竞争与反垄断等方面加强监管,在为人工智能产业提供稳定发展环境,促进技术创新和产业发展的同时,保障安全、维护公平、保护用户权益。
  人工智能带来发展新机遇。“人工智能全球竞争不只是技术优势的竞争,同时也是监管技术颗粒度的竞争”,新浪集团法务部总经理谷海燕说道。需要注意的是,在产业水平方面,中国人工智能发展处于初期阶段,与发达国家相比还存在相当差距。不仅仅是算法和算力的问题,还缺少很多关键领域的原创成果,基础理论、核心算法、关键设备、基础原材料等方面与国外仍有很大距离。“企业希望能够看到更加有区分度和颗粒度的监管措施。
  谷海燕表示,我国人工智能立法需要考虑四个方面的问题,一是要发挥我国特有的数据资源优势,二是要集中力量推动大模型等技术的突破和创新,三是要形成基于场景的行业自律,四是要积极推进人工智能伦理立法,例如建立人工智能创新示范区等。
  中国方案示范:示范法1.0发布关注责任划分及产业链治理等难题
  人工智能飞速发展,全球治理话语竞赛也正在进行中。如何通过立法贡献具有中国特色的AI治理路径,既拥抱技术发展,又能有效规制风险,备受公众期待。
  2023年上半年以来,在持续、长期追踪研究人工智能发展、监管的基础上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉组织集学界、智库等专业人士的专家团队,经多次调研、讨论、修改,起草形成《示范法》。
  “《示范法》立足时代前沿,把握人工智能发展规律和全球治理趋势,在为国家关立法提供参考的同时,也期待通过1.0、2.0、及至N.0的迭代讨论,不断适应人工智能发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。”周辉在接受21世纪经济报道记者采访时说道。
  据了解,《示范法》坚持发展方向,采取有效措施鼓励生成式人工智能创新发展,在制度设计上留出更多容错空间。相较于试错成本较大的惩罚性、管制类的立法思路,示范法更偏向于容错意味高的促进发展类型。如示范法提出负面清单管理机制,负面清单内人工智能研发、提供活动采取许可机制,实行事前监管,控制风险;负面清单外的研发、提供活动则采取备案机制,减轻企业合规负担。同时对于研发者也设计了相应的豁免条款。
  主体责任分配方面,考虑到人工智能行业生态正在快速发展形成中,规模庞大,主体呈现多样化,产业链迅速扩大,主体的界分已不再是传统互联网平台治理时期的以平台为主特点,《示范法》按“研发者-提供者-使用者”三类主体进行制度设计,跳出具体应用场景,直接穿透底层技术逻辑
  《示范法》明晰不同行为主体的责任,针对人工智能特点及其风险提出规制措施,划明安全底线。“《示范法》结合了产业发展、风险水平,将行为主体分为负面清单内的人工智能研发者、负面清单外的人工智能研发者、负面清单内的人工智能提供者、负面清单外的人工智能提供者、基础模型研发者,分别赋予对应的义务类型,并且规定了配合其他行为主体履行义务的义务。在义务分配上体现了行业协作特性,坚守安全底线。”课题组成员南财合规科技研究院首席研究员王俊说道。
  值得关注的是,《示范法》为避免产生多头监管等问题,创设性提出设置国家人工智能主管机关统筹负责全国范围内人工智能发展与管理工作。课题组成员同济大学法学院助理教授朱悦表示,人工智能主管机关的主要职责包括统筹制定人工智能监管规则、指引,组织人工智能技术监测、评估、审计工作,建立风险监测预警机制等。通过明确主管机关,避免九龙治水多头监管、提高监管效能、降低合规成本。
  据了解,《示范法》分为六章,包括人工智能基本原则,促进发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任,是一部综合性、统辖性的立法示范。坚持中国式治理思路,既发展,又坚持安全底线。
(文章来源:21世纪经济报道)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

“全球治理话语竞赛下人工智能立法的中国方案”研讨会在京举行

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml