今亮点!生成式AI发展中的风险问题与治理建议

来源:中移智库 | 时间:2023-06-08 07:53:06

(CWW)当前我国生成式AI(AIGC)蓬勃发展,对于促进社会进步价值巨大,预计AIGC行业未来发展前景广阔。面对大语言模型处于发展早期,存在数据主权、数据跨境流动以及应用不可控、虚假内容生成等诸多问题风险,可能带来国家安全、社会稳定、伦理道德等威胁,对政府下一步治理与监管提出相关建议。一是从国家战略科技竞争高度支持其发展。二是政府主导构建数据、核心技术与基础设施等安全生态。三是建立顶层治理框架,探索多方治理模式。四是加强治理开放性与国际合作,加快AI立法。

ChatGPT热潮席卷我国,对社会生产生活价值深远


(相关资料图)

ChatGPT兴起标志着人工智能迈向现实生活的重要一步,带动了国内AIGC行业快速发展。

ChatGPT是由美国公司OpenAI开发的一种AI语言模型,一经2022年11月对公众开放,即形成惊人的用户访问增长态势,并引发产业和全球资本市场关注。面对ChatGPT的爆火,2023年国内百“模”大战正式掀起,我国互联网大厂、AI上市公司、科研院所与一级市场创业公司纷纷推出类似ChatGPT的生成式AI产品,截止目前国内已有30多家大模型亮相。虽然很多产品尚处于内测或演示阶段,但多家科技巨头已宣布未来主营业务将与大语言模型深度结合,并开始积极展望大模型进入到业务应用层带来的变革。

表1:国内主要生成式AI产品与大模型发布进

生成式AI对于促进社会进步价值巨大,未来具有广阔的应用发展空间。

AI生成内容行业(AIGC)是人工智能、大数据、云计算、芯片等多个技术发展到一定阶段,发挥协同效应的产物。随着ChatGPT类工具在社会发展中的嵌入,预计将引发一次深层次技术革命。它将对重复性、程序化岗位实现替代,带来行业结构、就业结构的变革;作为一种技术赋能,可以嵌入其他软件程序或工具,对于更多应用场景、商业逻辑、产业范式带来颠覆性革新;还可能衍生更多先进的商业模式,从而带动生产关系的变革。预计随着深度学习模型不断完善、开源模式的推动以及大模型的商业化,AIGC 行业未来发展前景广阔,到2030年全球AIGC行业市场规模将达1108亿美元,年复合增长率达34.1%;我国AIGC市场规模年复合增长率将达149.4%。

图1 2021-2030年全球AIGC行业市场规模(单位:亿美元)

图2 2022-2028年中国AIGC行业市场规模(单位:亿元)

生成式AI发展中存在多方问题与风险,引发全球多国审查、监管

ChatGPT等大语言模型存在一定不足和发展问题,可能带来的国家安全、社会活动、伦理道德等威胁。ChatGPT等大语言模型仍处于发展早期,美国OpenAI还是国内科技巨头均受困于模型自身发展不够完善、训练数据存在偏差原因等瓶颈与局限,有可能对国家主权与安全、社会活动与稳定带来严峻挑战。一是数据信息应用的不可控性,可能造成用户隐私、商业秘密、国家机密信息的泄露,并存在侵犯知识产权和著作权的风险,从而引发一系列社会伦理问题;二是AI技术可产生高度逼真的虚假内容,可能引发带来作弊、传播假消息或误导公众等,扭曲社会价值观、妨碍社会公平等;甚至成为国内外敌对势力、极端分子传播意识形态的途径,冲击国家意识形态安全。三是模型训练驱动数据和信息跨境流动,存在数据主权和相关安全问题,可能挑战与重塑国家地缘政治力量,甚至威胁国家主权。四是AI对劳动力的替代引发劳动关系重构,劳动就业形势、社会保障体系等都将受到冲击,威胁平稳的社会运行逻辑。

全球各国开始对其安全隐患进行关注,并加大审查与监管。生成式AI的全球应用越来越广,开始引发各国政府对其伴生问题和风险的关注。由于其与政治社会领域关联紧密,各国均在加大了相关审查,甚至启动监管“围剿”。意大利最早对ChatGPT采取监管举措,以涉嫌违反隐私法规为由,禁止了ChatGPT在本国的使用,直到OpenAI遵守其用户隐私问题。近日,西班牙、法国、德国、加拿大、美国等国家相关机构先后对ChatGPT发起指控和调查。欧洲数据保护委员会还宣布成立专门工作组,以促进欧洲地区调查的合作与沟通。当前已有调查主要集中在数据收集、内容安全、网络安全、道德合法性等方面,并且各国之间已形成示范与效仿效应。我国也在第一时间发布《互联网信息服务深度合成管理规定》,对类似ChatGPT等利用人工智能技术生成内容的应用服务提供者、技术支持者提出了一系列要求;国家网信办于4月11日下发了《生成式人工智能服务管理办法(征求意见稿)》的通知,以向社会公开征求意见的方式,促进生成式人工智能技术健康发展和规范应用。

坚持发展与安全并重,加强产业扶持、规制与监管

人工智能将催生全球新一轮信息技术革命,ChatGPT作为新一代人工智能创新型产品,技术本身是中性的。一方面,应正视其可能带来的众多风险与挑战,加强对关键战略技术的掌控同时,对于数据安全通过法律法规加以规制,构建立足安全的产业链监管机制。另一方面,AI作为社会进步的得力助手和辅助工具,应通过监管机制体制建设上完善产业政策,加以引导、鼓励其发展,国家、社会和产业应将其塑造成一股向善力量。

建议:一是AI大模型成为大国博弈新焦点,应从国家战略科技竞争高度支持推进相关研发。生成式AI的背后是人工智能大模型的训练结果。AI作为实现创新性国家的重要基石,我国企业能否实现大模型等关键技术的自主研发,能否在全球抢先推出自己的大模型占领市场,决定了未来人工智能大模型国际标准制定话语权的争夺,也意味着中美国家科技竞争的新领域角逐走势。我国应吸取操作系统、芯片产业发展经验教训,避免关键领域新的“卡脖子”风险;尤其在当前产业发展初期,把握住国内企业AI发展热潮,从国家政府层面应给予大模型研发政策上更多支持,协调相关企业和机构组建优势互补、协同发展的创新生态圈,助力产业在关键核心技术研究攻关和全球竞争中的领先争夺。

二是数据、核心技术与基础设施的安全是生成式AI健康发展的基础,政府应主导构建安全生态。一方面,数据是技术研发的基础,即是信息源也是内容生成结果。我国应在已有的数据安全相关政策基础上,加快构建新一代AI要求的数据监管规则,对生成式AI从训练到投入使用的全生命周期的个人信息处理和数据保护作出规范,实施在个人数据、用户隐私、商业数据的抓取、加工及生成的全过程监管。另一方面,核心技术和基础设施的安全也是我国新一代人工智能安全生态构建的关键要素。应推动国家科研基金对算法安全、数据安全、模型安全等核心技术研发支持的覆盖;强化AI相关的数据中心、超算中心、智能计算机中心等基础设施以及涉及到的芯片、集成电路等基础产业的保护力度,从国家层面构建技术安全标准与安全保障规则。

三是探索构建AI多方共举的治理生态成趋势,建立顶层治理框架予以支撑。生成式AI是人工智能技术演进的最新形式,需要新型的风险规制治理方式。基于生成式AI跨领域特性和系统复杂性,避免治理利益相关方的分歧、认识鸿沟、合作障碍等问题,采用多方参与的治理思路已被业界广泛认同、采纳。我国应积极探索政府、AI企业、学术机构和社会公众多方参与的共治模式。政府扮演“掌舵人”角色,推动顶层治理的框架与监管细则,鼓励相关方参与治理,协调AI企业内部规制与社会系统对企业的监督等。AI企业作为承担内控风险、外受监督的义务与责任主体,应在内部积极建立安全监控系统,设立风险防控部门等,主动对可能带来的科技伦理与风险问题进行研究和规制,同时接受外部监督、积极纠错和止损补偿。第三方机构和社会公众作为自治型、自发型组织,应行使对AI产品风险问题的监督权利,参与AI产品质量标准的制定、以众包的形式探索技术风险治理等。

四是加强治理的开放性与国际合作,加快适合我国国情的AI立法进度。我国在人工智能领域立法尚缺位,涉及条例分散在《个人信息保护法》、《数据安全法》等多个法律中,还没有制定完整的AI立法体系;且AI技术发展与产业应用是全球高度协作的成果,其未来发展也依赖于全球各国的优势互补、合作共享。因此,为了生成式AI的规范治理有法可依,我国应加快AI相关立法专项研究制定,同时秉承全球视野,采取开放态度,如主动搭建国际交流平台,总结借鉴已经推出的欧洲《人工智能法案》和美国《人工智能权利法案蓝图》的特点和实施利弊,加强监管的国际合作。同时,结合中国国情与现实问题,针对隐私保护、知识产权、数据治理等风险,对监管规则、技术规范、监管机构等AI监管体系进行明确,从而达成监管共识。通过构建适合我国实际的人工智能法律体系,为我国新一代AI治理提供底层法律支撑和依据。

标签:

业界
移动互联网

©2003-2020 CMS科技网 版权所有       联系邮箱:51 46 76 11 3 @qq.com   浙ICP备2022016517号-14