本期话题:今年全国两会上《政府工作报告》提出,完善人工智能治理,保障数据安全、算法公平和伦理底线,引导AI向善、可控、可用。AI技术迭代发展,带来了网络安全、法律伦理和就业平衡等领域的新课题。相比互联网安全,AI大模型和智能体为网络安全带来了哪些新挑战?AI对生产力的赋能和对劳动力的替代如何平衡?换脸、幻觉、侵权,技术迭代下的法律体系如何考量“规范与创新”?
今年全国两会上,《政府工作报告》提出,完善人工智能治理,保障数据安全、算法公平和伦理底线,引导AI向善、可控、可用。《政府工作报告》同时首次提出,完善适应人工智能技术发展促进就业创业的措施。
工信部部长李乐成在全国两会“部长通道”上透露,目前我国AI核心产业规模超1.2万亿元,相关企业超6200家,制造业AI普及率超30%。工信部明确要求,AI必须“为人所用、为人服务、为人所控”。
另一方面,AI技术在突破“临界点”后,面临安全、就业、法律等问题的艰巨挑战。产业链数据面临更为“动态、链式”的安全风险;生活中,AI换脸、AI语音诈骗高发,侵犯肖像权、名誉权、财产权;同时,AI对就业“替代+创造”的双向影响中,替代快、创造慢,转岗培训面临严峻挑战。我们在这个系列中,每集将为大家请到两位来自“政产学研媒”届的行业人士,就这些话题进行解读。
第一位嘉宾是全国政协委员、全国工商联副主席、奇安信集团董事长齐向东。此前,他指出AI安全产业的核心危机有两点:第一是数据安全,企业将核心数据投喂给AI,“一破则全失”;第二是AI让黑客攻击变得“易攻难守”,黑客通过AI作案成本极低、效率陡增,产业链数据“一环失手、全线崩溃”。
AI武器化、攻防动态化:新形势下,安全网络的改造与升级
思远:怎样从通盘去审视AI安全问题?您的提案中提到“构建安全可控的AI安全体系”,整体上怎么看?
齐向东:2026年,各行各业和我们每个人都卷进了“AI+”变革浪潮,网络安全风险激增。
第一,国家层面,“AI武器化”加剧了网络战的风险和烈度;第二,产业层面,AI供应链、产业链高度复杂,一个组件失守,可能引发下游企业集体沦陷;第三,民生层面,“AI幻觉”与智能体,如“小龙虾”,因为开放过度权限,导致智能体权力滥用。
这次全国两会,我提出《关于顺应AI+场景变化 筑牢国家数字安全屏障的建议》,希望有关部门把事业单位安全体系升级改造。我提出了四条举措:一是全链条防护,升级AI应用安全监管能力,落地适配大模型、智能体、具身智能的专属安全防护方案;二是精准防御,升级数字资产的安全守护能力,用资配漏补智慧防护模式,收敛数字资产的攻击面;三是动态化管控,升级身份授权安全的管理能力,将智能体纳入身份管理体系;四是智能化的对抗,升级网络威胁的立体防御能力,用AI来对抗AI。总之,任务艰巨,保护客户原有的网络安全投资是第一位的,所以我提出在原有基础上,针对现有的新场景进行改造升级。
思远:“十四五”期间,针对网络安全和初代大模型的智能布防有国家层面,还有产业层面,如专业的安全公司,以及一些大公司里非常重要的专业安全部门,这些能不能连成“一张网”?此外,基础大模型每一次的迭代都是完全不一样的东西,以前的“网”能拿来改造吗?以前的基础能延续吗?这个工程是不是很大?
齐向东:第一,能连成网;第二,能改造。“十四五”期间建立的网络安全体系基本都是静态防护体系,按照政府主管部门和法律的要求与一定标准进行建设,就像单位里修围墙、设立收发室、设保安等。
人工智能技术出现之后,AI能够帮助网络攻击者提高攻击能力,攻击烈度提升了一个数量级。我们提出新思路:第一,攻防驱动AI,用“攻防对抗”思维升级原有安全体系。体系是好的,只不过在关键节点、薄弱环节补充性地进行防御升级改造,这个思路是完全可行的;第二,多级安全系统连成体系,以政府部门垂直管理序列,以事业单位辐射行业领域,以城市为单位向下,市区重点单位、大型企业集团到二三级公司,建成三级联动的安全防御体系,连在一起进行情报共享、对抗资源共享,用更庞大体系的力量抵御网络攻击。
思远:通俗地作一个比喻——第一,安全从静态到动态,原来是设篱笆、治安岗亭,现在是在关键的节点上,尤其是产业链等用到大模型的地方,部署相应的安全大模型,“以模治模”,就像在静态的围墙、治安岗哨间派出巡逻队,发现不法分子立刻出击,进行动态博弈;第二,原来是单点作战,AI时代下是小区有保安、治安岗亭,再上一级有派出所,派出所上面有公安局,一层层及时通气、联系,甚至根据安全形势的动态调度彼此的力量。
齐向东:这个比喻非常对。
警惕:超级权限,带来的“AI超人化”风险
思远:您曾提出“警惕AI在超级权限和超级能力下的超人化”,可能会给人类带来整体的失控风险。对此,我很有感触——互联网时代下,网络安全是不失控的,为什么?因为主要还是人在用,是单向操控,真正的安全问题也来自于人;但AI时代变成了碳基生物和硅基物体间的对话,有很多未知的因素。AI“超人化”的安全失控在短期内会不会走向现实,成为艰巨挑战?
齐向东:非常对。举一个例子,未来的你买完东西,把智能体唤起、付钱,智能体把后续操作都做了,这背后就是拥有“超级权限”。如果被网络攻击,可能造成财务损失、生命损失,甚至你的朋友圈与数字资产被一夜清零。
维护网络安全要做两件事,第一是解决权限安全问题,让合适的人、用合适的设备、在合适的时间、访问合适的网络、触碰合适的数据;第二是解决软件和硬件的漏洞问题,AI出现后,整个授权体系出现崩塌,在企业场景里AI可能帮成百上千个人干活,如果被攻击,整个企业的业务就可能崩塌。做安全防范与纵深防御,重点在这个领域。
当新技术淘汰旧职业:与其躲“刀”,不如拿“刀”
思远:再来聊聊AI的就业替代问题。去年以来,AI在翻译、财会、设计等领域都在普及。政府与企业面对这把“双刃剑”,怎么做替代和协作的节奏把控?
齐向东:全面拥抱AI,全员提升对AI的使用能力和水平,对企业、对社会不是坏事。前面三次技术革命,都是技术大量替代人工,最终都促进了社会就业。从个人层面看,一些原来很紧俏的岗位、行业和专业,在人工智能出现后会被淘汰,如“完全靠记忆规则成为专家、帮别人做咨询、服务”的岗位。这些行业的企业和个人,现在要及早去拥抱AI,不要排斥它。
思远:在企业里,您是怎么要求员工的?
齐向东:企业和企业间要竞争,企业能够可持续发展,拼的是效率和方向,还是那句话:“善用AI的人如虎添翼,不会用AI的人面临着转型和淘汰”。
思远:第一,大势不可逆;第二,在成本和效率面前,对旧有人才和劳动群体筛选和淘汰也不可避免。另一方面,刀可以伤人,但有心人学会用这把刀,也可以武装自己、强大自己。
由AI幻觉、侵权的法治思路:问题导向、适当容错、促进创新
AI技术的迭代发展,带来了算法黑箱、数据滥用、伦理失范的风险,对法律制度和司法治理提出更严峻的挑战。我们请到的嘉宾是中国社会科学院大学互联网法治研究中心主任刘晓春,她曾多次参与人工智能相关立法和政策制定过程的讨论,针对“AI幻觉”和“责任归属”提出了许多建设性观点,并主张“问题导向、适当容错、促进创新”的法治理念。
思远:去年6月,国内出现一例因“AI幻觉”导致的侵权案。某高校官网上用了“AI招生简章”,面对考生的关键问题咨询,AI“自作主张”承诺“如果回答错了,赔10万元”,结果回答错了,学生因此起诉学校、索赔,最终败诉。AI生成技术快、内容量大,相应的立法效率和效果,是否可以控制住这种风险?
刘晓春:这些问题的确层出不穷。从法律上,我国界定了一些风险最高、最容易产生问题、危害社会的内容,比如煽动歧视对立、涉及黄赌毒等。
首先,对这类内容,我国法律严格要求大模型企业在训练数据中进行前置防治。另外,视频生成技术突飞猛进的发展带来的问题,比如涉及对公众人物、版权的权利侵害,立法上认为技术发展中不可避免,有了法律纠纷要去应对解决,但不必管得过于严格,例如上述提到的“AI幻觉”这一相关案例,最后法院判决认为,用户对信息要有自己核对的过程并承担相应责任。如果现在就要求大模型百分之百地杜绝可能的侵权因素或“AI幻觉”,对大模型企业来说是难以承受之重。所以,法律秉持了“促进发展为先”的态度。
思远:也就是说,法院或司法实践中会有权衡、考量,用户要有对信息的基本判断,在这个基础上,平台方要履行必要的义务,类似于互联网治理中对虚假消息治理规则的“避风港原则”?
刘晓春:对,有一点类似于“避风港原则”的思路。
中国AI“生态位领先”,赋予法律更多底气“促发展优先”
思远:从你和互联网法院的日常司法实践、交流看,2025年AI发展这么快,相关案件有没有特别多或明显增长?
刘晓春:相关诉讼确实有一些,但数量上也没有明显增加。在新问题不断出现的过程中,有些规则也不是特别清楚。比如声音权益方面,有大模型公司把配音演员的声音拿来训练,最后法院判决构成了侵权;著作权的案子在国内外都有,体现出一些争议。
除了AI换脸带来的深度伪造、欺诈问题外,还有一些智能体发展带来的新问题。有一类公用性的智能体,比如在医疗方面给用户提供专业咨询;也有一类情感互动类的“情感搭子”,就会带来情感依赖或者沉迷的问题,国内外已经出现了相关案例,最近主管部门也出台了关于AI情感互动的相关规定征求意见稿,试图解决这个问题。还有一类比较新的问题,比如现在流行的“养龙虾”(OpenClaw),高自主性的智能体会自己去部署、判断,可能会导致不可控的风险——比如智能体自作主张删掉了重要邮件,或泄露重要数据,这是接下来要预判、治理的问题。
思远:相比互联网时代,AI智能体时代的动态防护、多节点防护,难度高了很多量级,这是技术飞跃带来的“幸福烦恼”。现在全球在AI治理制度上分化比较大,比如美国鼓励创新,法治路径思路相对宽松;但欧洲比较谨慎,欧盟对AI的法律制度比较严谨,把红线画得比较“死”。这方面,中国有没有形成自己的法治特色?
刘晓春:整体特点非常明确,就是问题导向,立法方面是“小步快跑”,逐个问题精准解决、精准控制风险,整体上还是“促进发展”的态势。
欧盟一开始就把可能涉及的风险进行整体分类,但实际上人工智能迭代太快,不同技术都以不同风险等级进行管制,不利于产业发展。欧盟模式、美国模式都对应了它们在整个人工智能发展中的国际生态位。
中国现在的生态位很明显,相对于一般国家是比较领先的。这种情况下,我们倾向于把安全和发展并重,倾向于“促进发展”的态势。
综合性立法以原则性和导向性的条款为主,建立如“智能向善、发展与安全并重、权责一致”这些基础性的核心准则。在原则性立法的基础上,赋予监管部门与法院灵活应对新风险的空间,让技术的创新与应用能在较宽松的政策环境下快速发展。
(作者:总台经济之声评论员、《远见》制作人王思远)