为什么OpenAI、Anthropic、DeepMind都在卷“AI写代码”?
创始人
2026-03-02 08:20:19
0

一段时间来,大模型都在学写代码。OpenAI的代码生成工具GPT-5.3-Codex(也称为Codex),专注于编程的高效性;Anthropic的代码生成工具Claude Code,注重安全性和可靠性;DeepMind的代码生成工具 AlphaCode则擅长处理算法类编程任务。

还有那么多的事需要AI来做,为什么它们都在写代码,而且看谁写得更好、更快?特别是对于因人工智能安全而生的Anthropic,写代码和AI安全有什么关系?是不是初心已变?这些是值得思考的。

从Claude Code创始人Boris Cherny最近的访谈记录,可以看出AI大模型学写代码,本质上是在抢安全 AGI 的赛道。对 Anthropic 来说,Boris认为押注“编程”这条路,是通往安全 AGI 的路径之一。

目前,AI安全与风险主要有三大类:

1. 提示注入,自然语言有话术,在提示注入与检测方面,AI终究难于超越人类;

2.越狱,内在价值对齐机制被突破,被诱导做坏事;

3.模型的不可解释,导致漏洞高居,黑盒攻击一直存在。

从RLHF到RLAIF,从人类价值示例到人类定价值规则(宪法),再到大模型输入输出的内容安全监测,都是试图在自然语言层面解决AI安全。但自然语言模糊,表面顺从,实际上不服从,大模型难以在可用性和安全性之间取得平衡。

既然如此,就需要将安全的逻辑往下沉,这些大模型便就抓住了代码层。因为代码是刚性的,对错明确,规则明确。

所以,Anthropic等现在做的事是,先教模型精通写代码,再让模型用代码监督自己,最终实现AGI自动遵守代码话的安全宪法,即代码能力+宪法AI实现安全可控的人工智能。

从软件工程从业人员来看,模型会写代码,会自主沟通,使用工具,甚至已经开始学会使用电脑了,莫非这些大模型是要替代替代编程开发人员了。但从Anthropic的长远目标来看,编程不是终点,是通往安全 AGI 的必经之路。Boris也承认这是意外,但是对于其他大模型也许是醉翁之意呀。

尽管Boris在AI安全上思路清晰,但实际上通过用代码来表示用户问题、解决用户问题的路子并不通畅。因为,人类价值观模糊、矛盾、多元;价值观难以代码化,人类的“公平、正义、善意” → 无统一标准、随文化/场景/人变化,这些都与代码必须唯一、无歧义、可校验的本质相违背。总之,人工智能安全路漫漫。

关注复旦大学IntBigData:

相关内容

热门资讯

智驭医疗信息生态:生成式AI重... 智能涌现时代的医疗信息交互范式演进随着生成式人工智能(AIGC)在全球范围内的爆发式应用,社会信息的...
港股AI应用股走低,MINIM... 钛媒体App3月2日消息,港股AI应用股走低,截至发稿,MINIMAX-WP(00100.HK)跌7...
2026浙教版高中信息技术选择... 为了让大家做好课前预习和巩固复习,下面为大家准备了2026浙教版高中信息技术选择性必修六《开源硬件项...
AI与机器人盘前速递丨Deep... 【市场复盘】上周五(2月27日),A股人工智能与机器人赛道整体向好,两大主题ETF同步收涨,科创人工...
全球首个全尺寸重载双轮足机器人... IT之家3月2日消息,成都人形机器人创新中心自主研发的全球首个全尺寸重载双轮足机器人开源平台于今日(...
逾350家中国企业亮相MWC ... 3月2日至5日,世界移动通信大会(MWC2026,下称“巴展”)将在西班牙巴塞罗那举行。本届大会聚焦...
三技融合,重塑自主智能新纪元—... 《AI智能体的崛起》(英)佩塔尔·拉丹利耶夫著董世敏许盛辉译中信出版集团2026年1月出版在当今科技...
为什么OpenAI、Anthr... 一段时间来,大模型都在学写代码。OpenAI的代码生成工具GPT-5.3-Codex(也称为Code...
删邮件清硬盘 AI智能体失控谁... 智能体OpenClaw从1月下旬爆火之后,其安全风险也逐渐暴露。2月23日,Meta的AI安全研究员...
读懂AI红包大战 马年春节,抢AI红包成了新现象。几家互联网企业合计豪掷超45亿元,把人工智能应用“塞”进亿万用户手机...