微软CEO:没人想要AI生成粗糙内容
创始人
2026-02-27 06:27:18
0

微软CEO萨提亚·纳德拉在伦敦AI巡回演讲中重申了一个让许多IT专业人士感同身受的观点:"没有人希望AI创作出任何粗糙的内容。"

纳德拉在演讲中谈到了AI助手、智能体AI、工作增强以及确保数据链中的下一个环节能够理解输出结果是如何产生的。值得注意的是,这位微软CEO使用"粗糙"这个词汇,此前他曾公开呼吁大家不要贬低AI的输出结果。

微软的AI巡回演讲自然重点展示了公司在AI领域的雄心壮志。Copilot占据了重要位置,纳德拉还提到了由AI驱动的智能体所提供的"无限思维集合"。但是在主题演讲的礼堂里,有一个显而易见却没有直接提及的问题——AI输出结果并不可靠。

尽管会议大力宣传AI工具的优势,比如在Excel中整理数据、为网站创建和执行测试计划等令人惊叹的演示,但同时也不断出现警告信息,提醒用户AI工具的输出结果不能完全信任,需要人工验证。

即使是命令行演示也带有警告:"Copilot使用AI技术,请检查是否有错误。"

在这个以AI技术优势为主题的会议上,屏幕上的警告和提醒突出表明AI远非万无一失。

虽然会议大量引用了英国的AI应用案例——包括医生描述在患者互动中节省的时间,以及经常被引用的公务员节省26分钟工作时间的统计数据——微软避免提及西米德兰兹郡警察局的Copilot事故,当时该工具产生了关于足球比赛的幻觉。该警察局局长克雷格·吉尔福德后来提前退休。

正如主题演讲屏幕上清楚显示的那样,AI输出结果不能被信任,"没有人想要任何粗糙的内容"。这一点在做出警务决策或计算会议中心容量时尤其重要。

Q&A

Q1:微软CEO纳德拉对AI内容质量有什么看法?

A:纳德拉明确表示"没有人希望AI创作出任何粗糙的内容",强调AI输出需要保证质量。他认为AI助手和智能体在增强工作能力的同时,必须确保数据链中的每个环节都能理解输出结果的产生过程。

Q2:微软在AI演示中为什么要加入警告信息?

A:因为AI输出结果并不完全可靠,需要人工验证。即使是简单的命令行演示也会显示"Copilot使用AI技术,请检查是否有错误"的警告,这表明AI技术远非万无一失,在实际应用中必须谨慎对待。

Q3:西米德兰兹郡警察局的Copilot事故是什么?

A:西米德兰兹郡警察局在使用Copilot时,该工具产生了关于足球比赛的幻觉内容,这是一个典型的AI输出错误案例。事件发生后,该警察局局长克雷格·吉尔福德提前退休。这个事故突出了AI在重要决策领域应用时的风险性。

相关内容

热门资讯

谷歌与Meta达成数十亿美元A... 2月27日消息,据《TheInformation》周四报道,MetaPlatforms已签署一项价值...
英伟达营收再创新高 黄仁勋称A... ◎记者郑维汉窦世平2月25日美股盘后,英伟达公布了截至2026年1月25日的2026财年第四季度及2...
百度2025年AI业务营收达4... 在AI业务上“起大早赶晚集”的百度正在加速快跑。(图源:视觉中国)2月26日,百度(09888.HK...
【深圳特区报】丙午新春系列评论... 马年春节,人工智能(AI)忙得马不停蹄。上春晚、发红包、拼技术、抢场景,国产大模型扎堆亮相,把农历新...
警惕AI“脏话输出” 最近,有网友在社交平台分享一则今年春节期间的遭遇:使用某AI软件生成个人拜年海报,生成的海报中竟出现...
瑞穗计划利用人工智能(AI)技... 瑞穗计划利用人工智能(AI)技术,才未来十年裁员5000个行政岗位。(日本读卖新闻)
家电装上“AI大脑”,打造“会... 今年春晚,最让人眼前一亮的莫过于各种各样的机器人。其实很多机器人早已悄然走进我们的日常生活。就像春晚...
Meta持续投资AI,用于监测... Meta持续投资AI,用于监测Cloaking。
微软CEO:没人想要AI生成粗... 微软CEO萨提亚·纳德拉在伦敦AI巡回演讲中重申了一个让许多IT专业人士感同身受的观点:"没有人希望...
AI代码生成推动DevSecO... 生成式AI代码工具正在改变软件工程实践,开发者现在构建的持续集成和持续部署(CI/CD)流水线能够大...