作者:王聪彬
最近,Akamai在大中华区完成了一次关键的人事调整,张轲履新大中华区副总裁,全面负责区域战略与业务拓展。
在Akamai的14年中,张轲亲身经历了中国企业国际化的热潮、也参与到很多客户及合作伙伴的业务增长过程中。从CDN到云,再到安全与边缘计算,他所经历的,不只是Akamai能力边界的扩展,更是整个互联网基础设施形态的演进。
如今,Akamai大中华区已经是Akamai在全球(除北美以外)最大的区域,并且Akamai也在持续加码AI的相关投入。
在云计算侧,Akamai与NVIDIA建立战略合作关系,并在过去几个月,在全球范围加速部署“NVIDIA Blackwell RTX 6000 PRO”新一代NVIDIA基于推理优化的GPU,将分布式网络能力向AI推理场景延伸。
在安全侧,Akamai围绕AI内容安全与基于AI本身安全解决方案进行了能力的增强,在效率、准确性与自动化水平上持续提升,使安全体系更贴合AI时代的复杂威胁环境。
Akamai大中华区副总裁张轲
从算力到调度,推理云能力正逐步展开
IDC数据显示,到2027年,随着AI的重心从模型训练转向推理,80%的企业将部署分布式边缘基础设施,以提升AI应用的延迟表现和响应速度。
Akamai在AI时代的定位是,为客户构建智能基础设施,帮助客户从容的在AI时代去创新,希望在全球的任何地方都能够帮助客户构建、保护和扩展AI服务。
张轲指出,Akamai希望能够借助过去20多年在全球积累的分布式计算网络构建起一个全球最大的分布式及云安全的平台,同时进一步转型成为全球最大的分布式AI推理的平台。
Akamai AI推理云包括实时的AI推理、全球AI算力分布式负载、边缘到核心AI算力的调度与管理等功能,主要有四个组成部分:
第一,算力。在与NVIDIA的合作下,Akamai引入英伟达RTX 6000 Pro Blackwell系列GPU,单卡最高可达4000 AI TOPS算力,并配备96GB ECC显存,已能够承载主流大模型的推理需求。GPU虚机出向流量费用被压低至0.005美元/GB,整体性价比相较同类方案实现了明显提升。
第二,Akamai AI网关。承担了大模型请求的全球调度与安全管理,通过语义缓存等机制,对高频请求进行复用与优化,大幅降低Token使用成本。
第三,Akamai函数即服务。Akamai将函数计算能力实现0.5ms的冷启动时间,实现极速AI服务与响应,并且帮助用户实现覆盖全球边缘的无服务器计算能力。
第四,Akamai分布式容器平台。基于其全球分布式网络,Akamai能够将容器化应用部署在距离用户更近的节点上,实现单跳网络可达、约10毫秒级时延。这不仅降低了AI服务的响应延迟,也为数据本地化与跨境合规提供了更灵活的落地路径。
同时,Akamai在去年底推出了首个全球规模的NVIDIA AI Grid参考设计实施方案,Akamai Inference Cloud也是Akamai AI推理云的重要组成部分,能够智能地将AI工作负载调度至其边缘、区域和核心节点,以平衡延迟、成本与性能。
Akamai Inference Cloud具备三大核心功能:第一,智能路由,通过感知模型类型、时延目标与成本需求,自动选择最优算力层级、调度相应的AI请求;第二,分布式计算,构建从边缘到核心的多层算力,灵活匹配集中式与分布式推理需求;第三,可靠性表现,基于NVIDIA RTX系列GPU,在AI推理、训练、渲染及视频处理领域经过严苛的基准测试。
目前,Akamai AI推理云已在全球、亚太及中国企业出海场景中实现规模化应用,落地场景也在不断丰富,主要包括七类:一是电商推荐引擎,通过AI智能体实现个性化商品推荐;二是8K视频工作流,支持超高清处理、多语种翻译与字幕自动生成;三是实时视频智能,在智能摄像头场景中实现多机位画面分析、目标识别等能力;四是智能体助理,应用于游戏等场景,支持NPC对话、多模态生成与情境交互;五是AI虚拟试衣间,用户通过图像或视频即可完成远程试穿;六是AI智能玩具,具备学习、适应与交互能力;七是自动驾驶相关场景,围绕视频数据处理提供异常检测、模型训练与数据脱敏等能力。
Akamai亚太区云计算架构师总监李文涛看到,在实际落地中,用户对AI推理时延的要求远高于预期。游戏场景(尤其是大规模在线游戏)通常要求在15毫秒以内完成响应,电商推荐约在20毫秒,智能体自助服务约50毫秒,客服自动应答等场景也普遍需要控制在100毫秒左右。
Akamai亚太区云计算架构师总监李文涛
在这样的约束下,Akamai依托全球分布式算力网络,将推理能力前置到更接近用户的位置,在保证服务质量的同时压缩响应时延,从而更好地满足AI应用对实时性的严苛要求。目前Akamai的平台已经遍布在全球700多个城市、130多个国家、超过1200多个运营商,为低时延推理提供了广泛而稳定的基础设施支撑。
从微分段到MCP,一场全方位的安全进化
AI时代,企业面对的安全挑战是全方位的,抵御勒索软件、推进零信任架构、混合云微分段拓展、确保业务连续性、降低成本都是不可忽略的问题,Akamai则利用AI技术贯穿到了整个安全战略始终。
客户的核心痛点也更加清晰且明确,Akamai大中华区售前技术经理马俊总结为三点:其一,资产发现链路冗长、效率偏低;其二,策略执行存在顾虑,担心对现有业务造成干扰;其三,策略在长期运行中容易发生漂移,维护成本持续走高。
Akamai大中华区售前技术经理马俊
大多数微分段工具在设计之初就已经存在缺陷,所以导致了微分段的零信任政策在企业内很难落地。Akamai Guardicore可以利用AI进行持续的自动化发现,从而真正在全面的流量上进行验证、使用与业务逻辑绑定的标签来代替基于IP的策略,这样就可以使“微分段”能够落地。
“Akamai AI驱动的微分段不仅能看到流量,还能帮助用户理解业务和应用,从而执行更有针对性的策略。在尽量减少人工干预的情况下提供实质性保护,为成百上千的应用提供模型支持和规模化运维能力。”马俊说道。
同时,Akamai Guardicore与NVIDIA BlueField DPU实现了深度整合,这意味着“零信任”能力从传统IT环境,进一步延伸到了OT与工业物联网(ICS)的硬件层级。
在外部威胁防护上,Akamai引入AI驱动的WAF检测。依托Akamai平台上超大规模的全球实时流量,AI引擎能够持续分析并快速识别异常行为,生成高置信度的检测策略,并结合安全专家的缓解机制,实现对在线应用与业务系统的自适应防护,抵御AI相关威胁,从而形成持续分析、快速检测与安全部署的能力。
在API治理上,“只见树木、不见森林”的困境。Akamai推出了全新API安全态势中心,安全团队无需再查阅数百条技术警报,而是可以直接跟踪哪些主机、应用程序和业务单元违反了关键的API安全最佳实践,从而更便于展示治理情况、优先处理修复事项,并与行业最佳实践保持一致。
另外还有一些新型“影子基础设施”需要注意,MCP模型上下文协议就是一个充满挑战的新领域,也是AI大模型广泛应用带来的一个新的安全盲区。Akamai API安全现已能够自动发现并标记运行时流量和源代码中的模型上下文协议服务器端点。这为安全团队提供了全面且持续更新的MCP部署视图,无论其是在生产环境中已投入使用,还是仍嵌入在开发代码库中。
Akamai还在WAF当中增加针对MCP的防护能力,能够精准的控制在AI应用、AI部署期间暴露的攻击面、防止敏感数据或者核心业务被大模型意外泄露。
未来,随着AI Agent时代的到来,传统威胁与新兴AI威胁也将交织叠加,安全团队需要同步构建监控体系,借助AI能力应对AI带来的风险。而Akamai已做好准备,通过全栈AI驱动的安全体系,从基础设施到硬件、从软件到网络微分段,实现对企业安全的系统化治理,全面护航AI革新。
写在最后
从AI加持的产品解决方案到本地化服务,Akamai正在走出一条属于自己的中国发展路径。
在过去十多年的服务过程中,Akamai不仅持续获得客户信任,也与总部及产品研发团队建立了紧密协同。依托中国企业在技术与业务上的创新实践,并将相关需求持续反馈至全球产品体系,进一步推动产品能力的演进与本地适配。
未来大中华区会做哪些调整,张轲没给出新KPI,而是把话落回到"长期承诺"四个字上。在满屏“All in AI”的当下,这种表达或许不够吸引,但对于一家在中国深耕16年的企业而言,这恰恰是最具确定性的交付。
下一篇:没有了