Flagship 是 Cloudflare 基于 OpenFeature 标准推出的功能开关即服务,专为 AI 代理在生产环境的安全快速迭代而设计。它利用 Workers、Durable Objects 与 KV 实现本地评估,避免网络延迟,支持丰富的规则和灰度发布。开发者只需在 wrangler 配置绑定,即可在代码中调用 flag,提升部署效率并保持安…
专题:edge-computing
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 13 篇文章。
Cloudflare 将 AI Gateway 与 Workers AI 打造成统一推理层,提供 70+ 模型、跨供应商 API(`AI.run()`)以及自有模型容器化支持。依托全球 330 城市边缘网络,实现低延迟、高可靠性,并具备自动故障切换和成本监控,帮助开发者高效构建多模型智能代理。
Agent Computer是一款专为AI Agent设计的‘三无’硬件设备,支持多模态搜索、本地数据处理和数据隔离,旨在替代Mac Mini和NAS,提供免配置、零门槛的使用体验。其核心理念是将操作系统从人类转向Agent,提升自动化效率,目标用户为白领群体,预计2026年Q3发售。
联想推出天禧AI,通过系统级智能体解决个人AI部署与使用难题,具备自主执行、数据安全和跨设备个性化能力,目标成为用户‘专属超能搭档’,并计划在5月发布4.0版本。
微软与Armada合作在Galleon模块化数据中心部署Azure Local,打造支持断连环境的自主AI解决方案。该平台结合本地化云服务与硬件基础设施,满足国防、能源等行业的数据主权和实时分析需求,提供超融合存储、多网络技术及合规性保障,为边缘AI部署提供参考架构。
本文探讨了从云原生到AI原生基础设施的演进趋势,强调模型驱动在构建新一代系统中的关键作用。分析了AI原生架构的技术特点、应用场景及面临的挑战,为开发者和研究人员提供了有价值的参考。
Cloudflare发布第13代服务器,采用AMD EPYC Turin处理器,通过重构FL1为FL2,实现吞吐量翻倍、延迟降低70%。核心亮点在于硬件与软件协同优化,提升边缘计算性能与能效。
国内首个国产AI推理千卡集群落地,采用云天励飞全自研芯片,提升计算效率并降低能耗,已在多个行业场景中测试应用,具备高能效比和稳定性。
BitNet 是一种面向本地 CPU 的 1000 亿参数、1 位精度的 AI 模型。通过极低精度设计和结构优化,它在资源受限设备上实现了高效运行,兼顾性能与计算效率,为边缘计算和嵌入式 AI 提供了新方案。
本文聚焦AI研发自动化指标、边缘计算交通监控、轻量级卫星AI模型及CUDA编写代理技术。GovAI与牛津大学提出14项AIRDA指标,助力AI递归自我改进管理;印度开发AIITS系统,通过边缘计算提升城市交通分析效率;TinyIceNet模型适用于卫星等资源受限设备;字节跳动的CUDA Agent优化代码编写,显著提升GPU训练效率。这些研究和技术应用展示…
LiteRT是TFLite的升级版,专注于设备端AI,提升GPU效率至1.4倍,支持NPU并优化GenAI模型部署。适用于边缘计算场景,增强AI在移动端和嵌入式设备的性能表现。
Google推出FunctionGemma,一款2.7亿参数的本地AI模型,支持设备内功能调用,用于构建低延迟、离线运行的AI应用。其核心亮点在于结合AI Edge和LiteRT-LM技术,实现高效操作导向的体验。
Mistral的voxtral.c是一个基于纯C语言实现的推理引擎,用于Voxtral实时4B语音到文本模型。它旨在提高推理效率并降低成本,适用于语音数据处理场景。该技术为开发者提供了对模型内部逻辑的深入控制,有助于优化性能和资源管理。