微软发布2026年VS Live!拉斯维加斯会议全录,涵盖AI开发、.NET 8、云原生等主题。提供20场视频资源,每日更新两场,包含技术演讲与实践案例。重点展示AI工具理性使用、C#新特性、GitHub Actions应用等核心内容,适合开发者深入学习微软生态技术演进。
专题:cloud-native
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 13 篇文章。
文章在 QCon 2024 上系统阐述了 AI 时代软件架构的演进路径,提出将大模型封装为可编排的 Agent 并结合云原生技术的 AIOA 方案。通过示例代码展示 Agent 的 CRD 部署方式,深入分析编排、协作与安全防护,并展望自优化 Agent 的未来趋势,为企业构建 AI‑驱动系统提供了可落地的技术蓝图。
Helidon 3.2 版新增 AI Agent 模块,允许在 Java 微服务中直接调用 LLM。通过配置即代码、CDI 注入和拦截器,开发者可快速实现自然语言理解、链式编排和安全限流。示例展示了 Agent 的声明、使用以及在云原生环境的部署路径,为企业提供原生的 AI 编排能力。
Reddit 无中断迁移 PB 级 Kafka 到 Kubernetes,采用 DNS 抽象、ID 管理、混合集群、Cruise Control 数据转移和 KRaft 控制平面迁移等策略,确保系统稳定与可逆性,为大规模云原生架构迁移提供参考。
Snowflake 在 AI 技术实战周中推出 AI 就绪型数据平台,强调数据工程与科学的实战应用。该平台支持多种 AI 模型训练与部署,具备数据管道自动化、实时分析和机器学习集成等功能,同时兼容主流 AI 框架,强化数据安全。
本文介绍如何在 Azure Kubernetes Service 上规模化运行 Ray 框架,适用于 AI 和机器学习的分布式计算需求。核心亮点包括 Ray 的灵活性、高性能以及与 Kubernetes 的深度集成,为开发者提供了部署和优化的实践指导。
LiteLLM 服务器现已支持 Vercel 部署,简化了大语言模型的云服务集成。开发者可利用 Vercel 的 Serverless 架构快速上线 AI 应用,提升性能与可用性。此次更新增强了 LiteLLM 在多云环境中的兼容性与灵活性。
本文介绍了在 Azure Kubernetes Service 上大规模部署 Ray 服务的实践指南,重点解决 GPU 资源限制、存储分散和凭据过期等问题。适用于 AI 和 LLM 的分布式训练与部署,提供实用解决方案和最佳实践。
Google Cloud与DigitalRoute合作推出云原生数据准备架构,解决电信AI数据质量难题。通过标准化、双路径处理和上下文追踪,为自主网络代理提供高质量数据,助力异常检测、根本原因分析和预测性维护。该方案是AI驱动网络运营的重要一步。
MongoDB通过安全、弹性和简洁性三大原则,构建了支持AI应用的高效数据库平台。其核心亮点包括可查询加密、自动故障转移和跨云部署能力,为开发者提供无缝的敏捷开发体验。
MongoDB Atlas与MCP工具箱集成,通过标准化协议实现生成式AI与企业数据源的无缝连接。支持CRUD操作和聚合框架,简化数据交互流程,适用于处理非结构化数据的场景,提升AI应用的数据处理能力与企业运营效率。
BharatPE从自托管MongoDB迁移到MongoDB Atlas,提升系统性能、安全性和可扩展性。迁移过程采用五步策略,显著优化了处理能力与查询效率,满足金融行业合规需求。
Kubernetes 2.0可能引入容器规模化、服务发现优化及配置语言升级等特性,同时需改进包管理与etcd替代方案。作为云原生基础设施,其演进对开发者和系统管理员具有重要参考价值。