专题:transformer-architecture

按该标签聚合的大模型资讯列表(自动分类与标签提取)。4 篇文章。

官方Vercel Blog2026/04/15 16:005500
AI Gateway平台集成LLM视频生成技术
文本到视频的全流程自动化方案

Seedance 2.0是基于AI Gateway的AI视频生成技术,采用LLM与Transformer架构实现文本到视频的自动化流程。通过预处理、模型训练、生成与后处理四阶段技术,可高效制作新闻、广告等类型视频。该技术革新了内容创作方式,但面临质量控制和版权问题等挑战,展现出AI在媒体领域的应用潜力。

媒体UX Magazine2026/04/06 12:265740
语言模型需接地理解现实
Transformer处理海量数据

本文探讨语言模型如何通过互联网数据实现对现实世界的理解,分析Transformer架构与神经科学理论的关联,指出AI系统需解决‘接地’问题以真正掌握人类经验。核心亮点包括对语言模型能力的重新评估、符号系统与现实交互的矛盾,以及人类行为多样性的数据量化。

社区Hacker News2026/03/27 20:115630
参数高效微调技术
13参数实现强推理

TinyLoRA是基于Transformer的轻量化模型架构,仅需13个参数即可实现高效推理。通过结构优化降低计算和存储需求,保持高性能,适用于嵌入式设备等资源受限场景。该技术突破传统参数微调范式,为边缘计算提供新思路,具有实际部署价值。

媒体InfoQ 中文2026/03/25 03:595860
KV Cache用于存储注意力键值对
提升推理效率并减少内存消耗

KV Cache是LLM推理中的关键缓存机制,用于存储注意力键值对以提升生成效率。其核心作用在于减少重复计算,优化内存使用和推理速度。文章详细解析了KV Cache的原理、实现及优化策略,为开发者和研究人员提供了实用的技术参考。