社区Hacker News2026/04/06 08:146770
• 浏览器本地运行AI模型
• 集成WebGPU加速技术
Gemma Gem是Chrome浏览器扩展,集成Google Gemma 4(2B)模型,通过WebGPU实现本地运行。提供页面交互工具链,支持文本输入、元素操作和JS执行,内置可视化推理展示。突破传统AI依赖云端和API的模式,但受限于模型规模,复杂任务处理存在不确定性,为开发者提供本地化实验的可能性。
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 5 篇文章。
Gemma Gem是Chrome浏览器扩展,集成Google Gemma 4(2B)模型,通过WebGPU实现本地运行。提供页面交互工具链,支持文本输入、元素操作和JS执行,内置可视化推理展示。突破传统AI依赖云端和API的模式,但受限于模型规模,复杂任务处理存在不确定性,为开发者提供本地化实验的可能性。
Claude开发的Pascal Editor是一款开源3D建筑编辑器,支持浏览器直接使用,无需付费。具备强大的编辑功能、实时数据调整和2D/3D联动,技术上采用WebGPU实现高效渲染,引发行业关注。
作者全新用 WGSL 编写神经网络算子,实现了 BitNet 大语言模型的纯 WebGPU 推理。该方案无需 CUDA,兼容所有支持 WebGPU 的 GPU,在浏览器或 wgpu‑native 环境下均可运行,已在 HuggingFace Spaces 部署演示,代码开源,面向开发者提供了在浏览器端部署 LLM 的可行路径。
MDST引擎通过WebGPU和WASM技术实现浏览器端GGUF模型的高效运行,解决了传统模型部署在浏览器中的性能瓶颈。其核心亮点在于利用GPU加速和轻量级模型格式,适用于实时交互和边缘计算场景,为AI在Web端的部署提供了新思路。
Agentical.net 推出创新的浏览器端 P2P LLM 推理引擎,利用 WebGPU 和 WebRTC 实现零安装、端到端加密的本地化推理。项目支持 DeepSeek R1、Qwen 2.5、Llama-3 等模型,并寻求社区关于本地 RAG 架构(IndexDB vs. 本地服务器)的宝贵反馈与测试,旨在推动 WebGPU 技术在 LLM 领域的…