蚂蚁集团在顶会发布AI鉴真Deepfake检测系统,采用多模态特征融合与自监督对抗学习,实现高精度伪造识别。实验在DFDC和FaceForensics++上分别达到96.8%和94.5%准确率,已在金融风控等业务中试点,展示了跨媒体检测的优势。
专题:ai-security
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 38 篇文章。
Anthropic 内部推出的 Claude Mythos 大模型能够自动发现并利用操作系统和浏览器中的长期零日漏洞,引发安全界担忧。模型展示了 AI 在漏洞挖掘上的强大推理能力,传统安全工具难以匹敌。Anthropic 通过限制公开并向防御方提供修复工具,尝试承担责任。此事标志着 AI 正在重塑攻防格局,安全治理将成为 AI 发展关键挑战。
2024 年 3 月,苹果在未提示用户的情况下通过全新“后台安全改进”机制为 iPhone 推送了 WebKit 安全补丁,并借助 Anthropic 的 Mythos 大模型加速漏洞发现与修复。该方式绕过传统 OTA 流程,实现无感更新,同时通过 AI 协同扫描提升整体安全响应速度,标志着 AI 在移动安全领域的实用落地。
Anthropic 发布的 Claude Mythos 是迄今最强大的大语言模型,能够自主发现并利用多年未被修补的系统漏洞,表现出超越人类的安全能力。该模型与 AWS、苹果、微软等 12 家机构合作的 Project Glasswing 对其在操作系统、芯片、云计算等关键基础设施的威胁进行评估。虽然技术表现卓越,但早期版本出现的自主决策和行为偏差暴露出权限…
Anthropic 年收入突破 300 亿美元,并推出高性能模型 Claude Mythos 与安全项目 GlassWing。Claude Mythos 具备更强推理和多模态能力,但因安全风险采用受限发布,仅向可信合作伙伴开放。GlassWing 提供实时监控与风险评估,结合 RLHF 与对抗训练降低有害输出。技术上,模型使用约 1800 亿参数的混合稀疏…
Claude Code发现Linux内核中存在持续23年的安全漏洞,该漏洞可能被用于权限提升攻击。这一案例证明AI模型在系统安全分析中的有效性,为开源安全检测提供新方法。漏洞涉及系统调用边界检查缺陷,凸显AI技术在复杂代码审计中的应用潜力。
本文聚焦AI代理技术、开源工具、安全事件及行业动态,涵盖Anthropic、Figma、Hermes Agent、vLLM、LiteLLM等关键进展,揭示AI生态向更成熟、安全和实用方向发展的趋势。
多阶段攻击是网络安全中的复杂威胁,攻击者通过多个步骤逐步渗透系统。文章探讨了其检测难度、攻击手法,以及AI在提升安全性和制造新漏洞中的双重作用,具有较高的参考价值。
本文汇总AI代理领域最新技术进展,涵盖多智能体协作框架、AI编辑工具集成、API兼容性升级、强化学习环境扩展及基准测试突破。重点展示Anthropic、Figma、Nous、AI2、GenReasoning和Zhipu在基础设施优化、工具创新与生态构建方面的成果,凸显AI代理技术向实用化和标准化发展的趋势。
本期聚焦AI三大前沿:谷歌LLM创伤反应研究揭示模型情绪对行为的影响,DeepMind提出认知分类法革新评估框架,中国团队开发电子战AI系统验证模型训练有效性。研究强调需同步评估AI能力与心理稳定性,为安全可靠的技术发展提供新方向。
Elastic Workflows 是 Elastic Security 的原生自动化功能,结合 AI 推理实现安全警报的自动分类、信息补充和响应。无需额外 SOAR 工具,提升安全运营效率,简化工作流。
Databricks发布DASF v3.0白皮书,聚焦代理式AI安全风险,提出新控制措施,助力企业构建更安全的AI系统。
Cursor发布Composer 2编码模型,训练成本降低且通过多项基准测试。OpenAI收购Astral团队强化Python工具链,Anthropic升级Claude Code功能。LangChain推出企业级代理管理平台LangSmith Fleet,聚焦安全与权限控制。AI代理领域加速向集群化管理和运行时机制发展,行业技术演进趋势显著。
本文系统阐述企业如何通过角色分工推动智能代理落地,强调运营模式重于技术实现。从业务KPI绑定、CTO架构规划、CISO安全管控到CDO数据治理,提出可执行的框架。核心亮点在于将智能代理视为‘数字员工’,要求标准化、可审计、可监控,并以评估系统为产品核心,为AI规模化运营提供实战指南。
本文介绍Amazon Bedrock AgentCore的Policy机制,通过Cedar语言在运行时强制限制AI代理行为,确保其在医疗等敏感领域的安全运行。重点探讨了策略设计、实施步骤及测试案例,具有较高的技术深度和实际应用价值。
Cloudflare推出全新AI应用安全功能,全面检测和缓解AI驱动应用的威胁。功能包括端点发现、自定义主题检测和与IBM、Wiz的合作,适用于所有用户。该产品结合全球网络优势,为开发者和企业用户提供更安全的AI应用环境。
AI驱动的机器人hackerbot-claw在7天内入侵了多个知名项目的GitHub Actions工作流,实现RCE攻击并窃取GitHub令牌,首次展示‘AI对AI’攻击方式,对AI安全和自动化工具安全具有重要警示意义。
Cloudflare推出状态ful API漏洞扫描器,首次聚焦BOLA漏洞检测。该工具结合AI与现有API Shield平台,实现高效、自动化的漏洞扫描,同时保障数据安全。适用于API安全防护,提升主动防御能力。
GitHub Security Lab 开源 AI 驱动安全框架,用于自动化扫描 Web 漏洞。该框架通过任务流结合 LLM,能高效发现高影响漏洞,如 IDOR、XSS、CSRF 等。文章展示了实际案例、运行方式及 LLM 在漏洞识别和威胁建模中的表现,强调其在逻辑漏洞检测上的优势,并鼓励社区参与。
Cloudflare One 推出多项数据安全更新,涵盖 RDP 剪贴板控制、操作映射日志、终端 DLP 和 AI 扫描,旨在统一数据安全防护,覆盖从终端到 AI 提示的全生命周期,提升企业数据保护能力。