搜索引擎 + AI 驱动的行业新闻
hangyexinwen.com

【行业入口】(子域名访问)
信保 xinbao|金融 jinrong|出口 chukou
制造 zhizao|农业 nongye|零售 lingshou
物流 wuliu|建筑 jianzhu|地产 dichan|数智 shuzhi

【访问方式】
行业简称.hangyexinwen.com,如
xinbao.hangyexinwen.com

【联系我们】(仅微信内打开)
xinbaoren.com

📰 深度|Salesforce 2025:企业级 AI Agent 如何从演示走向真实

在2025年Dreamforce大会上,Salesforce CEO Marc Benioff宣布,公司通过AI SDR回拨了5万个客户电话,解决了过去26年间未回应的客户联系请求。此次转变标志着消费级AI体验向企业级AI落地的跨越,尤其是通过AgentForce平台,Salesforce致力于填补消费端与企业端AI体验之间的鸿沟。

Benioff指出,企业AI面临数据孤岛和治理缺失等挑战,Salesforce通过“上下文工程”解决了深度数据集成和业务上下文理解等问题。AgentForce产品设计不仅集成了多个行业的专用AI agent,还通过全渠道监督器加强了人机协作,确保AI与人工客服的有效配合。

随着AgentForce Vibes的推出,Salesforce希望赋能2100万开发者,让他们能通过自然语言快速构建AI应用。此策略不仅提升了企业的AI构建能力,也为企业AI的普及提供了新的路径,进而推动了行业的创新与发展。

🏷️ #Salesforce #AI应用 #AgentForce #上下文工程 #企业服务

🔗 原文链接

📰 Meta如何给RAG做Context Engineering,让模型上下文增加16倍 - 53AI-AI知识库|大模型知识库|大模型训练|智能体开发

上下文工程近年来备受关注,Meta超级智能实验室发布的论文集中探讨了模型上下文智能压缩的核心问题。长上下文不仅导致内存成本增加,还使得模型生成时间显著延长。为了解决这些问题,Meta团队提出了REFRAG框架,通过智能压缩来保留核心内容,显著提高处理效率,在保持性能的同时实现了30.85倍的加速和16倍的上下文处理扩展。

REFRAG的核心流程包括上下文分块与压缩、选择性扩展与自回归保留,以及高效推理与上下文扩展。通过将长文档切分为固定大小的块,使用轻量级编码器进行嵌入,再通过RL策略动态决定哪些块需要保留原始token,实现了信息完整性与处理效率的平衡。该方法在多轮对话和Web级检索等场景中表现尤为出色。

该方案在多个主流数据集上进行了验证,证明了其在效率提升、上下文扩展和场景适配等方面的显著优势。应用场景包括增强版RAG、多轮对话和长文档摘要,特别在知识密集型任务中,REFRAG的表现优于传统模型,能够更好地处理复杂的信息检索和对话场景。未来,围绕上下文管理的研究将继续深入,期待更多创新成果。

🏷️ #上下文工程 #智能压缩 #REFRAG #多轮对话 #高效检索

🔗 原文链接
 
 
Back to Top