想象一下这样一个未来,AI 智能体不仅可以预订您的下一个假期,还可以根据您的目的地、天气预报和网络上的最优惠价格帮助提供购物清单。只需单击一下,智能体就可以代表您进行这些购买,并确保它们在您的航班起飞前及时到达。您再也不会忘记护目镜或防晒霜等必需品。
在短短一年内,随着高级大型语言模型和可部署在云和边缘的特定领域小语言模型的出现,AI 和机器学习飙升至新的高度。虽然这种智能是我们期望的应用程序的新基准,但企业 AI 的未来在于复杂的多智能体工作流程,这些工作流程结合了强大的模型、智能体辅助和人工指导的决策。这个市场发展迅速。根据德勤最近的研究,到 2027 年,50% 使用生成式 AI 的公司将推出智能体式 AI 试点或概念验证。
AI 领域正在不断转变,这得益于 AI 智能体的突破、Azure AI Foundry 等尖端平台以及 NVIDIA 强大的基础设施。随着我们迈向 2025 年,这些创新正在重塑技术并彻底改变业务运营和战略。
AI 智能体:主动、个性化和情商
AI 智能体已成为现代企业不可或缺的一部分,它不仅可以提高生产力和效率,还可以通过智能决策和个性化体验解锁新的价值水平。最新趋势表明,向主动 AI 智能体的重大转变,这些智能体可以预测用户需求并自主行动。这些智能体越来越多地配备了超个性化功能,根据个人偏好和行为定制交互。
允许智能体处理和响应各种形式的输入(文本、语音、图像)的多模式功能也变得越来越复杂,从而实现无缝和自然的交互。.更令人兴奋的是,AI 智能体中的情商越来越受欢迎。通过理解和响应人类情感,座席不仅可以提高生产力,还可以有意义地提高服务质量——使互动更加个性化、更加人性化,并最终更加有效,尤其是在客户服务和医疗保健等领域。
Azure AI Foundry:为企业 AI 创新赋能的智能体工厂
Microsoft 的 Azure AI Foundry 处于 AI 的最前沿,为大规模设计、自定义、管理和支持企业级 AI 应用程序和代理提供了一个统一的平台。最近推出的 Azure OpenAI 的 GPT-4.5 和 Microsoft 的 Phi-4 等模型展示了自然语言处理和机器学习方面的重大进步。这些模型提供更准确、更可靠的响应,降低幻觉发生率并增强人类对齐。
Azure AI Foundry 还简化了自定义和微调过程,使企业能够根据其特定需求定制 AI 解决方案。该平台与 GitHub 和 Visual Studio Code 等工具的集成简化了开发过程,使开发人员和 IT 专业人员都可以使用。此外,企业智能体升级有助于创建更强大、用途更广的 AI 智能体,能够处理复杂的任务和工作流。
案例研究:印度航空公司
印度航空公司是该国的旗舰航空公司,它利用 Azure AI Foundry 来增强其客户服务运营。通过将其虚拟助手的核心自然语言处理引擎更新为最新的 GPT 模型,印度航空公司在处理客户查询方面实现了 97% 的自动化,从而显著降低了支持成本并提高了客户满意度。这种转变凸显了 Azure AI Foundry 在推动运营效率和创新方面的潜力。了解更多信息。
NVIDIA NIM 和 AgentIQ 可增强智能体 AI 工作流
更进一步,Microsoft 和 NVIDIA 通过将 NVIDIA NIM 微服务集成到 Azure AI Foundry 中,为企业 AI 带来了新的效率。这些零配置、预先优化的微服务可以轻松地在从 LLM 到高级分析的一系列工作负载中部署高性能 AI 应用程序。借助无缝的 Azure 集成和企业级可靠性,组织可以快速且经济高效地扩展 AI 推理。
据 NVIDIA 称,当 Azure AI 智能体服务与开源工具包 NVIDIA AgentIQ 配对时,开发人员现在可以实时分析和优化 AI 代理团队,以减少延迟、提高准确性并降低计算成本。AgentIQ 提供丰富的遥测和性能调优功能,使开发人员能够动态增强智能体执行。
Epic 云和分析副总裁 Drew McCombs 表示:“在 Azure AI Foundry 中推出 NVIDIA NIM 微服务,为 Epic 提供了一种安全高效的方式来部署开源生成式 AI 模型,以改善患者护理,提高临床医生和运营效率,并发现新的见解以推动医疗创新。“通过与 UW Health 和 UC San Diego Health 合作,我们还在研究使用这些高级模型评估临床总结的方法。我们共同使用最新的 AI 技术,真正改善临床医生和患者的生活。
使用 NVIDIA TensorRT-LLM 优化的 Meta Llama 模型
NVIDIA TensorRT-LLM 优化进一步提高了性能和成本效率,现在应用于 Azure AI Foundry 上流行的 Meta Llama 模型。其中包括 Llama 3.3 70B、3.1 70B、8B 和 405B,可立即改善吞吐量和延迟,无需配置。
Synopsys 等早期采用者报告了变革性成果:加速工作负载、降低基础设施成本和更顺畅的部署周期。这种性能提升是由深度 GPU 级优化提供支持的,可实现更好的 GPU 利用率和更低的总拥有成本。
“在 Synopsys,我们依靠尖端的 AI 模型来推动创新,而 Azure AI Foundry 上优化的 Meta Llama 模型提供了卓越的性能,”Synopsys Central Engineering 工程副总裁 Arun Venkatachar 说。“我们已经看到吞吐量和延迟的大幅改进,这使我们能够在优化成本的同时加速工作负载。这些进步使 Azure AI Foundry 成为高效扩展 AI 应用程序的理想平台。
无论您是部署无服务器 API,还是使用 Azure 虚拟机或 Azure Kubernetes 服务管理自己的基础设施,开发人员现在都可以使用 NVIDIA 的推理堆栈灵活地进行构建,并通过 Azure Marketplace 上的 NVIDIA AI Enterprise 获得企业支持。
NVIDIA 基础架构:为 AI 革命提供动力
NVIDIA 继续在 AI 基础设施领域处于领先地位,预测表明将向量子计算和液冷数据中心转变。量子计算的进步,特别是在纠错技术方面的进步,有望提高计算能力和效率,解决目前限制量子硬件的不稳定问题。
数据中心向液体冷却过渡是另一个关键趋势,由对更高性能和能效的需求推动。这种转变伴随着数据中心架构的转变,转向集成计算结构,以促进数千个 AI 加速器之间的通信。NVIDIA 在 AI 硬件和软件领域的主导地位,以及与大公司的战略合作伙伴关系的支持,使其成为企业 AI 领域的关键参与者。
详细了解如何使用 Azure AI Foundry、NVIDIA NIM 和 NVIDIA AgentIQ 加速智能体工作流。
作者 Mike Hulme 是 Microsoft 数字和应用程序创新总经理