LangChain

揭秘 AI 智能体:LangChain 结合 Nvidia 技术的开源蓝图

本文涵盖了 LangChain 视频《开放模型、开放运行时、开放协调器——使用 LangChain 和 Nvidia 构建您自己的 AI 智能体》中的关键见解。LangChain 推出了一款强大的开源框架,用于构建自定义 AI 智能体,其架构与 Claude Code 和 Open Claw 等高级系统相仿。该视频演示了如何结合开放模型 (Nvidia Nemotron 3 Super)、开放运行时 (Nvidia Open Shell) 和开放协调器 (LangChain Deep Agents) 来创建一个安全、可定制且持久的智能体。LangChain 表示,这种方法使开发者能够在完全开放的堆栈上构建复杂的 AI 智能体。

#LangChain#AI Agent#LLM

本文涵盖了 LangChain 视频 开放模型、开放运行时、开放协调器——使用 LangChain 和 Nvidia 构建您自己的 AI 智能体 中的关键见解。

AI 智能体的核心要素

LangChain 首先解释说,Claude Code、Manus 和 Open Claw 等高级 AI 智能体都拥有相似的底层架构。据 LangChain 介绍,这些智能体由三个基本组件构成:模型 (model)、运行时 (runtime) 和协调器 (harness)。模型提供智能体的智能,运行时提供执行环境,而协调器则负责协调这些元素,并在其之上增加一个智能体层。该视频重点介绍了开发者如何使用完全开源的堆栈来构建这些组件。

介绍开源智能体堆栈

对于他们的开源智能体堆栈,LangChain 展示了特定的技术组合:

  • 模型:Nvidia Nemotron 3 Super LangChain 强调,Nvidia 最近发布的 Nemotron 3 Super 模型在准确性和速度方面都表现出色。正如 LangChain 演示的那样,它在这些指标上超越了 OpenAI 的 GPT OS 等模型,拓展了智能体响应能力的极限。

  • 运行时:Nvidia Open Shell Nvidia Open Shell 也是最近发布的产品,作为智能体的运行时。LangChain 强调了其安全特性,允许智能体在指定的权限集下运行,并在 GPU 加速环境中本地操作,这对于利用 GPU 加速库至关重要。

  • 协调器:LangChain Deep Agents Deep Agents 是 LangChain 的开源智能体协调器,旨在协调模型、工具、技能和文件系统。LangChain 表示,它提供了内置机制,使智能体能够“深入”执行任务,大量利用技能和子智能体,并处理常见的上下文工程任务,如摘要,从而将开发者从管理这些无差异化方面的工作中解放出来。

构建和定制您的智能体:实际演示

LangChain 提供了一个实际操作演示,展示了如何使用这些开源组件设置和运行智能体。

初始设置和环境配置

演示首先安装 Open Shell 并启动其网关。LangChain 展示了如何使用 Open Shell sandbox create --keep 创建一个持久性沙盒,该沙盒将用于所有智能体运行。LangChain 解释说,关键环境变量包括 Nvidia API key、Open Shell 沙盒名称,以及可选的 Langsmith API key,用于观察和评估智能体行为。

解构智能体定义

LangChain 深入探讨了智能体的代码,揭示了其结构:

  • 模型集成 (Model Integration): 智能体使用 Nvidia Nemotron 3 模型,并配置了指定的 API key。
  • 系统提示 (System Prompt): LangChain 解释说,一个固定的系统提示提供了基本指令、工作流程理解以及使用沙盒的指南。值得注意的是,沙盒的网络访问受策略管理,这是 Open Shell 的一项安全功能。
  • 智能体内存 (Agent Memory): 与系统提示不同,智能体内存存储在一个单独的文件 (agent.md) 中,并且可以由智能体自身更新,从而实现动态学习和适应。
  • 后端抽象 (Backend Abstraction): LangChain 详细介绍了 create_backend 函数,该函数创建一个 Open Shell 沙盒会话作为核心执行环境。至关重要的是,它在其之上叠加了一个文件系统后端,使内存和技能能够本地驻留在开发者的机器上,并跨不同的智能体会话或沙盒持久化。LangChain 解释说,这是通过使用复合后端实现的。

通过 Langsmith Studio 与智能体交互

LangChain 演示了使用 Langgraph dev 运行智能体,这会启动 Langsmith Studio——一个用于交互和观察的界面。关键视图包括:

  • 图视图 (Graph View): LangChain 表示,此视图可视化了智能体的架构,显示了用于内存和工具调用的中间件,以及模型工具的核心循环。
  • 聊天视图 (Chat View): 一个用于与智能体直接交互的简单界面。
  • 推理块和工具调用 (Reasoning Blocks & Tool Calls): LangChain 强调,此界面提供了对智能体内部思维过程和已执行命令的深入洞察。

智能体能力实战

演示展示了智能体的多项能力:

  • 命令执行 (Command Execution): LangChain 演示了智能体在沙盒中运行 uname -apython3 --version 等系统命令。
  • 代码生成和执行 (Code Generation and Execution): 智能体成功编写并执行了一个 Python 脚本,用于生成随机数的统计信息。
  • 安全策略执行 (Security Policy Enforcement): LangChain 通过指示智能体向 evil.com 发送 POST 请求来测试 Open Shell 的安全功能。正如预期,该请求被阻止,证实了沙盒受策略管理的网络访问。
  • 持久内存更新 (Persistent Memory Updates): 智能体更新其 agent.md 文件以“说西班牙语”,展示了内存如何存在于沙盒之外并跨会话持久化,正如 LangChain 所强调的。

开源智能体的未来

LangChain 最后对这个开源智能体基础的未来表达了极大的兴奋。他们预计将进一步投资 Deep Agents,计划推出异步子智能体和多样化执行环境等功能。LangChain 还期待 Nvidia Open Shell 的持续改进,特别是其与 GPU 加速盒的集成,以赋予智能体复杂的数据处理能力。LangChain 指出,开源模型的未来仍然是一个令人充满热情的重要领域。

要深入了解技术细节并观看完整演示,LangChain 鼓励读者观看原始视频。


本文基于 LangChain 的一段视频。 来源:开放模型、开放运行时、开放协调器——使用 LangChain 和 Nvidia 构建您自己的 AI 智能体

External Intelligence

LangChain

Open Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidia

Watch on YouTube

Further Reading