本記事は、LangChainによるOpen Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidiaからの重要な洞察をまとめたものです。
AIエージェントの核となる要素
LangChainは、Claude Code、Manus、Open Clawといった先進的なAIエージェントが、同様の基盤アーキテクチャを共有していると説明することから始めます。LangChainによると、これらのエージェントは、モデル、ランタイム、ハーネスという3つの基本的なコンポーネントで構成されています。モデルはエージェントの知能を提供し、ランタイムは実行環境を提供し、ハーネスはこれらの要素と、その上にあるエージェントレイヤーをオーケストレーションします。このビデオでは、開発者が完全にオープンソースのスタックを使用してこれらのコンポーネントを構築する方法に焦点を当てています。
オープンソースエージェントスタックの紹介
LangChainは、彼らのオープンソースエージェントスタックのために、特定の技術の組み合わせを紹介しています。
-
モデル:Nvidia Nemotron 3 Super LangChainは、Nvidiaが最近リリースしたNemotron 3 Superモデルが、精度と速度の両方で非常に高いパフォーマンスを発揮すると強調しています。LangChainが示すように、このモデルはOpenAIのGPT OSのようなモデルをこれらの指標で上回り、エージェントの応答性における可能性の限界を押し広げています。
-
ランタイム:Nvidia Open Shell Nvidia Open Shellもまた最近リリースされたもので、エージェントのランタイムとして機能します。LangChainは、そのセキュリティ機能を強調しており、エージェントが指定された権限セットで実行され、GPUアクセラレーション環境でローカルに動作することを可能にします。これは、GPUアクセラレーションライブラリを活用するために不可欠です。
-
ハーネス:LangChain Deep Agents Deep Agentsは、モデル、ツール、スキル、ファイルシステムをオーケストレーションするために設計されたLangChainのオープンソースエージェントハーネスです。LangChainによると、エージェントがタスクに「より深く」入り込むための組み込みメカニズムを提供し、スキルとサブエージェントを多用し、要約のような一般的なコンテキストエンジニアリングタスクを処理することで、開発者がこれらの差別化されていない側面を管理する手間を省きます。
エージェントの構築とカスタマイズ:実践デモンストレーション
LangChainは、これらのオープンソースコンポーネントを使用してエージェントをセットアップし、実行するための実践的なウォークスルーを提供しています。
初期セットアップと環境設定
デモンストレーションは、Open Shellのインストールとそのゲートウェイの起動から始まります。LangChainは、Open Shell sandbox create --keepを使用して永続的なサンドボックスを作成する方法を示しており、これはすべてのエージェント実行に使用されます。LangChainが説明するように、主要な環境変数には、Nvidia APIキー、Open Shellサンドボックス名、そしてオプションで、エージェントの動作を観察および評価するためのLangsmith APIキーが含まれます。
エージェント定義の解剖
LangChainはエージェントのコードを深く掘り下げ、その構造を明らかにします。
- モデル統合: エージェントは、指定されたAPIキーで構成されたNvidia Nemotron 3モデルを使用します。
- システムプロンプト: LangChainは、固定されたシステムプロンプトが基本的な指示、ワークフローの理解、およびサンドボックスの使用に関するガイドラインを提供すると説明します。特筆すべきは、サンドボックスのネットワークアクセスがポリシーによって管理されていることであり、これはOpen Shellのセキュリティ機能です。
- エージェントメモリ: システムプロンプトとは異なり、エージェントメモリは別のファイル(
agent.md)に保存され、エージェント自身によって更新されることができ、動的な学習と適応を可能にします。 - バックエンド抽象化: LangChainは、コア実行環境としてOpen Shellサンドボックスセッションを作成する
create_backend関数について詳しく説明します。重要なのは、その上にファイルシステムバックエンドを重ねることで、メモリとスキルが開発者のマシンにローカルに存在し、異なるエージェントセッションやサンドボックス間で永続化できることです。これは、LangChainが説明するように、複合バックエンドを使用して実現されます。
Langsmith Studioを介したエージェントとの対話
LangChainは、Langgraph devを使用してエージェントを実行する方法を示します。これにより、対話と観察のためのインターフェースであるLangsmith Studioが起動します。主要なビューには以下が含まれます。
- グラフビュー: LangChainによると、このビューはエージェントのアーキテクチャを視覚化し、メモリとツール呼び出しのためのミドルウェア、およびモデルツールのコアループを示します。
- チャットビュー: エージェントとの直接対話のためのシンプルなインターフェース。
- 推論ブロックとツール呼び出し: LangChainは、このインターフェースがエージェントの内部思考プロセスと実行されたコマンドに関する深い洞察を提供すると強調します。
動作中のエージェントの機能
デモンストレーションでは、いくつかのエージェント機能が紹介されます。
- コマンド実行: LangChainは、エージェントがサンドボックス内で
uname -aやpython3 --versionのようなシステムコマンドを実行する様子を示します。 - コード生成と実行: エージェントは、乱数に関する統計を生成するPythonスクリプトを正常に記述し、実行します。
- セキュリティポリシーの強制: LangChainは、エージェントに
evil.comへのPOSTリクエストを送信するよう指示することで、Open Shellのセキュリティ機能をテストします。予想通り、リクエストはブロックされ、サンドボックスのポリシーによって管理されたネットワークアクセスが確認されます。 - 永続的なメモリ更新: エージェントは、
agent.mdファイルを「スペイン語を話す」ように更新し、メモリがサンドボックスの外に存在し、セッション間で永続化できることを示します。これはLangChainによって強調されています。
オープンソースエージェントの未来
LangChainは、このオープンソースエージェント基盤の未来に大きな期待を表明して締めくくります。彼らは、非同期サブエージェントや多様な実行環境といった機能の計画とともに、Deep Agentsへのさらなる投資を期待しています。LangChainはまた、Nvidia Open Shellの継続的な改善、特にGPUアクセラレーションボックスとの統合により、エージェントに複雑なデータ処理能力を与えることを楽しみにしています。LangChainは、オープンソースモデルの未来が引き続き熱意の主要な分野であると述べています。
技術的な詳細をさらに深く掘り下げ、完全なデモンストレーションを見るために、LangChainは読者に元のビデオを視聴することを推奨しています。
本記事はLangChainのビデオに基づいています。 ソース:Open Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidia
External Intelligence