文章列表

5k5 分钟

# LCEL简介 全称LangChain Expression Language。用处是使用“|”运算符链接langchain的各个组件 是一种声明式的方法来链接langchian组件。LCEL从第一天起就被设计为支持将原型投入生产,无需代码更改。 # LCEL语法 Runnable组件 组件调用、批量、流式运行 组合成chain 并行调用运行 合并输入和输出字典 后备选项 重复多次执行Runnable组件 条件构建chain map高阶处理 打印chain图形 生命周期管理 # 组件 标准:。可以是函数、工具。。。但必须是Runnable接口。 chain本身就是组件 可以把一个小 Ch
16k15 分钟

# 1、最基础的提示词模板 PromptTemplate 最早期、面向单轮纯文本 的提示模板(对应老的 LLM 接口),主要生成 一个字符串 prompt。 导入方式 from langchain_core.prompts import PromptTemplate 使用示例 from langchain_core.prompts import PromptTemplate from langchain_openai import ChatOpenAI from dotenv import load_dotenv import os load_dotenv() llm = ChatO
4.8k4 分钟

官方文档:https://reference.langchain.com/python/langchain/tools/#langchain.tools.tool # 工具的定义 工具是Agent调用执行动作的组件,他们通过让模型通过定义明确的输入和输出与交互来拓展模型的功能。 在构建Agent时,需要为其提供一个他可以使用的工具列表。除了实际可调用的函数之外,工具还需要有以下属性: name:工具的名称 descrition:工具的说明,给模型提供指导 args_schema:使用 Pydantic 模块或 JSON 模块定义复杂
3.8k3 分钟

官方文档:https://docs.langchain.com/langsmith/local-server#python-server-2 langchain给我们提供了Studio+ LangSmith集成的测试环境,使用studio在本地可视化、交互和调试Agent。 Studio是一个专门的Agent IDE,支持对实现智能体服务器API协议的代理系统进行可视化、交互和调试,还集成了跟踪、评估和提示工程。 # 1、安装LangGraph CLI pip install -U "langgraph-cli[inmem]" # 2
1.8k2 分钟

# 模型的输出格式化 大语言模型能够生成任意文本,这使得模型能够是单独个响应广泛的输入范围,但是对于某些用例,限制大语言模型的输出为特定的格式活结构是有用的。这被称为结构化输出 最常用的输出格式是json,其他格式如yaml也可能很有用。 方式1:.with_stractured_output() 一些langchain聊天模型支持.with_stractured_output()方法。需要指定一个输出模式。 from pydantic import BaseModel, Field from langchain_openai import ChatOpenAI from dotenv im
1.4k1 分钟

# 速率限制 许多聊天大模型提供程序给定时间段内可以进行的调用次数施加限制。如果达到速率限制,通常会收到来自提供商的速率限制错误相应,并且需要等待才能发出更多请求。 可以通过rate_limiter参数来设置 langchain内置InMemoryRateLimiter, 是线程安全的,可以由同一进程中的多个线程共享。 from langchain_core.rate_limiters import InMemoryRateLimiter from langchain.chat_models import init_chat_model from dotenv import load_dote
4k4 分钟

所有模型都可是直接使用openai类直接调用 from langchain_openai import ChatOpenAI from dotenv import load_dotenv import os load_dotenv() llm = ChatOpenAI( base_url=os.getenv('OPENAI_BASE_URL'), api_key=os.getenv('OPENAI_API_KEY'), model=os.getenv('OPENAI_MODEL'),
1.4k1 分钟

# 1、核心入口:create agent()统一Agent构建流程 在Langchain 1.0之前,开发者构建Agent主要依赖createreact agen(0方法,该方法需要手动配置提示词模板、工具列表、执行器等多个组件,且不同类型的Agent(如React Agent、Self-Ask Agent)有着不同的构建接口,学习成本高且代码复用性差。 1.0版本彻底重构了Agent层,推出了create_agent()作为构建智能体的标准入口,其核心优势在于: 底层封装LangGraph执行机制:createagent(O默认基于LangGreaph引|擊实现,将“模型调用一工具决策一
3.7k3 分钟

# langchain的本质: 是一个用于构建大模型驱动应用的开源框架,它通过标准化的接口将大语言模型与外部工具、数据存储、工作流逻辑等组件串联起来,让开发者无需从零搭建复杂的集成架构,就能快速构建具备“思考”、“记忆”、“行动”能力的智能体(Agent)。 # LangChain vs LangGraph vs DeepAgent分工定位: # 1. LangChain 的定位:LLM 应用基础框架 核心职责: 统一封装各种大模型 / 向量库 / 工具 OpenAI, Anthropic, Google, 本地 LLM… 向量库(Pinecone、Chroma…)、数