MCP笔记02: MCP的核心架构
📅 2025-04-01
模型上下文协议(MCP)建立在灵活且可扩展的架构之上,实现了大语言模型应用(LLM Applications)与各种集成(Integretions)之间的无缝通信。
本文将详细介绍MCP的核心架构组件和基本概念,了解MCP如何连接客户端(Client)、服务器(Server)和大语言模型(LLM)。
...模型上下文协议(MCP)建立在灵活且可扩展的架构之上,实现了大语言模型应用(LLM Applications)与各种集成(Integretions)之间的无缝通信。
本文将详细介绍MCP的核心架构组件和基本概念,了解MCP如何连接客户端(Client)、服务器(Server)和大语言模型(LLM)。
...目前许多大型语言模型(LLMs)还不具备获取天气预报和灾害天气预警的能力。让我们使用MCP来解决这个问题!
在本文中,我们将构建一个MCP Server,暴露两个工具(tools):get-alerts
(获取预警)和get-forecast
(获取天气预报)。
最近在开发MCP Server时,注意到MCP官方Python教程推荐使用uv作为包管理器。uv是一个用Rust编写的高性能Python包和项目管理工具,它不仅能替代pip、pip-tools、pipx、poetry、pyenv、twine和virtualenv等多个工具,还能提供10-100倍的性能提升。作为一个poetry的长期用户,决定趁着这次学习MCP的机会,将个人Python开发环境从poetry迁移到uv。
...Prompt template、Chat Model、Messages、Output parser、Structured output是LangChain框架的重要组件和概念。通过有效地组合这些组件,可以构建出简单的LLM应用。
可以以通过两种方式组合这些组件:
...近期我们对两个环境中的OpenTelemetry Collector进行了版本升级,从v0.114.0升级到了v0.121.0。这次升级涉及一些配置变化,本文将记录一些升级过程中的关键点和经验总结。
这两套环境采用了相同的部署架构:首先通过Helm安装opentelemetry-operator
,然后利用OpenTelemetry Collector的CRD(自定义资源定义)创建OpenTelemetryCollector资源。opentelemetry-operator
会根据这些资源定义,在Kubernetes集群的每个节点上以DaemonSet的形式部署OpenTelemetry Collector Pod,实现分布式的遥测数据采集。
安装环境信息如下:
安装过程如下:
...在过去的这些年中,我一直在探索和优化自己的开发环境配置。从最初的VSCode配合Remote Ubuntu Server的设置,到现在升级使用更智能的Cursor,我的开发环境经历了一个渐进式的演变。目前,我主要采用以下三种配置方案:
...代理式检索增强生成(Agentic RAG),这是一种新兴的人工智能范式,其中大型语言模型(LLM)在从外部来源获取信息的同时,自主规划其下一步行动。与静态的先检索后阅读模式不同,Agentic RAG 涉及对 LLM 的迭代调用,中间穿插工具或函数调用以及结构化输出。系统会评估结果,优化查询,必要时调用额外的工具,并持续循环此过程,直到获得满意的解决方案。
...DeepSeek R1是DeepSeek公司于2025年1月20日发布的推理模型,被认为媲美OpenAI的o1模型。DeepSeek R1满血版:
模型 | 总参数量 | 激活参数量 | 上下文长度 | 下载链接 |
---|---|---|---|---|
DeepSeek-R1-Zero | 671B | 37B | 128K | 🤗 HuggingFace |
DeepSeek-R1 | 671B | 37B | 128K | 🤗 HuggingFace |
DeepSeek R1作为一个超大规模模型,其部署有严格的硬件要求,特别是在GPU内存和计算能力方面。
...通过本节的学习,将学会如何使用AutoGen定义智能体并调用函数和工具。
在这个例子中,我们将赋予智能体一个工具的访问权限,该工具是一个函数,包含可用度假目的地的列表及其度假目的地的可用性。 可以认为这是一个旅行社的智能体可以访问旅行数据库的场景。
...