2025MCP宝典:全网最全干货 + 9大经典案例详解,必读!

干货来了!!敲黑板!!!MCP2025最新最全说明手册,学习MCP这一篇文章就够了!内容稍微有点儿,大家耐心看完,收获必然大大地!

图片

NO.1 模型上下文协议(MCP)

什么是MCP?

打个比方,这就像是你只会英语,要获取只会说法语、德语等人的信息,你必须学习所有语言——这对你来说简直是噩梦。

图片

但如果有一个通晓所有语言的翻译呢?是不是简单多了?

图片

翻译就像MCP!它让智能体(Agents)通过单一接口与工具或其他能力进行交互。

具体来说,虽然LLM具备强大的知识和推理能力,但其知识仅限于初始训练数据。若需实时信息,必须自行调用外部工具。

模型上下文协议(MCP)是一种标准化接口和框架,使AI模型能够无缝连接外部工具、资源和环境。

图片

MCP就像USB-C标准统一电子设备连接一样,成为AI系统的通用连接器。

MCP为何诞生?

在MCP出现前,AI与外部数据的连接如同拼布娃娃般杂乱无章:

图片

  • 硬编码逻辑:每个工具需单独适配
  • Prompt链脆弱:依赖特定提示词组合
  • 厂商锁定:不同平台需重复开发插件

这导致了臭名昭著的M×N集成问题:假设有M个AI应用和N个工具,理论上需开发M×N种定制化集成方案。

图片

MCP通过引入中间标准层解决了这个问题:

  • M个AI应用

    只需实现一次客户端

  • N个工具

    只需实现一次服务端

  • 新增工具或模型时无需重写代码

图片

这种标准化就让跨平台协作变得像使用通用电源插头一样简单。

MCP架构概览

下面我们看下MCP的架构原理,如下图:

图片

  • 宿主(Host):是面向用户的 AI 应用,如聊天应用、AI 增强型 IDE 等。它发起与 MCP 服务器的连接,捕获用户输入,保留对话历史并显示模型回复。

图片

  • 客户端(Client):在宿主内,负责处理底层事务,像适配器或信使,负责按 MCP 协议执行宿主指令。

图片

  • 服务器(Server):是提供功能(工具等)的外部程序或服务,可本地或远程运行,关键是以标准格式告知能做什么,执行客户端请求并返回结果。

图片

MCP 基于客户端 - 服务器架构,主要有三个角色:工具、资源和提示

  • 工具(Tools) :是AI可调用的可执行动作或函数,通常由AI模型选择触发,常涉及文件 I/O 或网络调用等副作用或需额外计算的操作。

图片

例如:一个获取天气信息的简单工具,AI可通过调用该工具,传入地点参数,服务器执行后返回结果,客户端获取并供AI使用。

图片

  • 资源(Resources) :为AI提供只读数据,类似数据库或知识库,AI 可查询获取信息,但不能修改。

图片

  • 与工具不同,资源通常在宿主控制下访问,避免模型随意读取,例如,从本地文件、知识库片段、数据库查询结果(只读)等获取内容。

  • 提示(Prompts) :是预定义的提示模板或对话流程,可注入以引导AI行为,

图片

例如,代码审查的提示模板,服务器提供后,宿主可调用并插入用户代码,供模型生成回复前使用。

上述这三者构成MCP框架的核心能力。

NO.2 MCP九大经典案例详解

案例1:MCP 金融分析师

这里我们介绍如何构建一个 MCP驱动的AI工具,这个工具能够从Cursor或 Claude Desktop获取、分析并生成股票市场趋势分析。

图片

技术栈:

  • 使用 CrewAI 进行多代理编排。

  • 通过 Ollama 本地部署 DeepSeek-R1作为LLM。

  • 选择 Cursor 作为 MCP 宿主。

工作流程:

  1. 用户提交查询。

  2. MCP 代理启动金融分析师团队。

  3. 团队开展研究并创建可执行脚本。

  4. 代理运行脚本以生成分析图表。

具体实现步骤:

  1. 设置 LLM:使用 Ollama 本地部署 DeepSeek-R1。

    图片

  2. 查询解析代理:这个代理接收自然语言查询,并使用 Pydantic 提取结构化输出。这确保了输入结构清晰且干净,以便后续处理!

    图片

  3. 构建代码编写代理:编写可视化股票数据的 Python 代码。

    图片

  4. 构建代码执行代理:审查并执行代码以生成分析图表。

    图片

  5. 设置并启动。

    图片

  6. 创建MCP服务器:定义分析股票的工具、保存代码工具和运行代码并显示图表工具。

    图片

  7. 将MCP服务器与Cursor 集成。

    图片

8.现在,我们可以开始与 MCP服务器进行交互了。

图片

在这个金融分析师工具中,我们可以通过以下两种方式获取股票分析:

  • 提供与股票市场相关的自然语言查询,如“分析特斯拉与英伟达的股票表现”。

  • 根据你的需求自定义工具,实现更丰富的金融分析功能。

相关学习网址:https://www.dailydoseofds.com/p/hands-on-building-an-mcp-powered-financial-analyst/

案例2:MCP语音AI工具

这里我们介绍如何构建一个MCP驱动的语音AI工具,它能够查询数据库并在需要时回退到网络搜索。

图片

技术栈

  • 使用 AssemblyAI 进行语音转文本。

  • 使用 Firecrawl 进行网络搜索。

  • 使用 Supabase 作为数据库。

  • 使用 Livekit 进行编排。

  • 使用 Qwen3 作为 LLM。

工作流程

  1. 用户的语音查询通过 AssemblyAI 转录为文本。

  2. 代理发现数据库和网络工具。

  3. LLM 调用合适的工具,获取数据并生成响应。

  4. 应用通过文本转语音提供响应。

具体实现步骤:

1.初始化Firecrawl和Supabase:我们实例化Firecrawl以启用网络搜索,并启动我们的MCP服务器,以便向代理暴露Supabase工具。

图片

2.定义网络搜索工具: 我们通过 Firecrawl 搜索的是使用 Firecrawl 搜索功能。

图片

3.获取 Supabase MCP 工具: 我们通过 MCP 服务器列出 Supabase 工具,并将每个工具封装为 LiveKit 工具,以供我们的代理使用。

图片

4.构建: 我们为代理设置了处理用户查询的指令。同时,我们还让代理能够访问之前定义的 Firecrawl 网络搜索工具和 Supabase 工具。

图片

5.配置语音转响应流程:

 ● 使用 AssemblyAI 语音转文本将用户语音转录为文本。

 ● 本地运行的 Qwen 3 LLM 通过 Ollama 调用合适的工具。 

● 通过文本转语音(TTS)生成语音输出。

图片

6.启动: 我们连接到 LiveKit 并以一条问候语启动会话。然后持续监听并回应,直到用户停止。

图片

完成啦! 我们的 MCP 驱动语音工具已准备OK。

 ● 如果查询与数据库相关,它会通过 MCP 工具查询 Supabase。 

● 否则,它会通过 Firecrawl 进行网络搜索。

相关学习网址:https://www.dailydoseofds.com/p/an-mcp-powered-voice-agent/

案例3:构建统一 MCP 服务器

本项目主要是打造一个 MCP 服务器,借助 MindsDB 和 Cursor IDE 的强大功能,实现通过自然语言与 200 多个数据源进行查询和聊天的统一界面。

图片

技术栈

  • 使用 MindsDB 驱动我们的统一 MCP 服务器;

  • 选择 Cursor 作为 MCP 宿主;

  • 借助 Docker 自行托管服务器;

工作流程

  1. 用户提交查询;

  2. 代理连接到 MindsDB MCP 服务器以查找工具;

  3. 根据用户查询选择合适的工具并调用;

  4. 最后,返回具有上下文相关性的响应;

具体实现步骤:

1.Docker 环境设置:MindsDB 提供了可在 Docker 容器中运行的镜像。 通过在终端运行命令,使用 Docker 镜像本地安装 MindsDB。

图片

2.启动 MindsDB:图形用户界面 安装 Docker 镜像后,在浏览器中访问 127.0.0.1:47334 即可进入 MindsDB 编辑器。 通过该界面,你可以连接 200 多个数据源,并对它们运行 SQL 查询。

3.集成数据源:让我们开始构建联邦查询引擎,方法是将数据源连接到 MindsDB。这里使用 Slack、Gmail、GitHub 和 Hacker News 作为联合数据源。

图片

4.将 MCP 服务器与 Cursor 集成:构建联合查询引擎后,我们通过将数据源连接到 MindsDB 的 MCP 服务器来统一这些数据源。 

转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器。在 JSON 文件中添加以下内容:

图片

完成!我们的 MindsDB MCP 服务器已成功上线并与 Cursor 完成连接! 目前,该 MCP 服务器提供了以下两项工具:

  • list_databases:列出所有连接到 MindsDB 的数据源。

  • query:回答用户关于联邦数据的查询。

图片

除了 Claude 和 Cursor 之外,MindsDB MCP 服务器还兼容新的 OpenAI MCP 集成功能。

图片

相关学习网址:https://www.dailydoseofds.com/p/build-an-mcp-server-to-connect-to-200-data-sources/

案例4:为 Claude和Cursor提供MCP驱动的共享内存

 开发人员通常独立使用 Claude 桌面版和 Cursor,二者之间无法共享上下文。接下来,我们介绍如何添加一个通用的内存层,以便在跨平台操作时保持上下文的连贯性。

图片

技术栈

  • 使用 Zep 的 Graphiti MCP 作为 AI 代理的内存层。

  • Cursor 和 Claude 作为 MCP 宿主。

工作流程

  1. 用户向 Cursor 和 Claude 提交查询。

  2. 使用 Graphiti MCP 将事实 / 信息存储在通用内存层中。

  3. 如果任何交互需要上下文,将查询内存。

  4. Graphiti 在多个宿主之间共享内存。

具体步骤

1.Docker 设置:使用 Docker Compose 部署 Graphiti MCP 服务器。此设置使用服务器发送事件(SSE)传输启动 MCP 服务器。

图片

上述 Docker 设置包含一个 Neo4j 容器,它以本地实例的形式启动数据库。 此配置允许我们通过 Neo4j 浏览器预览功能来查询和可视化知识图谱。

图片

2.将 MCP 服务器连接到 Cursor:工具和服务器都已准备好,现在让我们将其与 Cursor IDE 集成! 

转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器。在 JSON 文件中添加以下内容:

图片

3.将 MCP 服务器连接到 Claude 转到文件 → 设置 → 开发者 → 编辑配置,添加以下内容:

图片

完成啦! 我们的 Graphiti MCP 服务器已成功上线,并与 Cursor 和 Claude 完成了连接!

图片

现在,我们可以与 Claude 桌面端聊天、分享事实 / 信息,并将响应存储在内存中,然后从 Cursor 中检索。

反过来同样。通过单一的 MCP,我们也可以直接将 Claude 的分析输入到 Cursor 中。

相关学习网址:https://www.dailydoseofds.com/p/build-a-shared-memory-for-claude-desktop-and-cursor/

案例5:MCP 驱动的复杂文档 RAG

借助MCP构建复杂文档的 RAG 应用,可处理含表格、图表、图片及复杂布局的文档。

增强 AI 应用处理多模态文档的能力,提升信息检索效率与准确性,助力用户高效利用复杂文档。以下是相关技术堆栈和实现步骤

图片

技术栈

  • Cursor:作为 MCP 客户端;

  • EyelevelAI's GroundX:构建能够处理复杂文档的 MCP 服务器;

工作流程

  1. 用户与 MCP 客户端(Cursor IDE)互动。

  2. 客户端连接到 MCP 服务器并选择工具。

  3. 工具利用 GroundX 对文档进行高级搜索。

  4. 搜索引擎结果由客户端用于生成响应。

具体步骤

1.设置服务器:首先,我们使用 FastMCP 设置一个本地 MCP 服务器,并为其命名。

图片

2.创建 GroundX 客户端:GroundX 提供了针对复杂现实文档的文档搜索和检索功能。 以下是设置客户端的方法:

图片

3.创建数据摄入工具 该工具用于将新文档导入知识库。用户只需提供要导入文档的路径:

图片

4.创建搜索工具:此工具利用 GroundX 的高级功能,能够从复杂的真实世界文档中进行搜索和检索。以下是实现方法:

图片

5.启动服务器 使用 stdio 作为传输机制来启动一个 MCP 服务器:

图片

6.在 Cursor IDE 中操作如下:Cursor → 设置 → Cursor 设置 → MCP 然后按以下方式添加并启动服务器:

图片

相关学习网址:https://www.dailydoseofds.com/p/mcp-powered-rag-over-complex-docs/

案例6:合成数据生成器

下面我们介绍如何构建一个能够生成任何类型合成数据集的 MCP 服务器。它使用 Cursor 作为 MCP 宿主,并利用 SDV 生成逼真的表格型合成数据。

图片

技术栈

  • Cursor:作为 MCP 宿主;

  • Datacebo 的 SDV:生成逼真的表格型合成数据;

工作流程

  1. 用户提交查询;

  2. 代理连接到 MCP 服务器以查找工具;

  3. 代理根据查询使用合适的工具;

  4. 返回有关合成数据创建、评估或可视化的响应;

以下是我们的 MCP 服务器概览,其中包含以下三种工具:

  • SDV Generate:生成合成数据

  • SDV Evaluate:评估合成数据

  • SDV Visualise:可视化合成数据

我们已将这些工具的实际实现(使用 SDV SDK)单独放在一个名为 tools.py 的文件中,并在此处导入。

图片

下面我们详细介绍每个工具。

1.SDV 生成工具:该工具使用 SDV 合成器从真实数据中创建合成数据。 SDV 提供了多种合成器,每种合成器都使用不同的算法来生成合成数据。

图片

2.SDV 评估工具 此工具用于评估合成数据与真实数据的质量对比。 我们将通过评估统计相似性来确定合成数据捕捉到了哪些真实数据模式。

图片

#3)SDV 可视化工具 此工具生成可视化效果,用于比较特定列的真实数据和合成数据。 使用此功能可以将真实列与其对应的合成列进行可视化对比。

图片

工具和服务器已准备就绪,现在让我们将它与 Cursor IDE 集成!转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器。在 JSON 文件中添加以下内容:

图片

完成!合成数据生成器 MCP 服务器已成功启动,并与 Cursor 完成连接!

图片

相关学习网址:https://www.dailydoseofds.com/p/hands-on-mcp-powered-synthetic-data-generator/

案例7:MCP 驱动的深度研究员

ChatGPT 具备深度研究功能,能够帮我们获取任何主题的详细分析。下面我们介绍如何打造一个 100% 本地化的替代方案。

图片

技术栈

  • Linkup 平台:用于深度网络研究;

  • CrewAI:用于多代理编排;

  • Ollama:本地部署 DeepSeek;

  • Cursor:作为 MCP 宿主;

工作流程

  1. 用户提交查询;

  2. 网络搜索代理通过 Linkup 进行深度网络搜索;

  3. 研究分析师验证并去重结果;

  4. 技术写作者撰写包含引用的连贯响应;

具体步骤

1.设置 LLM 我们将使用 Ollama 本地部署 DeepSeek-R1。

图片

2.定义网络搜索工具:使用 Linkup 平台强大的搜索功能来为我们的网络搜索代理提供支持。

图片

Linkup 的搜索能力可与 Perplexity 和 OpenAI 相媲美。这需要我们定义一个自定义工具供代理使用。

3.定义网络搜索代理:网络搜索代理会根据用户的查询从互联网收集最新信息。我们之前定义的 Linkup 工具将被此代理使用。

图片

4.定义研究分析师代理:这个代理将原始的网络搜索结果转化为带有来源 URL 的结构化见解。它还可以将任务委托回网络搜索代理进行验证和事实核查。

图片

5.定义技术写作者代理:技术写作者代理会从分析师代理那里获取经过分析和验证的结果,并为最终用户撰写包含引用的连贯响应。

图片

6.设置团队:在定义了所有代理和工具之后,我们将设置并启动我们的深度研究团队。

图片

7.创建 MCP 服务器 现在,我们将把深度研究团队封装在一个 MCP 工具中。只需几行代码,我们的 MCP 服务器就将准备就绪。

图片

让我们看看如何将其与 Cursor 连接。

8.将 MCP 服务器与 Cursor 集成 转到:文件 → 偏好设置 → Cursor 设置 → MCP → 添加新的全局 MCP 服务器 在 JSON 文件中添加以下内容:

图片

完成!我们的深度研究 MCP 服务器已成功上线,并与 Cursor 完成连接。

图片

相关学习网址:https://www.dailydoseofds.com/p/hands-on-mcp-powered-deep-researcher/

案例8:MCP 驱动的视频检索增强生成(RAG)

我们构建了一个由 MCP 驱动的视频 RAG 系统,它能够摄入视频内容并支持与之互动聊天。此外,该系统还能精准定位并获取事件发生的确切视频片段。

图片

技术栈

  • RagieAI:用于视频的摄入和检索。

  • Cursor:作为 MCP 宿主。

工作流程

  1. 用户指定视频文件和查询内容。

  2. 摄取工具将视频索引到 Ragie 中。

  3. 查询工具从 Ragie 索引中检索带有引用的信息。

  4. 显示视频工具返回回答查询的视频片段。

让我们来实现这个功能!

1.载入数据:我们实现了一种将视频文件摄入到 Ragie 索引中的方法。我们还指定了音频 - 视频模式,以便在摄入过程中加载音频和视频通道。

图片

2.检索数据:我们根据用户查询从视频中检索相关的片段。每个片段都有开始时间、结束时间以及与视频片段对应的其他详细信息。

图片

3.创建 MCP 服务器 我们将 RAG 管道集成到一个具有以下三种工具的 MCP 服务器中:

  • ingest_data_tool:将数据摄入到 Ragie 索引中。

  • retrieve_data_tool:根据用户查询检索数据。

  • show_video_tool:从原始视频创建视频片段。

图片

4.将 MCP 服务器与 Cursor 集成:要将 MCP 服务器与 Cursor 集成,请转到设置 → MCP → 添加新的全局 MCP 服务器。

图片

完成!本地 Ragie MCP 服务器已成功上线,并与 Cursor 完成连接!

图片

接下来,我们通过 Cursor 与 MCP 服务器进行交互。根据查询,它可以:

  • 将新视频载入到 Ragie 索引中。

  • 获取有关现有视频的详细信息。

  • 检索发生特定事件的视频片段。

以上就是你的 MCP 驱动的视频 RAG 的全部实现了。

相关学习网址:https://www.dailydoseofds.com/p/build-an-mcp-powered-rag-over-videos/

案例9:MCP 音频分析工具包

我们介绍一款MCP 驱动的音频分析工具包,它支持音频文件,能够转录音频并提取诸如情感分析、说话人标签、摘要和主题检测等见解。它还支持与音频进行聊天。

图片

技术栈

  • AssemblyAI:用于转录和音频分析。

  • Claude 桌面版:作为 MCP 宿主。

  • Streamlit:用于构建用户界面(UI)。

工作流程

  1. 用户的音频输入通过本地 MCP 服务器发送到 AssemblyAI。

  2. AssemblyAI 在转录的同时提供摘要、说话人标签、情感和主题信息。

  3. 转录完成后,用户还可以与音频进行聊天。

具体步骤

1.转录音频的 MCP 工具:此工具接受用户的音频输入,并使用 AssemblyAI 进行转录。我们还会存储完整的转录内容,以便在下一个工具中使用。

图片

2.音频分析工具:接下来,我们有一个工具可以从转录内容中返回特定的分析,例如说话人标签、情感、主题和摘要。

图片

3.创建 MCP 服务器 现在,我们将设置一个 MCP 服务器来使用我们上面创建的工具。

图片

4.将 MCP 服务器与 Claude 桌面版集成:转到文件 → 设置 → 开发者 → 编辑配置,并添加以下代码。

图片

5.上述一旦服务器配置完成,Claude 桌面版将在工具菜单中显示我们构建的两个工具:

  • transcribe_audio:转录音频工具。

  • get_audio_data:获取音频数据工具。

图片

这就是我们的 MCP 驱动的音频分析工具包! 为了便于访问,我们为音频分析应用创建了一个 Streamlit UI。我们可以上传音频文件,提取分析,并使用 AssemblyAI 的 LeMUR 与音频进行聊天。以下是相关代码。

  这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

一、大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

二、如何学习大模型 AI ?


🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

 

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

*   大模型 AI 能干什么?
*   大模型是怎样获得「智能」的?
*   用好 AI 的核心心法
*   大模型应用业务架构
*   大模型应用技术架构
*   代码示例:向 GPT-3.5 灌入新知识
*   提示工程的意义和核心思想
*   Prompt 典型构成
*   指令调优方法论
*   思维链和思维树
*   Prompt 攻击和防范
*   …

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

*   为什么要做 RAG
*   搭建一个简单的 ChatPDF
*   检索的基础概念
*   什么是向量表示(Embeddings)
*   向量数据库与向量检索
*   基于向量检索的 RAG
*   搭建 RAG 系统的扩展知识
*   混合检索与 RAG-Fusion 简介
*   向量模型本地部署
*   …

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

*   为什么要做 RAG
*   什么是模型
*   什么是模型训练
*   求解器 & 损失函数简介
*   小实验2:手写一个简单的神经网络并训练它
*   什么是训练/预训练/微调/轻量化微调
*   Transformer结构简介
*   轻量化微调
*   实验数据集的构建
*   …

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

*   硬件选型
*   带你了解全球大模型
*   使用国产大模型服务
*   搭建 OpenAI 代理
*   热身:基于阿里云 PAI 部署 Stable Diffusion
*   在本地计算机运行大模型
*   大模型的私有化部署
*   基于 vLLM 部署大模型
*   案例:如何优雅地在阿里云私有部署开源大模型
*   部署一套开源 LLM 项目
*   内容安全
*   互联网信息服务算法备案
*   …

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值