该内容需要权限查看

解锁内容

 

├── 大模型微调实战
   ├── 1
      ├── Ch 5.4 PPO模型与数据的选择.ts
      ├── Ch 3.2 llamafactory中如何使用和注册数据集.ts
      ├── Ch 2.5 配置TensorBoard.ts
      ├── Ch 4.4 Qlor微调实战与验证.ts
      ├── Ch 1.1 通用模型发展与微调前景.ts
      ├── Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
      ├── Ch 2.3 LLama_factory 安装部署及验证.ts
      ├── Ch 5.6 PPO源码解读.ts
      ├── Ch 3.1 如何获取数据源及使用解析.ts
      ├── Ch 5.3 各个模型PPO算法的协作关系.ts
      ├── Ch 5.1PPO&llama3.2_什么是PPO算法.ts
      ├── Ch 1.5 强化学习RHLF介绍.ts
      ├── Ch 2.4 实战Qwen2.5微调.ts
      ├── Ch 1.4 高效微调及范围.ts
      ├── Ch 1.6 主流微调框架.ts
      ├── Ch 4.3如何在windows配置环境.ts
      ├── Ch 4.2 Qlora核心概念.ts
      ├── Ch 3.3 模型微调及参数详解.ts
      ├── Ch 1.2 微调与其他技术的区别和关联.ts
      ├── Ch 5.5 PPO微调实操.ts
      ├── Ch 3.4 数据验证&deepspeed微调.ts
      ├── Ch 2.1 Lora原理详解.ts
      ├── Ch 1.3 微调步骤及技术栈.ts
      ├── Ch 2.2 LLama_factory 介绍.ts
      ├── Ch 5.2 如何理解PPO.ts
   ├── 其他
      ├── LLama_Factory+LORA大模型微调.ts
      ├── PPO微调Llama-3.2.ts
      ├── LLama_factory&Lora微调Qwen2.5NL2sql.ts
      ├── window系统微调QLORA.ts
   ├── 2
      ├── Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
      ├── Ch 6.3 奖励模型原理.ts
      ├── Ch 6.4 奖励模型训练流程.ts
      ├── Ch 6.5 RLHF全流程微调.ts
      ├── Ch 6.6 RLHF挑战与改进方向.ts
      ├── Ch 6.2 RLHF流程拆解与核心.ts
├── DeepSeek-V3&R1
   ├── 1
      ├── DS-v3 API调用4.DeepSeek v3模型参数详解.MP4
      ├── DS-v3 API调用1.DeepSeek v3模型性能介绍.MP4
      ├── DS-v3 API调用5.搭建DeepSeek v3多轮对话机器人.MP4
      ├── DS-v3 API调用8.DS-v3+Open WebUI搭建专属聊天机器人.MP4
      ├── DS-v3 API调用6.DS-V3 Function calling功能介绍.MP4
      ├── DS-v3 API调用2.DeepSeek v3开源情况介绍.MP4
      ├── DS-v3 API调用3.DeepSeek API-Key获取与模型调用方法详解.MP4
      ├── DS-v3 API调用7.DS-V3 完整Function calling执行流程.MP4
├── 大模型Agent开发实战
   ├── 4
      ├── Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts
      ├── Ch 9.1 LangGraph代理架构及Router Agent介绍.ts
      ├── Ch 10.3 LangGraph中如何使用流式输出.ts
      ├── Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts
      ├── Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理.ts
      ├── Ch 10.4 LangGraph中的事件流.ts
      ├── Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts
      ├── Ch 11.4 检查点的特定实现类型-SqliteSaver.ts
      ├── Ch 11.5 长期记忆和Store(仓库).ts
      ├── Ch 11.3 检查点的特定实现类型-MemorySaver.ts
      ├── Ch 9.3 结合结构化输出构建Router Agent(数据库).ts
      ├── Ch 11.1 Agent长短期记忆认知.ts
      ├── Ch 10.1 LangGraph中ReAct的构建原理.ts
      ├── Ch 9.4 Tool Calling AgentToolNode的使用.ts
   ├── 1
      ├── Ch 1.1 大模型应用发展与Agent前沿技术趋势.ts
      ├── Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts
      ├── Ch 1.4 AI Agent 经典核心架构与 AgentExcuter.ts
      ├── Ch 2.3 Funcation Calling 完整生命周期细节复现.ts
      ├── Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts
      ├── Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts
      ├── Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts
      ├── Ch 2.4 实现具备Funcation Calling的智能电商客服.ts
      ├── Ch 1.3 AI Agent爆发的根本原因.ts
      ├── Ch 2.2 AI Agent三种应用类型及Python实现可交互的聊天机器人.ts
   ├── 5
      ├── Ch 12.4 复杂代理架构中如何添加动态断点.ts
      ├── Ch 13.2 Multi-Agent 架构分类及子图的通信模式 - 副本.ts
      ├── Ch 13.1 Single-Agent 存在的局限.ts
      ├── Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts
      ├── Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts
      ├── Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts
      ├── Ch 14.3 GraphRAG 基本介绍与核心架构.ts
      ├── Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts
      ├── Ch 12.2 LangGraph中的HIL实现思路.ts
      ├── Ch 12.3 标准图结构中如何添加断点.ts
      ├── Ch 12.1 LangGraph知识点概述总结.ts
      ├── Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts
      ├── Ch 14.1 Supervisor 架构介绍与基本构建原理.ts
      ├── Ch 13.3子图状态中无共同键的通信方式.ts
   ├── 3
      ├── Ch 8.1 LangGraph中State的定义模式.ts
      ├── Ch 8.2 使用字典类型定义状态的方法与优劣势.ts
      ├── Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码.ts
      ├── Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts
      ├── Ch 7.1 LangChain的AI Agent开发框架架构设计.ts
      ├── Ch 7.4 LangGraph中如何接入大模型做问答流程.ts
      ├── Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts
      ├── Ch 6.1 为什么企业级应用必须接入流式输出.ts
      ├── Ch 8.5 LangSmith基本原理与使用入门.ts
      ├── Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts
      ├── Ch 6.3 Assistant API 流式传输中的事件流原理细节.ts
      ├── Ch 7.2 LangGraph 的底层构建原理.ts
      ├── Ch 7.3 Langgraph底层源码解析.ts
      ├── Ch 8.4 MessageGraph源码功能解析.ts
      ├── Ch 6.2 Assistant API中流式输出的开启方法.ts
   ├── 其他
      ├── MateGenProCh 1. MateGen Pro 项目整体架构介绍.ts
      ├── 大模型应用发展及Agent前沿技术趋势.MP4
      ├── MateGenProCh 4. SQLAlchemy原理与项目接入.ts
      ├── LangGraph 多代理与 GraphRAG 综合应用实战.ts
      ├── MateGenProCh 5. MateGen 数据库初始化逻辑.ts
      ├── MateGenProCh 2. 本地运行MateGen Pro项目流程.ts
      ├── 项目开发实战一:从零搭建多功能智能体 MateGen Pro(第二部分).ts
      ├── MateGenProCh 8 会话管理模块表结构设计与代码讲解.ts
      ├── MateGenProCh 6 API_Key接口初始化与校验.ts
      ├── MateGenProCh 3. MateGen Pro 后端API核心模块设计.ts
      ├── MateGenProCh 7 缓存池与系统初始化逻辑.ts
   ├── 2
      ├── Ch 3.5 项目:基于ReAct Agent构建电商智能客服_batch.ts
      ├── Ch 4.5 实现Run状态的轮询方法,并实现Assistant API完整链路.ts
      ├── Ch 4.2 Assistant对象的创建方法.ts
      ├── Ch 3.2 提示工程到代理工程的平滑过度.ts
      ├── Ch 4.4 Run运行时的状态转移机制.ts
      ├── Ch 4.1 Assistant API 框架的整体介绍.ts
      ├── Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts
      ├── Ch 5.2 File Search内置工具说明及文件管理.ts
      ├── Ch 5.4Assistant和Thread定义File Search工具的四种策略.ts
      ├── Ch 3.1 Funcation CallingAI Agent的本质区别.ts
      ├── Ch 5.5 如何处理Assistant API输出响应中的注释.ts
      ├── Ch 5.7 基于Funcation Calling实现本地代码解释器.ts
      ├── Ch 5.3 基于 Assistant API 创建在线私有知识库.ts
      ├── Ch 5.1 Assistant API 进阶应用方法介绍.ts
      ├── Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts
      ├── Ch 3.3 ReAct Agent框架的基础理论.ts
      ├── Ch 4.3 ThreadMessges及Run应用方法.ts
├── 大模型与Agent开发实战课件
   ├── 大模型微调-课件
      ├── Ch 5. PPO微调LLama-3.2.ipynb
      ├── Ch 3. LLama_factory&Lora微调Qwen2.5NL2sql.ipynb
      ├── Ch 6. RHLF微调Qwen2.5.ipynb
      ├── Ch 2. LLama_Factory+LORA大模型微调.ipynb
      ├── Ch 7. DPO微调Qwen2.5.ipynb
      ├── Ch 8 PEFT&医疗领域模型微调实践.ipynb
      ├── Ch 4. Window微调Qlora.ipynb
      ├── CH 1 论文.zip
      ├── Ch 1. 大模型微调.ipynb
   ├── 在线大模型部署与调用-课件
      ├── GLM 系列
         ├── GLMpart3_GLM_函数调用讲解与实战.ipynb
         ├── GLMpart0_智谱清言GLM账号注册及APIKEY领取.md
         ├── GLMpart1_GLM-4文本对话大模型API调用指南.ipynb
         ├── GLMpart4_智谱CogVideoX 文生视频.ipynb
         ├── GLMpart2_Streaming流式响应调用API全解.ipynb
      ├── OpenAI GPT 4o 系列
         ├── GPT 4opart1_文本生成API调用入门与精细化控制.ipynb
         ├── GPT 4opart8_微调实战进阶之tool use微调.zip
         ├── GPT 4opart7_微调实战初窥之写作风格.zip
         ├── GPT 4opart5_首token时延与提示缓存.ipynb
         ├── GPT 4opart3_tool_use工具调用与实战.ipynb
         ├── GPT 4opart2_文本生成API的多模态调用.zip
         ├── GPT 4opart6_Streaming流式响应调用API全解.ipynb
         ├── GPT 4opart4_生成结构化输出.ipynb
      ├── 提示工程
         ├── 使用 FastAPI 构建后端的 API 服务.pdf
         ├── 提示工程part1_提示工程指南(上).md
         ├── 提示工程part2_提示工程指南(下).ipynb
      ├── OpenAI GPT o1 系列
         ├── GPT o1part5_o1蒸馏4o-mini模型实战.zip
         ├── GPT o1part3_通过COT制作4o-mini版本的o1模型与其局限性.ipynb
         ├── GPT o1part4_使用o1模型生成诺贝尔奖得主的JSON格式数据分析.zip
         ├── GPT o1part2_o1的API调用与总结.ipynb
         ├── GPT o1part1_o1大模型与推理token简介.md
      ├── Dspy
         ├── DSPypart1_核心理念DSPy的核心理念(配置LM签名构建模块).ipynb
         ├── DsPypart4_推文生成与优化实战.ipynb
         ├── DSPypart2_DSPy的评估体系(Example数据Metric度量指标评估).ipynb
         ├── DsPypart3_实战优化_评估GSM8K数据集下模块的表现(优化篇).ipynb
      ├── OpenAI 账号注册与环境配置
         ├── GPTPart 4. 在Jupyter中首次调用OpenAI API.ipynb
         ├── GPTPart 1. OpenAI的账号注册速通.md
         ├── GPTPart 3. 开通虚拟信用卡与Plus会员订阅与API账户的充值与领取API_KEY.md
         ├── GPTPart 2. OpenAI官网及开发者平台使用指南.md
      ├── Gemini 系列
         ├── Geminipart2_ API文本生成调用入门到构建多轮对话机器人.ipynb
         ├── Geminipart3_API精细化控制生成参数与长文档实战与生成结构化.ipynb
         ├── Geminipart1_Gemini生态之最新模型免费策略注册指南网页端微调实战一网打尽.md
         ├── Geminipart1_甄嬛Gemini微调语料500条.xlsx
      ├── Claude 3.5 系列
         ├── Claude3.5part4_prompt cache 提示缓存与streaming流式输出.ipynb
         ├── Claude3.5part1-Claude介绍及注册流程与API领取.pdf
         ├── Claude3.5part2-API从入门到精通.zip
         ├── Claude3.5part3_tool_use工具调用全流程与2参数详解.ipynb
   ├── 开源大模型部署与调用-课件
      ├── 01_ChatGLM3-6B
         ├── ChatGLM3-6BPart3.1_服务器场景下ChatGLM3-6B部署与多种启动方式.ipynb
         ├── ChatGLM3-6BPart6_LORA微调原理&实战.ipynb
         ├── ChatGLM3-6BPart1_Ubuntu双系统安装教程.ipynb
         ├── ChatGLM3-6BPart7_PEFT主流高效微调方法介绍&实战.ipynb
         ├── ChatGLM3-6BPart4_以ChatGLM3为例实现本地大模型更新.ipynb
         ├── ChatGLM3-6BPart5_单机多卡启动大模型办法.ipynb
         ├── ChatGLM3-6BPart2_Ubuntu环境ChatGLM3-6B安装办法.ipynb
         ├── ChatGLM3-6BPart8_Langchain体系详解与v0.3安装部署.ipynb
         ├── ChatGLM3-6BPart3.2_AutoDL中快速部署ChatGLM3-6B模型.pdf
      ├── 03_Llama3.1Llama 3.1介绍与部署流程.ipynb
      ├── 09_Marco-01推理大模型参数介绍与本地部署.ipynb
      ├── 12_Llama.cpp开源推理框架量化模型使用指南.ipynb
      ├── 08_Ollama最新版本从入门到进阶攻略.ipynb
      ├── 14_Cursor以调用QWQ推理大模型为例实现辅助编程.ipynb
      ├── 13_GLM4-Voice语音模型参数介绍与部署.ipynb
      ├── 11_Qwen2VL多模态视觉识别模型参数介绍与部署.ipynb
      ├── 02_GLM4-9B-ChatGLM4-9b部署&vLLM推理.ipynb
      ├── 05_Qwen2.5Qwen2.5介绍与部署流程.ipynb
      ├── 10_GLM-Edge-V端侧多模态模型参数介绍与部署流程.ipynb
      ├── 04_Llama3.2Llama3.2介绍与部署流程.ipynb
      ├── 06_Qwen2.5Qwen2.5-Coder&Math介绍部署.ipynb
   ├── Agent开发实战-课件
      ├── 15_MicroSoft AutoGen 开发框架基础入门
         ├── autogen.zip
         ├── Ch 15_MicroSoft AutoGen 基础入门.ipynb
      ├── 项目开发实战一:从零搭建多功能智能体 MateGen Pro(第一部分)
         ├── 项目开发实战一:MateGen Pro.ipynb
         ├── mategen_pro-main.zip
      ├── 03_ReAct Agent 基础理论与项目实战
         ├── ReAct_AI_Agent.zip
         ├── 03_ReAct Agent 基础理论与项目实战.ipynb
      ├── 14_LangGraph 多代理与 GraphRAG 综合应用实战
         ├── company.txt
         ├── Ch.14 LangGraph Supervisor 多代理架构与 GrapRAG 综合应用实战.ipynb
      ├── 06_OpenAI Assistant API 高阶应用 - 流式输出_20241010_175342
         ├── AssistantStreaming.zip
         ├── 06_OpenAI Assistant API 高阶应用 - 流式输出.ipynb
      ├── 01_大模型应用发展及Agent前沿技术趋势.ipynb
      ├── 02_AI Agent应用类型及Function Calling开发实战.ipynb
      ├── 04_OpenAI Assistant API 基本理论与入门实战.ipynb
      ├── 05_OpenAI Assistant API 进阶应用.zip
      ├── 12_LangGraph 中 Human-in-the-loop 应用实战.ipynb
      ├── 10_LangGraph 实现自治循环代理(ReAct)及事件流的应用.ipynb
      ├── 09_单代理架构在 LangGraph 中构建复杂图的应用.ipynb
      ├── 16_MicroSoft AutoGen 代理对话与人机交互源码解析.ipynb
      ├── 11_LangGrah 长短期记忆实现机制及检查点的使用.ipynb
      ├── 07_LangGraph底层原理解析与基础应用入门.ipynb
      ├── 08_LangGraph中State状态模式与LangSmith基础使用入门(1).ipynb
      ├── 13_LangGraph Multi-Agent Systems 开发实战.ipynb
├── 在线大模型部署调用
   ├── 1
      ├── Claude03_API_KEY领取及调用.ts
      ├── Claude07_tool use全流程讲解与wiki搜索实战.ts
      ├── Claude04_API必须参数揭秘,多轮对话机器人速成指南_x264.ts
      ├── Claude13_异步的API调用的讲解与实践.ts
      ├── Claude12_异步的使用原因与基本语法.ts
      ├── Claude01_了解Claude的所有特质.MP4
      ├── Claude11_stream流式概念与使用方法讲解.ts
      ├── Claude09_揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts
      ├── Claude10_stream函数及生成器本质讲解.ts
      ├── Claude06_API生成定制化与提示工程实战长文档.mp4
      ├── Claude08_tool_choice与定制Json输出及tool_use大实战.ts
      ├── Claude05_API多模态的最佳实践.ts
      ├── Claude02_Claude的注册流程.ts
   ├── 7
      ├── GLMAssistantAPI05_复刻AssistantAPI.ts
      ├── GLMAssistantAPI02_多个assistant演示解析使用.ts
      ├── GLMAssistantAPI03_将智能体集成Agent类使用.ts
      ├── GLMAssistantAPI04_构建fastapi的Web项目.ts
      ├── GLMAssistantAPI01_调用assistantAPI流程与效果.ts
   ├── 3
      ├── GPT02_OPEN AI官网及开发者平台使用指南.ts
      ├── GPT01_OPENAI的账号注册速通.ts
      ├── GPT04_API账户充值及领取API_KEY及首次调用API.ts
      ├── GPT03_虚拟信用卡开通与升级GPT_Plus会员.ts
   ├── 5
      ├── GPTo101_o1大模型原理介绍 从4o到o1实际上发生了什么.ts
      ├── GPTo103_通过COT制作4o-mini版本的o1模型实战.ts
      ├── GPTo105_用o1蒸馏模型实战(上).ts
      ├── GPTo106_用o1蒸馏模型实战(下).ts
      ├── GPTo104_2种加载模型o1没有的Json结构功能与实战.ts
      ├── GPTo102_o1模型的API调用详解与总结.ts
   ├── 6
      ├── GLM01_GLM大模型API调用介绍与领取APIKEY.ts
      ├── GLM12_GLM的AllTool模型API调用.mp4
      ├── GLM06_tooluse上-一次api调用的tooluse.ts
      ├── GLM11_tool_use和流式结合的API调用.mp4
      ├── GLM03_大模型API调用的消息和构建多轮对话机器人.ts
      ├── GLM10_GLM4V图像多模态模型.mp4
      ├── GLM08_tooluse接入维基百科搜索实战.ts
      ├── GLM13_构建在线GLM的微调.mp4
      ├── GLM05_GLM的stream流式响应讲解.ts
      ├── GLM04_十分钟速通GLM的可选参数.ts
      ├── GLM02_GLM模型API初次调用与响应解析.ts
      ├── GLM09_CogVideoX视频生成大模型.ts
      ├── GLM07_tooluse下-两次api调用的tooluse.ts
   ├── 4
      ├── GPT4o08_tool use 维基百科实时写作助手实战.ts
      ├── GPT4o07_5步的 tool use完整的调用流程与汇总.ts
      ├── GPT4o16_tool_use微调(上)微调数据准备思路和微调准备.MP4
      ├── GPT4o12_Streaming流式响应详解.ts
      ├── GPT4o11_首token时延与提示缓存原理与最佳实践.ts
      ├── GPT4o01_4o文本生成API基本讲解与调用.ts
      ├── GPT4o14_风格微调(上)创建数据集与微调作业.ts
      ├── GPT4o13_函数调用中的Streaming流式响应.ts
      ├── GPT4o02_2个核心必需参数详解与对话消息本质剖析.ts
      ├── GPT4o09_并行的函数调用与实时股票价格历史走势绘图与分析实战.ts
      ├── GPT4o06_3步的 tool use基础讲解与实战社交媒体情绪数据分析.ts
      ├── GPT4o15_风格微调(下)微调作业运行与应用评估.ts
      ├── GPT4o04_精细控制生成可选参数系列讲解.ts
      ├── GPT4o17_tool_use微调(下)制造微调数据微调并评估结果.MP4
      ├── GPT4o10_输出生成结构化的3种方式(JSON结构化).ts
      ├── GPT4o05_4o多模态图片的文本生成API调用详解.ts
      ├── GPT4o03_多轮对话历史及面向对象多轮对话机器人实战.ts
   ├── 其他
      ├── GLM Assistant API集成与FastAPI服务复刻实战指南.ts
      ├── GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts
      ├── GLM模型:流式处理的工具调用多模态应用及模型微调实战指南.ts
      ├── DSPy优化器优化LLM程序.ts
   ├── 8
      ├── 加餐02 Computer Use API 详解(2)对话函数上.MP4
      ├── 加餐03 Computer Use API 详解(3)对话函数下.MP4
      ├── 加餐07 Computer Use docker安装部署全流程.MP4
      ├── 加餐08 Computer Use项目启动&实战案例.MP4
      ├── 加餐04 Computer Use API 详解(4)多轮对话及tool use.MP4
      ├── 加餐09 Computer Use源码详解.MP4
      ├── 加餐05 Computer Use API 详解(5)全组件总结.MP4
      ├── 加餐06 Computer use实战初窥.MP4
      ├── 加餐01 Computer Use API 详解(1)准备工作.MP4
   ├── 2
      ├── Gemini04_掌握原生generate_content函数多轮对话技巧.ts
      ├── Gemini08_API精细化控制生成之Temperature与Stop Sequen.ts
      ├── Gemini05_API内置简化多轮对话的start_chat函数与ChatSessi.ts
      ├── Gemini01_Gemini注册指南-最新模型免费API调用.ts
      ├── Gemini10_API精细化控制生成结构化与Json参数.ts
      ├── Gemini07_API精细化控制生成之generation_config与max_t.ts
      ├── Gemini06_API精细化控制生成之System Instruction.ts
      ├── Gemini02_生态体验攻略与微调实战.ts
      ├── Gemini03_解锁 Gemini API-开启文本生成之旅.ts
      ├── Gemini09_提示工程之长文档实战.ts
├── 开源大模型部署调用
   ├── 6
      ├── Qwen2.5Coder&Math01_Coder介绍.ts
      ├── Qwen2.5Coder&Math02_Math介绍.ts
      ├── Qwen2.5Coder&Math09_线上部署推理Coder流程.ts
      ├── Qwen2.5Coder&Math07_vLLM推理Coder流程.ts
      ├── Qwen2.5Coder&Math03_Coder技术文章分析.ts
      ├── Qwen2.5Coder&Math04_Math技术文章分析.ts
      ├── Qwen2.5Coder&Math06_Coder本地部署推理流程.ts
      ├── Qwen2.5Coder&Math10_Math部署流程.ts
      ├── Qwen2.5Coder&Math08_Ollama推理Coder流程.ts
      ├── Qwen2.5Coder&Math05_Math线上体验.ts
   ├── 7
      ├── Glm-Edge-v-5B模型介绍与本地部署.ts
      ├── Llama.cppQwen2VL为例实现GGUF模型量化与调用办法.ts
      ├── Ollama最新版本保姆级指南.ts
      ├── Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
      ├── Cursor调用QWQ实现辅助编程--调用本地模型全流程.ts
      ├──Windows环境下使用Ollama启动多模态模型llama3.2Vision全流程.ts
      ├── Qwen2VL多模态模型参数介绍&部署使用全流程.ts
      ├── CursorWindows环境下调用QWQ线上API实现辅助编程方法.ts
      ├── Qwen2--5Coder本地部署使用全流程.ts
      ├── Cursor&Coder高效低代码开发办法.ts
      ├── Qwen2--5Coder:32B基本介绍和测试.ts
      ├── Llama.cppQwen2.5为例实现量化模型启动与API调用.ts
      ├── Marco-o1模型介绍与本地部署.ts
   ├── 大模型微调实战
      ├── 2
         ├── Ch 6.6 RLHF挑战与改进方向.ts
         ├── Ch 6.5 RLHF全流程微调.ts
         ├── Ch 6.4 奖励模型训练流程.ts
         ├── Ch 6.3 奖励模型原理.ts
         ├── Ch 6.2 RLHF流程拆解与核心.ts
         ├── Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
      ├── 1
         ├── Ch 5.4 PPO模型与数据的选择.ts
         ├── Ch 5.5 PPO微调实操.ts
         ├── Ch 5.1PPO&llama3.2_什么是PPO算法.ts
         ├── Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
         ├── Ch 2.4 实战Qwen2.5微调.ts
         ├── Ch 4.3如何在windows配置环境.ts
         ├── Ch 2.3 LLama_factory 安装部署及验证.ts
         ├── Ch 5.2 如何理解PPO.ts
         ├── Ch 3.3 模型微调及参数详解.ts
         ├── Ch 4.2 Qlora核心概念.ts
         ├── Ch 1.1 通用模型发展与微调前景.ts
         ├── Ch 1.4 高效微调及范围.ts
         ├── Ch 1.6 主流微调框架.ts
         ├── Ch 1.2 微调与其他技术的区别和关联.ts
         ├── Ch 1.5 强化学习RHLF介绍.ts
         ├── Ch 1.3 微调步骤及技术栈.ts
         ├── Ch 2.2 LLama_factory 介绍.ts
         ├── Ch 5.6 PPO源码解读.ts
         ├── Ch 3.2 llamafactory中如何使用和注册数据集.ts
         ├── Ch 3.4 数据验证&deepspeed微调.ts
         ├── Ch 3.1 如何获取数据源及使用解析.ts
         ├── Ch 2.1 Lora原理详解.ts
         ├── Ch 4.4 Qlor微调实战与验证.ts
         ├── Ch 2.5 配置TensorBoard.ts
         ├── Ch 5.3 各个模型PPO算法的协作关系.ts
      ├── 其他
         ├── window系统微调QLORA.ts
         ├── LLama_Factory+LORA大模型微调.ts
         ├── LLama_factory&Lora微调Qwen2.5NL2sql.ts
         ├── PPO微调Llama-3.2.ts
   ├── 3
      ├── Llama3.203_Ollama在Linux和Windows部署方法.ts
      ├── Llama3.104_官网以及Ollama部署流程.ts
      ├── Llama3.105_ModelScope线上部署.ts
      ├── Llama3.106_ModelScope本地部署.ts
      ├── Llama3.101_Llama家族系列模型生态介绍.ts
      ├── Llama3.202_官网下载流程.ts
      ├── Llama3.107_LlamaFactory中文能力微调实例.ts
      ├── Llama3.201_基本介绍与线上测试办法.ts
      ├── Llama3.103_技术论文解读.ts
      ├── Llama3.102_线上体验办法.ts
   ├── 2
      ├── GLM4-9B02_安装部署流程展示.ts
      ├── GLM4-9B04_vLLM介绍和部署应用.ts
      ├── GLM4-9B03_多种启动方式流程展示.ts
      ├── GLM4-9B01_模型基本介绍.ts
      ├── GLM4-9B05_WSL部署流程.ts
   ├── 4
      ├── Qwen2.505_Windows系统中使用Ollama框架部署流程.ts
      ├── Qwen2.506_vLLM部署与调用流程.ts
      ├── Qwen2.502_ModelScope本地化部署流程.ts
      ├── Qwen2.503_ModelScope线上部署办法.ts
      ├── Qwen2.504_Ollama框架部署流程.ts
      ├── Qwen2.501_基本介绍与线上体验办法.ts
   ├── 5
      ├── GLM4-Voice02_多模态与AGI技术展望.ts
      ├── GLM4-Voice04_线上部署流程.ts
      ├── GLM4-Voice05_开源大模型比拼-排行榜介绍.ts
      ├── GLM4-Voice01_模型基本介绍.ts
      ├── GLM4-Voice03_本地化部署流程.ts
   ├── 1
      ├── ChatGLM3-6B12_PEFT高效微调原理浅析.ts
      ├── ChatGLM3-6B07_ChatGLM3-6b为例的大模型更新办法.ts
      ├── ChatGLM3-6B14_LangChian体系详解.ts
      ├── ChatGLM3-6B09_LoRA原理浅析.ts
      ├── ChatGLM3-6B06_Git方法简洁下载ChatGLM3-6b.ts
      ├── ChatGLM3-6B10_LoRA微调实战训练.ts
      ├── ChatGLM3-6B15_LangChain0.3安装部署与调用方法.ts
      ├── ChatGLM3-6B11_DeepSpeed原理浅析.ts
      ├── ChatGLM3-6B04_ChatGLM3-6b的多种启动方法.ts
      ├── ChatGLM3-6B05_AutoDL快速部署ChatGLM3-6b办法.ts
      ├── ChatGLM3-6B08_单机多卡启动大模型办法.ts
      ├── ChatGLM3-6B02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4
      ├── ChatGLM3-6B03_服务器环境下部署ChatGLM3-6b.ts
      ├── ChatGLM3-6B01_Ubuntu双系统安装.MP4
      ├── ChatGLM3-6B13_P-Tuning V2微调实战.ts
├── 企业级实战
   ├── 1
      ├── MateGenProCh 4. SQLAlchemy原理与项目接入.ts
      ├── MateGenProCh 3. MateGen Pro 后端API核心模块设计.ts
      ├── MateGenProCh 1. MateGen Pro 项目整体架构介绍.ts
      ├── MateGenProCh 8 会话管理模块表结构设计与代码讲解.ts
      ├── MateGenProCh 5. MateGen 数据库初始化逻辑.ts
      ├── MateGenProCh 7 缓存池与系统初始化逻辑.ts
      ├── MateGenProCh 6 API_Key接口初始化与校验.ts
      ├── MateGenProCh 2. 本地运行MateGen Pro项目流程.ts
   ├── 2
      ├── AssistGen Ch 1.5 Deepseek v3 & R1 在线 API 调用.MP4
      ├── AssistGen Ch 1.1 项目介绍与课程安排.MP4
      ├── AssistGen Ch 1.6 AssistGen 项目结构与本地启动流程介绍.MP4
      ├── AssistGen Ch 1.2 Ollama 本地部署 DeepSeek R1 模型.MP4
      ├── AssistGen Ch 1.4 Ollama 兼容 OpenAI API 接口规范.MP4
      ├── AssistGen Ch 1.3 Ollama REST API 核心接口:gener.MP4
├── 直播回放篇
   ├── 直播回放
      ├── 24
         ├── Llama 3.1介绍与部署流程.ts
         ├── LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts
         ├── LangGraph 长短期记忆实现机制及检查点的使用.ts
         ├── Qwen2.5-Coder&Math介绍与部署.ts
         ├── GLM-4-Video-9b 介绍与部署流程.ts
         ├── LangGraph中State状态模式与LangSmith基础使用入门.ts
         ├── Qwen2.5介绍与部署流程.ts
         ├── LangGraphHuman-in-the-loop 应用实战.ts
         ├── o1模型详解与模型蒸馏实战.ts
         ├── Llama 3.1&2部署微调.ts
         ├── OPENAI的Streaming流式响应与API微调双实战,Claude computer use接入自己的电脑.ts
         ├── GPT4o的API基本调用精细生成控制与多模态实操.ts
         ├── GPT4o的函数调用实战与结构化生成回答与提示缓存原理.ts
      ├── 25-1
         ├── 企业级 Agent 项目实战:智能客服》- AssistGen.ts
   ├── 加餐-前沿技术追更
      ├── 加餐01 Computer Use API 详解(1)准备工作.ts
      ├── 加餐05 Computer Use API 详解(5)全组件总结.ts
      ├── 加餐08 Computer Use项目启动&实战案例.ts
      ├── 加餐07 Computer Use docker安装部署全流程.ts
      ├── 加餐04 Computer Use API 详解(4)多轮对话及tool use.ts
      ├── 加餐02 Computer Use API 详解(2)对话函数上.ts
      ├── 加餐09 Computer Use源码详解.ts
      ├── 加餐06 Computer use实战初窥.ts
      ├── 加餐03 Computer Use API 详解(3)对话函数下.ts
├── RAG项目实战企业篇
   ├── week_5_part_4_项目整体框架下实现基于Agent的问答流程代码实践.ts
   ├── week_2_2_part_3_项目启动文件详细说明及流程复现.mp4
   ├── week_5_part_1_大模型融入推荐系统一种思路_1.MP4
   ├── week_2_1_part_1_本周开发任务说明.mp4
   ├── week_3_2_part_2_RAG评估框架-TruLens实践.mp4
   ├── week_3_1_part_2_结合Faiss向量数据的RAG Indexing构建流程.mp4
   ├── week_3_1_part_4_yolox + orc 识别私有PDF语料的方案实践.mp4
   ├── week_4_2_part_1_Serper API联网检索数据预处理过程拆解.mp4
   ├── week_1_1_part_2_本地私有化部署glm4-9b-chat模型.mp4
   ├── week_1_2_part_3_FastAPI项目介绍.mp4
   ├── week_5_part_3_基于Langchain实现基于ReAct的代码实践及TOT提示.MP4
   ├── week_2_2_part_1_通用问答流程整体流程介绍及参数说明.mp4
   ├── week_4_1_part_4_自定义RAG评估Pipeline-评估指标及评估流程实现.mp4
   ├── week_4_1_part_1_自定义RAG评估Pipeline-构建统一的数据集格式.mp4
   ├── week_1_1_part_1_课程说明及大模型问答功能复现.mp4
   ├── week_1_1_part_3_调用本地启动的glm4模型的方法.mp4
   ├── week_4_1_part_2_自定义RAG评估Pipeline-构建统一的提示模板.mp4
   ├── week_2_1_part_3_RAG集成历史对话信息及SqlalChemy持久化存储的使.mp4
   ├── week_4_2_part_2_基于Serper实现系统架构下的联网实时检索功能.mp4
   ├── week_2_1_part_2_Naive RAG介绍及借助LangChain实现RAG流.mp4
   ├── week_5_part_2_大模型用于特征工程及实现推荐系统的整体逻辑代码.MP4
   ├── week_3_1_part_1_企业级RAG的构建架构和思路.mp4
   ├── week_1_2_part_1_GLM在线API调用方法.mp4
   ├── week_3_2_part_1_本地RAG知识库问答功能链路详解与复现.mp4
   ├── week_3_2_part_3_RAG评估框架-Ragas的使用及借助GLM4生成评估数据.mp4
   ├── week_4_1_part_5_自定义RAG评估Pipeline-ReRanker原理及实.mp4
   ├── week_2_2_part_2_FastChat项目说明及Python多进程.mp4
   ├── week_5_part_5_Docker介绍及借助Docker打包部署完整项目的流程.mp4
   ├── week_4_1_part_3_自定义RAG评估Pipeline-整体逻辑实现及细节说明.mp4
   ├── week_1_2_part_2_Langchain应用框架整体介绍.mp4
   ├── week_3_1_part_3_百万量级的wiki公有语料构建方法实践.mp4
├── 低代码开发实战Dify&Coze
   ├── 1
      ├── difyCh 1.4 dify&xinference打通融合.MP4
      ├── difyCh 2.4 构建知识库.MP4
      ├── difyCh 2.3 xinference细化安装.MP4
      ├── difyCh 2.1服务器源码部署dify&RAG_基础环境准备.MP4
      ├── difyCh 1.1 低代码平台介绍.MP4
      ├── difyCh 2.5 构建简单RAG.MP4
      ├── difyCh3.2 xinference+deepseek+dify全链路.MP4
      ├── difyCh3.3 window环境全链路实战+API检验.MP4
      ├── difyCh 1.2 Dify介绍与安装.MP4
      ├── difyCh 2.2 源码安装dify.MP4
      ├── difyCh 1.3 xinference介绍与安装.MP4
      ├── difyCh3.1 window环境下ollama+deepseek+dify全链路.MP4
侵权联系与免责声明 1、本站资源所有内容均收集于网络,与本网站立场无关 2、本站所有资源收集于互联网,由用户分享,该帖子作者与IT课程网不享有任何版权,如有侵权请联系本站删除 3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责 4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意 侵权联系邮箱:514719408@qq.com