Neurowave
  • 首页
  • 归档
  • 分类
  • 标签
  • 说说
  • 统计
  • 关于

8. DeepSeek-V3(V2)详读 5 (设施+预训练+后训练)

这个部分涉及 基础设施,预训练,后训练。只是对原文的整理,暂时没有扩展内容。 3. 基础设施 3.1. 计算集群 DeepSeek-V3 训练使用 2048 块 NVIDIA H800 GPU 的集群。每节点有 8 块 GPU,通过 NVLink 和 NVSwitch 互联,节点间通过 InfiniBand(IB)通信。 图 4 | 前向和反向块的重叠策略(transformer 块的边界
2025-06-24 Updated within 7 days
Paper阅读
#Paper #DeepSeekV3 #FP8 #TrainingOptimization #LLM #Infrastructure #Pretraining #PostTraining #GRPO #SFT #RL

LangChain 4 服务部署与链路监控

LangServe 服务部署 LangSmith Tracing(跟踪) Verbose(详细日志打印) Debug(调试日志打印) 内容会参数版本冲突问题,Pydantic 需要 v2.x 才能访问openapi.json,但是 LangServe需要 v1 才能使用。所以仅供学习参考,暂时我没有解决的方法。我感觉作者演示的时候使用的 v1 的 langserve app 打开的 API 文
2025-06-28
LLMs
#LLM #RAG #AI #LangChain #Framework #Agent #LCEL #Chain

LangChain 3 工作流编排

1. 工作流编排是什么? 就是把多个步骤(如提示词构建、模型推理、输出解析、工具调用等)组合成一条自动化流水线。 你可以像搭积木一样,把 Prompt、LLM、OutputParser、甚至外部 API、数据库、工具(Tool/Agent)串起来,实现复杂业务流程。 2. 编排方式 LangChain 推荐的工作流编排方式有两种主流: Pipe(管道式)编排 用 | 把每一步组件串联
2025-06-27
LLMs
#LLM #RAG #AI #LangChain #Framework #Agent #LCEL #Chain

LangChain 2 基础用法

1. LangChain 聊天模板(ChatPromptTemplate)用法 1.1 通过消息数组创建聊天消息模板 用 ChatPromptTemplate.from_messages() 创建聊天消息模板。 每条消息由“角色/类型”+“内容”组成。常见角色有: system:系统消息 human:用户消息 ai:AI/助手回复 消息内容支持插入参数(如 {name
2025-06-26
LLMs
#LLM #RAG #AI #LangChain #Framework #Agent #LCEL #Chain

LangChain 1 基础概念

定位: 开源 Python AI 应用开发框架。 核心: 基于大型语言模型,提供模块和工具,简化与 LLM 的集成。 支持模型: OpenAI 的 GPT 系列、Claude 3.5、千问模型等主流大语言模型。 能力: 支持文本生成、问答、翻译、对话等任务。 解决问题: 降低 AI 应用开发的门槛,使开发者能轻松构建创意 AI 应用。 1. LangChain 特性总结 LLM 和提
2025-06-25
LLMs
#LLM #RAG #AI #LangChain #Framework #Agent #LCEL #Chain

Prompt 工程基础

1. 两种大语言模型 基础大模型(Base LLM) 训练方式:基于大规模文本语料,通过预测下一个词来学习语言规律。 能力特点: 会生成自然语言(如讲故事):在很久很久以前,有一只小白兔…… 具备一定常识问答能力,但容易出错:中国的首都是哪座城市?(基础模型可能不一定回答准确) 指令调优大模型(Instruction Tuned LLM) 训练方式: 在基础大模型上继续训练
2025-02-27
LLMs
#LLM #AI #PromptEngineering #ChatGPT #InstructionTuning

7. InstructGPT 核心

7.1 InstructGPT 核心 1. 问题与动机 问题 :语言模型(如GPT-3)规模扩大后仍存在幻觉、偏见、有害内容等问题,未对齐人类意图。 目标 :通过人类反馈强化学习 (RLHF),使模型具备有用性、诚实性、无害性 。 2. 核心方法:RLHF 三阶段流程 Step 1:监督微调(SFT) 输入:随机抽取的指令(如“解释登月”)+ 人工标注的理想回答。 过程:用高质量问答对对
2025-04-20
Paper阅读
#DeepLearning #Paper #InstructGPT #RLHF #NLP #Alignment

7. InstructGPT 详读

InstructGPT 详读 本文并非全部翻译,但尽可能的保持文章原意。有逻辑的描述论文的思路,实验。并加了一些理解与例子的备注,如果需要快速了解本文精华内容,可以参考另外一篇总结性文章。 Abstract 问题背景:只让语言模型变大,并不能更好的让它按用户的意图办事。模型规模再大,也可能胡说八道、输出有害内容或者根本没帮上忙。—— 模型和人类想法 没有对齐。 提出方法:本文探索了一条新
2025-04-20
Paper阅读
#DeepLearning #Paper #InstructGPT #RLHF #NLP #Alignment

6. The Dixon-Coles Model

The Dixon-Coles Model 声明:本文为本人毕业研究报告《The Exploration of Pairwise Comparison in Football Application》中的部分内容摘录与整理,仅用于学习与交流。 Introduction The Dixon-Coles model [1] addresses the challenges of football b
2023-12-13
Paper阅读
#DeepLearning #Statistics #Paper #DixonColes #FootballPrediction #Poisson

5. The Maher Model

The Maher Model 声明:本文为本人毕业研究报告《The Exploration of Pairwise Comparison in Football Application》中的部分内容摘录与整理,仅用于学习与交流。 Introduction Firstly, according to Maher’s research [2], we provide a brief introdu
2023-12-12
Paper阅读
#DeepLearning #Statistics #Paper #FootballPrediction #Poisson #Maher
1234…8

搜索

Hexo Fluid
载入天数... 载入时分秒...

Copyright © 2025 Artin Tan. All rights reserved.

总访问量 次 总访客数 人