Neurowave
  • 首页
  • 归档
  • 分类
  • 标签
  • 说说
  • 统计
  • 关于
LNNs 7
1. Linear Regression 2. Softmax 回归 3. Multilayer Perceptron(MLP) 4. Model Selection(过拟合,欠拟合) 5. Weight Decay(权重衰退) 6. Dropout(丢弃法) 7. 数值稳定
CNNs 4
1.从全连接层到卷积 2.图像卷积 3.填充和步幅(padding & stride) 4.多输入通道与多输出通道的卷积
RNNs 4
1.文本预处理 2.RNN相关基础知识 3.门控循环单元 GRU 4.长短期记忆网络 LSTM
NLP 2
李沐《手动深度学习》环境配置问题 1.词嵌入(Word Embedding,Word2Vec)
Attention 6
1. Attention 核心思想 2. 注意力分数 3. Bahdanau 注意力(Seq2Seq + Attention) 4. Self-Attention 自注意力 5. Positional Encoding 位置编码 6. Multi-Head Self-Attention 多头自注意力
Transformer 2
1. Transformer前世今生 2. Transformer(书)
LLMs 15
Conda环境配置 OpenAI 常用参数 Prompt 工程基础 LLMs基本概念 + 发展历史 + 构建流程(书) 从0训练 LLM 的完整流程 GPT(书) LLaMa(书) 注意力机制优化(书) LangChain 1 基础概念 LangChain 2 基础用法 LangChain 3 工作流编排 LangChain 4 服务部署与链路监控 RAG(检索增强生成)基础 RAG 高级用法 AutoDL GPU介绍
Paper阅读 14
1. The Thurstone Model 2. The Bradley-Terry Model 3. The Rao-Kupper Model 4. The Davidson Model 5. The Maher Model 6. The Dixon-Coles Model 7. InstructGPT 详读 7. InstructGPT 核心 8. DeepSeek-V3(V2)详读 1(Abstract + Introduction) 8. DeepSeek-V3(V2)详读 2(架构 + MLA) 8. DeepSeek-V3(V2)详读 3(架构 + DeepSeekMoE) 8. DeepSeek-V3(V2)详读 4(架构 + MTP) 8. DeepSeek-V3(V2)详读 5 (设施+预训练+后训练) 9. RAFT(RAG + SFT):让LLM更聪明地做领域特定 RAG
System 2
MacOS-M2 如何进入恢复模式管理SIP macOS 环境变量
Hexo 14
1.博客搭建 2.SSH 连接 GitHub:告别 Token 3.成功解决Error:Spawn failed错误 4.使用 GitHub Actions 自动部署 Hexo 博客 5.配置自定义域名 6.文章在首页显示“更新”标志 7. “分类”中文章按时间排序 8.文章草稿-不显示 9.文章加密 10.文章首页置顶功能 11. “分类”页面 文件夹排序(支持优先级自定义) 通知 + 心得 12. 更换域名的 DNS 服务器 13. 添加博客访问统计面板
Projects 1
数据科学 - 客户流失预测:基于随机森林的分析与优化

搜索

Hexo Fluid
载入天数... 载入时分秒...

Copyright © 2025 Artin Tan. All rights reserved.

总访问量 次 总访客数 人