共 71 篇文章
2025
通知 + 心得
5. Positional Encoding 位置编码
6. Multi-Head Self-Attention 多头自注意力
4. Self-Attention 自注意力
2. 注意力分数
3. Bahdanau 注意力(Seq2Seq + Attention)
LLMs基本概念 + 发展历史 + 构建流程(书)
4.多输入通道与多输出通道的卷积
3.填充和步幅(padding & stride)
2.图像卷积
1.从全连接层到卷积
1. Attention 核心思想
1.词嵌入(Word Embedding,Word2Vec)
4.长短期记忆网络 LSTM
3.门控循环单元 GRU