D丁师兄大模型训练营网盘资源免费观看百度云网盘链接提取码分享下载
- file:学习资料【耗时整理‖cunlove.cn】.doc
- file:本阶段作业和考试.docx
- file:怎么学?.docx
- file:本阶段作业和考试【公众号:CunWorkNotes】.docx
- file:大模型(LLMs)agent 面【耗时整理‖cunlove.cn】.pdf
- file:大模型(LLMs)训练集面.pdf
- file:大模型(LLMs)进阶面【公众号:CunWorkNotes】.pdf
- file:预习资料:Transformer和bert 2024-02-02 08_56【耗时整理‖cunlove.cn】.mp4
- file:大模型训练营8:大模型技术一览,一些细节 2024-01-30 22_46【公众号:CunWorkNotes】.mp4
- file:1.距离精讲 2024-02-01 22_33 【公众号:CunWorkNotes】.mp4
- file:大模型训练营4:prefixtuning和adapter【公众号:CunWorkNotes】.mp4
- file:2.向量数据库基础 2024-02-01 23_31【耗时整理‖cunlove.cn】.mp4
- file:大模型训练营3:项目实战:文旅对话大模型实战(模型参数微调【耗时整理‖cunlove.cn】.mp4
- file:大模型训练营2.大数据和大模型,常见分词方法 【公众号:CunWorkNotes】.mp4
- file:丁师兄综合项目实战项目.zip
- file:高频面试题-阶段4.html
- file:【进阶】提示工程高级用法.doc
- file:chatGPT提示词工程进阶教学 _ 汉化:跃迁AI - 4.chatGPT提示词工程进阶教学 _ 第四期:如何用大语言模型总结文本 (L(Av826343014,P4)【公众号:CunWorkNotes】.mp4
- file:prompt-tutorial-main.zip
- file:【原理】大白话提示工程.doc
- file:4.prefix tuning原理与实战【耗时整理‖cunlove.cn】.mp4
- file:1.参数高效微调与BitFit实战【公众号:CunWorkNotes】.mp4
- folder:D丁师兄大模型训练营
- folder:阶段9:产品级LLM推理优化方法论
- folder:阶段8:大模型分布式并行训练
- folder:阶段4:prompt提示工程实战
- folder:阶段7:大语言模型的训练和构建
- folder:18-LLM-模型
- folder:阶段6:基于垂直数据大模型微调
- folder:阶段11:综合项目实战1
- folder:阶段5:基于langchain搭建LLMs应用
- folder:阶段1:大模型必备的深度学习基础
- folder:面试题目
- folder:阶段10:推理引擎部署与优化实战
- folder:【入门】吴恩达Prompt公开课
- folder:31-LLM-Interview-Plus
- folder:大模型(LLMs)参数高效微调(PEFT)面
- folder:大模型(LLMs)langchain面
- folder:项目实战1:智能座舱汽车知识大脑_files
- folder:【实战】LangChain实战项目
- folder:3.【应用】自然语言处理
- folder:1.【框架】Pytorch学习
- folder:2.【原理】深度学习必看
- folder:【脉络】ChatGPT的前世今生
- folder:【原理】大模型原理
- folder:【手撕】图解系列之Transformer
- folder:项目实战2:大模型金融对话交互系统_files
- folder:项目实战2:法律方向智能问答系统
- folder:【实战】清华ChatGLM2-6B开源大模型部署
- folder:【框架】FastAPI后端框架
- folder:【产品化】压力测试
- folder:jinyong
- folder:nl2sql
- folder:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】
- folder:2.Andrej Karpathy大神亲授:大语言模型入门【中英】
- folder:【精校版】Andrej Karpathy微软Build大会精彩演讲: GPT状态和原理 - 解密OpenAI模型训练
- folder:反向传播和神经网络训练 · 大神Andrej Karpathy 的“神经网络从Zero到Hero 系列”之一
- folder:【精校】“让我们构建GPT Tokenizer”AI大神Andrej Karpathy最新大模型技术讲座 【中英】
- folder:3.InstructGPT 论文精读【论文精读·48】
- folder:【精校珍藏版】大牛Andrej Karpathy的stanford深度学习课程:深入理解Transformer,从零打造最简版GPT
- folder:新建文件夹
- folder:20 Transformer 的输出和输入是什么
- folder:07 预训练语言模型的下游任务改造简介(如何使用词向量)
- folder:19 Transformer 解码器的两个为什么(为什么做掩码、为什么用编码器-解码器注意力)
- folder:16 Transformer的编码器(Encodes)——我在做更优秀的词向量
- folder:Transformer和BERT看不懂来这里,告诉你他们的前世今生,必能懂
- folder:11 Self-Attention 相比较 RNN 和 LSTM 的优缺点
- folder:04 统计语言模型(n元语言模型)
- folder:09 Transformer 之什么是注意力机制(Attention)
- folder:1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
- folder:1401 位置编码公式详细理解补充
- folder:14 Transformer之位置编码Positional Encoding (为什么 Self-Attention 需要位置编码)
- folder:03 什么是预训练(Transformer 前奏)
- folder:06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)
- folder:12 Transformer的掩码自注意力机制,Masked Self-Attention(掩码自注意力机制)
- folder:08 ELMo模型(双向LSTM模型解决词向量多义问题)
- folder:05 神经网络语言模型(独热编码+词向量 Word Embedding 的起源)
- folder:25Token及模型参数准备篇
- folder:26多模态常见面试篇
- folder:22MOE(Mixture-of-Experts)篇
- folder:19LLMs 对比篇
- folder:12大模型(LLMs)显存问题面
- folder:17大模型(LLM)部署框架对比篇
- folder:21LLMs 测试集 中 数据泄露 问题篇
- folder:18大模型幻觉(LLM Hallucination)面
- folder:05大模型 RAG 经验面
- folder:29大模型推理加速——KV Cache篇
- folder:20思维链 Chain-of-Thought(COT)篇
- folder:16LLMs Tokenizer 常见面试篇
- folder:23大模型蒸馏篇
- folder:30大模型——角色扮演大模型篇
- folder:model-lora
- folder:wandb
- folder:train_data_token
- folder:MedDialog_processed
- folder:CS224N|2023更新-Huggingface课程|精翻中文|自然语言处理|2024最新
- folder:ChatGPT 是怎么炼成的 - GPT社会化的过程 (李宏毅)
- folder:checkpoint-2800
- folder:Feb13_14-19-25_WY-20230411FNEJ
- folder:offline-run-20240213_141010-gp9r5oou
- folder:rank_model
| 分享时间 | 2025-11-13 |
|---|---|
| 入库时间 | 2025-11-13 |
| 状态检测 | 有效 |
| 资源类型 | QUARK |
| 分享用户 | 有风*的梅花 |
资源有问题?
点此举报