跳转至
大模型微调技术V6.0
欢迎学习大模型微调技术
正在初始化搜索引擎
大模型微调技术V6.0
1:大模型微调基础
1:大模型微调基础
1.1 大模型微调是什么?
1.2 LLM主要架构
2.1 GPT的训练方式
2.2 LLM主流开源模型训练
2:大模型微调主要方式
2:大模型微调主要方式
2.1 大模型Prompt-Tuning方法
2.2 大模型PEFT微调方法
3:基于GPT2的医疗问诊机器人
3:基于GPT2的医疗问诊机器人
3.1 医疗问诊机器人实现
4:新零售行业评价决策系统
4:新零售行业评价决策系统
4.1 项目背景介绍
4.2 BERT+PET方式文本分类介绍
4.3 BERT+PET方式数据预处理
4.4 BERT+PET方式模型代码实现和训练
4.5 BERT+P-Tuning方式文本分类介绍
4.6 BERT+P-Tuning方式数据预处理
4.7 BERT+P-Tuning方式模型代码实现和训练
5:基于ChatGLM微调多任务实战
5:基于ChatGLM微调多任务实战
5.1 项目整体简介
5.2 多任务数据预处理方式
5.3 LoRA方式微调ChatGLM模型代码实现和训练
5.4 趋动云使用《扩展》
欢迎学习大模型微调技术
¶