计算机系统应用教程网站

网站首页 > 技术文章 正文

终于有人从零到精通开始教大模型开发了!基于PyTorch与ChatGLM

btikc 2025-01-29 14:33:56 技术文章 20 ℃ 0 评论

该如何学习大模型?大模型是什么?

大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI 和 NLP 研究与产业中最重要的方向之一。

本文使用 PyTorch2.0作为学习大模型的基本框架,以 ChatGLM 为例详细讲解大横型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。

目录

本文包含的内容

本文共包含18部分内容,内容包括人工智能与大横型、PyTorch 2.0 深度学习环境搭建、从零开始学习PyTorch 2.0、深度学习基础算法详解、基于 PyTorch 卷积层的 MNIST 分类实战 、PyTorch 数据处理与模型展示、ResNet实战、有趣的词嵌入、基于PyTorch循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型BERT、自然语言处理的解码器、强化学习实战、只具有解码器的GPT-2 模型、实战训练自己的ChatGPT、开源大模型ChatGLM使用详解、ChatGLM 高级定制化应用实战、对ChatGLM 进行高级微调。

1.1 人工智能:思维与实践的融合

1.2 大模型开启人工智能的新时代

2.1 环境搭建1:安装 Python

2.2 环境搭建2:安装 PyTorch 2.0

2.3 生成式模型实战:古诗词的生成

3.1 实战 MNIST 手写体识别

3.2 自定义神经网络框架的基本设计

4.1 反向传播神经网络的前身历史

4.2 反向传播神经网络两个基础算法详解

4.3 反馈神经网络反向传播算法介绍

5.2 实战:基于卷积的 MNIST手写体分类

5.3 PyTorch的深度可分离膨胀卷积详解

6.2 实战:基于tensorboardX的训练可视化展示

7.1 ResNet 基础原理与程序设计基础

7.2 ResNet 实战: CIFAR-10 数据集分类

8.2 更多的词嵌入方法——FastText 和预训练词向量

8.4 针对文本的卷积神经网络模型简介——词卷积

8.5 使用卷积对文本分类的补充内容

9.1 实战:循环神经网络与情感分类

10.1 编码器的核心——注意力模型

12.1 解码器的核心——注意力模型

15.1 什么是 ChatGPT

16.1 为什么要使用大模型

18.1 ChatGLM 模型的本地化处理

本文包含的内容实在是太多了,一共有381页,这里小编就不做过多的介绍了,已经整理成册,需要的小伙伴,可以转发此文关注小编,私信小编【笔记】来进行获取!

并有54道AI大模型面试题领取~


本文适合的读者

本文适合 PyTorch 深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为参考。

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表