从零实现大模型-BERT微调

news2024/11/13 12:23:58

The Annotated Transformer注释加量版:复现Transformer,训练翻译模型

The Annotated GPT2注释加量版:GPT2预训练

The Annotated BERT注释加量版:BERT预训练

从零实现大模型-GPT2指令微调:GPT2指令微调

按照顺序,轮也该轮到BERT指令微调了吧!

是微调,但不是指令微调!

我们在之前的文章介绍过大模型的多种微调方法,指令微调只是其中一种,就像训犬一样,让它坐就坐,让它卧就卧,同理,你让LLM翻译,它不是去总结,你让它总结,它不是去情感分析。

大语言模型白皮书,让你彻底搞懂训练,微调和提示工程

指令微调在像GPT这种自回归的模型中应用多一些。我们在前一篇文章中基于GPT-2预训练模型进行了指令微调。

除了指令微调,还有一种比较常用的是任务微调,预训练模型虽然具备一定的知识,但尚不能直接用于某些具体任务。

例如,虽然在BERT的预训练过程中,通过Masked Language Model (MLM)和Next Sentence Prediction (NSP)使其学习了语言的基本特征。

Masked Language Model (MLM)

Next Sentence Prediction (NSP)

但它仍不能直接用于自然语言推理(NLI)和问答(QA)等具体任务。因此,今天我们将对之前的BERT预训练模型进行进一步微调,使其能够更好地适应这些具体任务。

但完整代码如下,请结合代码阅读本文。

https://github.com/AIDajiangtang/LLM-from-scratch/blob/main/Bert_fine_tune_from_scratch.ipynb

在正式开始之前,有几点需要注意:

1.**在微调阶段,模型架构与预训练要一致,2.使用预训练模型的权重进行初始化而非随机初始化,3.使用预训练相同的分词方法和词表,4.**输入数据的格式与预训练阶段一致。例如,BERT模型通常要求输入序列包含[CLS]和[SEP]标记。

所以在下载预训练模型时,除了下载模型参数,通常还要下载配套的词表和模型超参数。

['bert_config.json',` `'bert_model.ckpt.data-00000-of-00001',` `'bert_model.ckpt.index',` `'vocab.txt']

如果要扩充词表来支持多语言,那模型结构中的嵌入层和输出层也需要更改,所以往往需要重新预训练。

有了前面四篇文章的烘托,本篇文章会忽略重复内容。

/ 01 /

微调任务1:自然语言推理

自然语言推理任务通常是判断两个句子之间的逻辑关系(如蕴涵、矛盾或中立)。

Next Sentence Prediction (NSP)可以看作是一种特殊的自然语言推理任务。

1.训练数据

本次微调用的数据来自GLUE MRPC,数据由成对的句子构成,并且还有一个人工标注的标签,表示两个句子是否语义相似。

 `FeaturesDict({`    `'idx': int32,`    `'label': ClassLabel(shape=(), dtype=int64, num_classes=2),`    `'sentence1': Text(shape=(), dtype=string),`    `'sentence2': Text(shape=(), dtype=string),``})`

下面打印一条数据。

idx      : 1680``label    : 0``sentence1: b'The identical rovers will act as robotic geologists , searching for evidence of past water .'``sentence2: b'The rovers act as robotic geologists , moving on six wheels .'
  • 对于每个样本中的句子对,拼接成一个输入序列,格式为:[CLS] 句子A [SEP] 句子B [SEP]。

  • 使用BERT的分词器将输入序列分词,并将其转换为输入ID、注意力掩码和类型ID。

词表参数:``{'vocab_size': 30522,` `'start_of_sequence_id': 101,` `'end_of_segment_id': 102,` `'padding_id': 0,` `'mask_id': 103}

设置batch_size=32,max_seq_length = 128。

则输入ID:

模型的输入X。

'input_word_ids': <tf.Tensor: shape=(32, 128), dtype=int32, numpy=` `array([[ 101, 1996, 7235, ...,    0,    0,    0],`        `[ 101, 2625, 2084, ...,    0,    0,    0],`        `[ 101, 6804, 1011, ...,    0,    0,    0],`        `...,`        `[ 101, 2021, 2049, ...,    0,    0,    0],`        `[ 101, 2274, 2062, ...,    0,    0,    0],`        `[ 101, 2043, 1037, ...,    0,    0,    0]], dtype=int32)>

注意力掩码:

注意力掩码用于区分实际的 token 和填充的 token,1表示实际的 token,0表示填充的 token。

在多头注意力计算时,注意力掩码会将填充位置对应的注意力权重设置为负无穷(通常是一个非常大的负数,如 -10^9),这样在通过 softmax 计算时,这些位置的权重就会接近于零,从而使这些填充位置不会对注意力分数产生影响。

在计算损失时,通常会忽略填充位置对应的 token。

'input_mask': <tf.Tensor: shape=(32, 128), dtype=int32, numpy=` `array([[1, 1, 1, ..., 0, 0, 0],`        `[1, 1, 1, ..., 0, 0, 0],`        `[1, 1, 1, ..., 0, 0, 0],`        `...,`        `[1, 1, 1, ..., 0, 0, 0],`        `[1, 1, 1, ..., 0, 0, 0],`        `[1, 1, 1, ..., 0, 0, 0]], dtype=int32)>,

类型ID:

表示token属于哪个句子,0表示属于句子A,1表示数据句子B。

'input_type_ids': <tf.Tensor: shape=(32, 128), dtype=int32, numpy=` `array([[0, 0, 0, ..., 0, 0, 0],`        `[0, 0, 0, ..., 0, 0, 0],`        `[0, 0, 0, ..., 0, 0, 0],`        `...,`        `[0, 0, 0, ..., 0, 0, 0],`        `[0, 0, 0, ..., 0, 0, 0],`        `[0, 0, 0, ..., 0, 0, 0]], dtype=int32)>

在将token id转换成词嵌入向量时,会将类型id视为segment Embedding。

标签:

[‘not_equivalent’, ‘equivalent’]->[0,1]

0:表示两个句子语义不相似。

1:表示两个句子语义相似。

<tf.Tensor: shape=(32,), dtype=int64, numpy=``array([0, 0, 1, 1, 0, 0, 1, 1, 1, 1, 1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 1, 1,`       `1, 1, 1, 1, 1, 0, 0, 1, 0, 1])>

到此,我们就构造了模型输入和标签。

input_word_ids  shape: (32, 128)``input_mask      shape: (32, 128)``input_type_ids  shape: (32, 128)``labels          shape: (32,)

2.模型

在模型架构上,相对于BERT预训练,在微调过程中,会在模型的输出层添加一个分类层。这个分类层的输入是[CLS]标记对应的隐藏状态,其输出是表示类别概率的logits。

因为EMB_SIZE = 768,所以分类层的输入(32, 768),输出(32, 768,2)。

3.微调

超参数``EMB_SIZE = 768//词嵌入维度``HIDDEN_SIZE = 768` `BATCH_SIZE = 32 #batch size``NUM_HEADS = 4 //头的个数

3.1.词嵌入

接下来将token ids转换成embedding,在Bert中,每个token都涉及到三种嵌入,第一种是Token embedding,token id转换成词嵌入向量,第二种是位置编码。还有一种是Segment embedding。用于表示哪个句子,0表示第一个句子,1表示第二个句子。

根据超参数EMB_SIZE = 768,所以词嵌入维度768,Token embedding通过一个嵌入层[30522,768]将输入[32,128]映射成[32,128,768]。

30522是词表的大小,[30522,768]的嵌入层可以看作是有30522个位置索引的查找表,每个位置存储768维向量。

位置编码可以通过学习的方式获得,也可以通过固定计算方式获得,本次采用固定计算方式。

Segment embedding和输入X大小一致,第一个句子对应为0,第二个位置为1。

最后将三个embedding相加,然后将输出的embedding[32,128,768]输入到编码器中。

****3.2.多头注意力

编码器的第一个操作是多头注意力,与Transformer和GPT中不同的是,不计算[PAD]的注意力,会将[PAD]对应位置的注意力分数设置为一个非常小的值,使之经过softmax后为0。

多头注意力的输出维度[32,128,768]。

****3.3.MLP

与Transformer和GPT中的一致,MLP的输出维度[32,128,768]。

****3.4.输出

编码器的输出[32,128,768],但我们只需要[CLS]对应的输出[32,768]。

二分类损失

通过另一个线性层[768,2]将开头的[CLS]的输出[32,768]映射成[32,2],表示属于正负类的概率,然后与标签[32,]计算交叉熵损失。

/ 02 /

微调任务2:问答

问答任务通常是给定一个段落和一个问题,模型需要从段落中找出答案的起始位置和结束位置。

示例

假设我们有一个段落和一个问题:

段落:“BERT is a model developed by Google for natural language processing tasks. It stands for Bidirectional Encoder Representations from Transformers.”

问题:“Who developed BERT?”

我们需要从段落中找出答案的起始位置和结束位置。在这个例子中,答案是 “Google”,它在段落中的位置如下:

  • 起始位置:6 (第7个词,“Google”)

  • 结束位置:6 (第7个词,“Google”)

超参数``max_seq_length = 128``EMB_SIZE = 768//词嵌入维度``HIDDEN_SIZE = 768` `BATCH_SIZE = 32 #batch size``NUM_HEADS = 4 //头的个数

1.训练数据

  • 输入预处理

将段落和问题转换为BERT的输入格式:[CLS] 问题 [SEP] 段落 [SEP]。

例如:[CLS] Who developed BERT? [SEP] BERT is a model developed by Google for natural language processing tasks. It stands for Bidirectional Encoder Representations from Transformers. [SEP]

  • 分词和ID转换

使用BERT的分词器将输入序列分词,并将其转换为输入ID、注意力掩码和类型ID。

input_word_ids  shape: (32, 128)``input_mask      shape: (32, 128)``input_type_ids  shape: (32, 128)``labels          shape: (32, 128, 2)#标记起始位置和结束位置

2.模型

  • 经过BERT模型的编码器处理后,每个标记都会有一个对应的隐藏状态向量。

  • 假设输入序列长度为L,那么输出将是一个形状为 (L, H) 的矩阵,其中L是序列长度,H是隐藏状态的维度(通常为768)。

  • 我们在BERT模型的输出层添加两个分类层(全连接层),分别用于预测答案的起始位置和结束位置。

  • 这些分类层的输入是每个标记对应的隐藏状态向量,其输出是表示起始和结束位置的logits。

上图中的start就是用于预测答案起始位置的全连接层。

3.微调

3.1.词嵌入

接下来将token ids转换成embedding,在Bert中,每个token都涉及到三种嵌入,第一种是Token embedding,token id转换成词嵌入向量,第二种是位置编码。还有一种是Segment embedding。用于表示哪个句子,0表示第一个句子,1表示第二个句子。

根据超参数EMB_SIZE = 768,所以词嵌入维度768,Token embedding通过一个嵌入层[30522,768]将输入[32,128]映射成[32,128,768]。

30522是词表的大小,[30522,768]的嵌入层可以看作是有30522个位置索引的查找表,每个位置存储768维向量。

位置编码可以通过学习的方式获得,也可以通过固定计算方式获得,本次采用固定计算方式。

Segment embedding和输入X大小一致,第一个句子对应为0,第二个位置为1。

最后将三个embedding相加,然后将输出的embedding[32,128,768]输入到编码器中。

****3.2.多头注意力

编码器的第一个操作是多头注意力,与Transformer和GPT中不同的是,不计算[PAD]的注意力,会将[PAD]对应位置的注意力分数设置为一个非常小的值,使之经过softmax后为0。

多头注意力的输出维度[32,128,768]。

****3.3.MLP

与Transformer和GPT中的一致,MLP的输出维度[32,128,768]。

****3.4.输出

编码器的输出[32,128,768],但我们只需要属于段落对应的输出[32,N]。

二分类损失

通过预测起始位置的全连接层[768,2]将段落对应的输出[32,N,768]映射成[32,N,2],表示属于起始位置的概率,通过掩码根据原始标签(32, 128, 2)获取起始位置的标签[32,N],然后与起始位置的标签[32,N]计算交叉熵损失。

同样,通过预测结束位置的全连接层[768,2]将段落对应的输出[32,N,768]映射成[32,N,2],表示属于起始位置的概率,然后与结束位置的标签[32,N]计算交叉熵损失。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1931458.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

海外媒体发稿:葡萄牙-实现高效媒体软文发稿计划-大舍传媒

一、葡萄牙媒体环境概述 葡萄牙&#xff0c;位于欧洲大陆西南端的国家&#xff0c;拥有丰富的文化和历史。在这个国家&#xff0c;媒体行业也有着相当大的影响力。葡萄牙的媒体环境多元化&#xff0c;包括电视、广播、报纸、杂志和互联网等各个领域。 二、葡萄牙媒体发稿的重…

Win10+Docker配置TensorRT环境

1.Docker下载和安装 Docker下载:Install Docker Desktop on Windows Docker安装: 勾选直接下一步就行,安装完成后需要电脑重启。 重启后,选择Accept—>Continue without signing in—>skip survey. 可以进入下面页面,并且左下角是绿色的,显示e…

前端开发之盒子模型

目录 盒子分类 display属性 盒子内部结构特征 padding填充区 border边框区 margin外边距 盒子width和height边界 盒子分类 块级盒子&#xff08;又叫块级元素、块级标签&#xff09; 特征&#xff1a;独占一行&#xff0c;对宽度高度支持 如&#xff1a;p div ul li h1…

Vue3项目基于Axios封装request请求

在 Vue 3 的项目开发中&#xff0c;使用 Axios 进行 HTTP 请求是非常常见的作法&#xff0c;为了更方便开发者更高效的进行代码编写和项目的维护&#xff0c;可以通过再次封装 Axios 来实现。 在本文中&#xff0c;博主将详细指导你如何在自己的 Vue 3 项目中使用 Axios 二次封…

【Java开发实训】day04——可变参数和递归练习

目录 一、可变参数 1.1定义 1.2注意 1.3示例 二、递归 2.1定义 2.2注意 2.3示例 2.4练习 &#x1f308;嗨&#xff01;我是Filotimo__&#x1f308;。很高兴与大家相识&#xff0c;希望我的博客能对你有所帮助。 &#x1f4a1;本文由Filotimo__✍️原创&#xff0c;首发于CSDN&…

CSS3实现提示工具的渐入渐出效果及CSS3动画简介

上一篇文章用CSS3实现了一个提示工具&#xff0c;本文介绍如何利用CSS3实现提示工具以渐入的方式呈现&#xff0c;以渐出的方式消失。 CSS3主要可以通过两个样式来实现动画效果&#xff1a;animation和transition。 其中&#xff0c;animation需要自己定义一组关键帧从而实现…

css实现前端水印

单处水印 代码 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0"><title>Watermark Example</title>&l…

昇思25天学习打卡营第24天|应用实践之Pix2Pix实现图像转换

基本介绍 今日要实践的模型是Pix2Pix模型&#xff0c;用于图像转换。使用官方的指定数据集&#xff0c;该数据集是已经经过处理的外墙&#xff08;facades&#xff09;数据&#xff0c;可以直接使用mindspore.dataset的方法读取。由于Pix2Pix模型是基于cGAN&#xff08;条件生成…

SQL常用数据过滤---IN操作符

在SQL中&#xff0c;IN操作符常用于过滤数据&#xff0c;允许在WHERE子句中指定多个可能的值。如果列中的值匹配IN操作符后面括号中的任何一个值&#xff0c;那么该行就会被选中。 以下是使用IN操作符的基本语法&#xff1a; SELECT column1, column2, ... FROM table_name WH…

MQ四兄弟:如何实现延时消息

RabbitMQ延时消息 RabbitMQ 本身并没有直接支持延时消息的功能&#xff0c;但是可以通过使用 RabbitMQ 插件或构建消息死信队列&#xff08;Dead Letter Exchange, DLX&#xff09;的方式来实现延时消息。以下是两种实现延时消息的方法&#xff1a; 1、死信队列 (Dead-Letter …

kubernetes集群部署elasticsearch集群,包含无认证和有认证模式

1、背景&#xff1a; 因公司业务需要&#xff0c;需要在测试、生产kubernetes集群中部署elasticsearch集群&#xff0c;因不同环境要求&#xff0c;需要部署不同模式的elasticsearch集群&#xff0c; 1、测试环境因安全性要求不高&#xff0c;是部署一套默认配置&#xff1b; 2…

【LeetCode】十七、并查集

文章目录 1、并查集Union Find2、并查集find的优化&#xff1a;路径压缩 Quick find3、并查集union的优化&#xff1a;权重标记 1、并查集Union Find 并查集&#xff0c;一种树形的数据结构&#xff0c;处理不相交的两个集合的合并与查询问题。 【参考&#xff1a;&#x1f4…

Linux·基本指令(下)

1. mv 指令 (move) 语法&#xff1a;mv[选项] 源文件或目录 目标文件或目录 功能&#xff1a;将源文件或目录剪贴到一个新位置&#xff0c;或给源文件或目录改名但不会改变其内容 常用选项&#xff1a; -f &#xff1a;force 强制&#xff0c;如果目标文件已经存在&#xff0c;…

Unty 崩溃问题(Burst 1.8.2)

错误代码&#xff1a; Assertion failed on expression: exception SCRIPTING_NULL UnityEngine.StackTraceUtility:ExtractStackTrace () Unity.Burst.BurstCompiler:SendRawCommandToCompiler (string Unity版本&#xff1a;2021.3.17F1&#xff0c;Burst 1.8.2 表现&…

openstack设置IP直接登录,不需要加dashboard后缀

openstack 实验环境&#xff0c;openstack-t版&#xff0c;centos2009 修改配置文件 [rootcontroller ~]# vim /WEBROOT /etc/openstack-dashboard/local_settings #将dashboard去掉 WEBROOT /dashboard/ #改为 WEBROOT /[rootcontroller ~]# vim /etc/httpd/conf.d/openst…

pytorch学习(七):池化层的使用

MaxPool2d&#xff1a; 参数详解&#xff1a; kernel_size: int or tuple。 stride&#xff1a;窗口的步长&#xff0c;默认值是kernel_size的值。&#xff08;卷积层默认值为1&#xff09; dilation&#xff1a;如下图&#xff0c;控制窗口内内元素之间的距离。学名空洞卷积…

浅析stm32启动文件

浅析stm32启动文件 文章目录 浅析stm32启动文件1.什么是启动文件&#xff1f;2.启动文件的命名规则3.stm32芯片的命名规则 1.什么是启动文件&#xff1f; 我们来看gpt给出的答案&#xff1a; STM32的启动文件是一个关键的汇编语言源文件&#xff0c;它负责在微控制器上电或复位…

持续集成05--Gogs的安装与使用

前言 在持续集成/持续部署&#xff08;CI/CD&#xff09;的旅程中&#xff0c;版本控制系统是不可或缺的一环。当我们在使用jenkins&#xff0c;想要达到测试脚本有更新&#xff0c;就让项目自动去进行构建&#xff0c;或者当开发脚本有更新&#xff0c;也可以自动去构建的效果…

graham 算法计算平面投影点集的凸包

文章目录 向量的内积&#xff08;点乘&#xff09;、外积&#xff08;叉乘&#xff09;确定旋转方向numpy 的 cross 和 outernp.inner 向量与矩阵计算示例np.outer 向量与矩阵计算示例 python 示例生成样例散点数据图显示按极角排序的结果根据排序点计算向量转向并连成凸包 基本…

linux中关于环境变量的常用的设置方法

一. linux中设置环境变量的方式 1.使用/etc/environment, 是一个全局的环境变量设置文件&#xff0c;它会影响到所有用户和所有进程。当你需要设置一个全局的环境变量时&#xff0c;应该使用这个文件。这个文件的格式是 KEYvalue&#xff0c;每行一个环境变量。 2. 使用/etc/…