推荐系统三十六式学习笔记:原理篇.内容推荐05|从文本到用户画像有多远?

news2024/11/25 6:34:14

目录

  • 从文本开始
  • 构建用户画像
    • 一、结构化文本
      • 1、TF-IDF
      • 2、TextRank
      • 3、内容分类:
      • 4、实体识别
      • 5、聚类
      • 6、词嵌入
    • 二、标签选择
      • 1、卡方检验
      • 2、信息增益
  • 总结

对于一个早期的推荐系统来说,基于内容推荐离不开用户构建一个初级的画像,这种初级的画像一般叫做用户画像(User Profile),今天我就来讲一讲从大量文本数据中挖掘用户画像常常用到的一些算法;

从文本开始

用户这一端比如说有:
1、注册资料中的姓名、个人签名;
2、发表的评论、动态、日志等;
3、聊天记录;

物品这一端也有大量文本信息,可以用于构建物品画像(Item Profile),并最终帮助丰富用户画像(User Profile),这些数据举例来说有:
1、物品的标题、描述;
2、物品本身的内容(一般指新闻资讯类);
3、物品的其他基本属性的文本;

文本数据是互联网产品中最常见的信息表达形式,数量多、处理快、存储小,因为文本数据的特殊地位,所以今天专门介绍一些建立用户画像过程中用到的文本挖掘算法。

构建用户画像

要用物品和用户的文本信息构建出一个基础版的用户画像,大致需要做这些事;
1、把所有非结构化的文本结构化,去粗取精,保留关键信息;
2、根据用户行为数据把物品的结构化结果传递给用户,与用户自己的结构化信息合并;

第一步最关键也最基础,其准确性,粒度,覆盖面都决定了用户画像的质量,这一步用到很多文本挖掘算法。
第二步会把物品的文本分析结果,按照用户历史行为把物品画像(Item Profile)传递给用户。

一、结构化文本

我们拿到的文本,常常是自然语言描述的,非结构化的,但是计算机在处理时,只能使用结构化的数据索引,检索,然后向量化后再计算;所以文本分析,就是为了将非结构化的数据结构化。

从物品端的文本信息,我们可以利用成熟的NLP 算法分析得到的信息有下面几种。
1、关键词提取:最基本的标签来源,也为其他文本分析提供基础数据,常用TF-IDF和TextRank。
2、实体识别:人物、位置和地点、著作、影视剧、历史事件和热点事件等,常用于基于词典的方法结合CRF模型。
3、内容分类:将文本按照分类体系分类,用分类来表达较粗粒度的结构化信息。
4、文本:在无人制定分类体系的前提下,无监督地将文本划分成多个类簇也很常见,别看不是标签,簇类编号也是用户画像的常见构成。
5、主题模型:从大量已有文本中学习主题向量,然后再预测新的文本在各个主题上的概率分布情况,其实这也是一种聚类思想,主题向量也不是标签形式,也是用户画像的常用构成。
6、嵌入:也叫Embedding,从词到篇章,无不可以学习这种嵌入表达。嵌入表达就是为了挖掘出字面意思之下的语义信息,并且用有限的维度表达出来。

下面我来介绍几种常见的文本结构化算法。

1、TF-IDF

TF全称就是Term Frequency,是词频的意思,IDF就是Inverse Document Frequency是逆文档频率的意思。TF-IDF 提取关键词的思想来自信息检索领域,其实思想很朴素,
包含了两点:在一篇文本中反复出现的词会更重要,在所有文本中都出现的词更不重要。这两点就分别量化成 TF和IDF两个指标;
1、TF,就是词频,要提取关键词在文本中出现的次数;
2、IDF,是提前统计好的,在已有的所有文本中,统计每一个词出现在了多少文本中,记为n,也就是文档频率,一共有多少文本,记为N。

IDF就是这样计算:

在这里插入图片描述
计算过程为:词出现的文档数加1,再除总文档数,最后结果再取对数。

IDF的计算公式有这么几个特点:
1、所有词的N都是一样的,因此出现文本数越少(n)的词,它的IDF值越大;
2、如果一个词的文档频率为0,为防止计算出无穷大的IDF,所以分母中会有一个1;

计算出TF和IDF后,将两个值相乘,就得到每一个词的权重。根据该权重筛选关键词的方式有:
1、给定一个K,取Top K个词,这样做简单直接,但有一点,如果总共得到的词个数少于K,那么所有词都是关键词了,显然这样做不合理。
2、计算所有词权重的平均值,取在平均值之上的词作为关键词;

另外,在某些场景下,还会加上以下其他过滤措施,如:只提取动词和名词作为关键词。

2、TextRank

TextRank是PageRank的私生子之一,著名的pagerank算法是Google用来衡量网页重要性的算法,TextRank算法的思想也与之类似,可以概括为:
1、文本中,设定一个窗口宽度,比如k个词,统计窗口内的词和词的共线关系,将其看成无向图。图就是网络,由存在连接关系的节点构成,所谓无向图,就是节点之间的连线不考虑从谁出发,有关系就可以了。

2、所有词初始化的重要性都是1;
3、每个节点把自己的权重平均分配给“和自己有连接”的其他节点;
4、每个节点将所有其他节点分给自己的权重求和,作为自己的新权重;
5、如此反复迭代第3,4两步,直到所有的节点权重收敛为止。

通过TextRank计算后的词语权重,呈现出这样的特点:那些有共线关系的会互相支持对方成为关键词。

3、内容分类:

在门户网站时代,每个门户网站都有自己的频道体系,这个频道体系就是一个非常大的内容分类体系,这一做法也延伸到了移动互联网UGC时代,图文信息流APP的资讯内容也需要被自动分类到不同的频道中,从而能够得到最粗粒度的结构化信息,也被很多推荐系统用来在用户冷启动时探索用户兴趣。

在门户时代的内容分类,相对来说容易,因为那时候的内容都是长文本,长文本的内容分类可以提取很多信息,而如今UGC当道的时代,短文本的内容分类则更困难一些。短文本分类方面的经典算法是SVM,子啊工具上现在最常用的是Facebook开源的FastText。

4、实体识别

命名实体识别(也常常被简称为NER,Name-Entity Recognition)在NLP技术中常常被认为是序列标注问题,和分词、词性标注属于同一类问题。

所谓序列标注问题,就是给你一个字符序列,从左往右遍历每个字符,一边遍历一边对每一个字符分类,分类的体系因序列标注问题不同而不同;
1、分词问题:对每一个字符分类为“词开始”“词中间”“词结束”三类之一;
2、词性标注:对于每一个分好的词,分类为定义的词性集合之一;
3、实体识别:对每一个分好的词,识别为定义的命名实体集合之一;

对于序列标注问题,通常的算法就是隐马尔可夫模型(HMM)或者条件随机场(CRF),我们在推荐系统中主要是挖掘出想要的结构化结果,对其中原理有兴趣再去深入了解。

实体识别还有比较实用化的非模型做法:词典法。提前准备好各种实体的词典,使用trie-tree数据结构存储,拿着分好的词去词典里找,找到某个词就任务是提前定义好的实体。以实体识别为代表的序列标注问题上,工业级别的工具SpaCy比NLTK在效率上优秀一些;

5、聚类

传统聚类方法在文本中的应用,今天逐渐被主题模型取代,同样是无监督模型,以LDA为代表的主题模型更能够更准确地抓住主题,并且能够得到软聚类的效果,也就是说可以让一条文本属于多个类簇。

LDA模型需要设定主题个数,如果你有时间,那么这个K可以通过一些实验来对比挑选,方法是:每次计算K个主题两两之间的平均相似度,选择一个较低的K值;在推荐系统领域,只要计算资源够用,主题数可以尽量多一些。

另外,需要注意的事,得到文本在各个主题上的分布,可以保留概率最大的前几个主题作为文本的主题。LDA工程上较难的是并行化,如果文本数量没有到海量程度,提高单机配置是可以的,开源的LDA训练工具有Gensim,PLDA等可供选择。

6、词嵌入

关于嵌入,是一个数学概念。以词嵌入为例来说吧。
词嵌入,也叫作Word Embedding。前面讲到的结构化方案,除了LDA,其他得到的一下标签无一例外都是稀疏的,而词嵌入则能够为每一个词学习得到一个稠密的向量。

比如北京,可能包含“首都,中国,北方,直辖市,大城市”等等这些词义在所有文本上是有限的,比如128个,于是每个词就有一个128维的向量表达,向量中各个维度上的值大小代表了词包含各个语义的多少。

得到这些向量可以做:
1、计算词和词之间的相似度,扩充结构化标签;
2、累加得到一个文本的稠密向量;
3、用于聚类,会得到比使用词向量聚类更好的语义聚类效果。

这方面当属大名鼎鼎的Word2Vec了,Word2Vec是用浅层神经网络学习得到每个词的向量表达,Word2Vec最大的贡献在于一些工程技巧上的优化,使得百万词的规模是在单机上可以几分钟轻松跑出来,得到这些词向量后可以聚类或者进一步合成句子向量再使用;

二、标签选择

用户端的文本,物品端的文本如何结构化,得到诸如标签(关键词,分类等)、主题、词嵌入向量。接下来就是第二步:如何把物品的结构化信息给用户呢?

我们想一想,用户在产品上看到了很多我们用各种逻辑和理由展示给他的物品,他只从中消费了一部分物品。现在问题就是,到底是哪些特性吸引了他消费呢?

我们把用户对物品的行为,消费没有消费看成是一个分类问题。用户用实际行动帮我们标注了若干数据,那么挑选出他实际感兴趣的特性就变成了特征选择问题。

最常用的两个方法:卡方检验(CHI)和信息增益(IG)。基本思想是:
1、把物品的结构化内容看成文档;
2、把用户对物品的行为看成是类别;
3、每个用户看到过的物品就是一个文本集合;
4、在这个文本集合上使用特征选择算法选出每个用户关心的东西。

1、卡方检验

CHI就是卡方检验,本身是一种特征选择方法。

前面的TF-IDF和TextRank都是无监督关键词提取算法,而卡方检验(CHI)则是有监督的,需要提供分类标注信息。

为什么需要呢?在文本分类任务中,挑选关键词是为了分类任务服务,而不仅仅是挑选出一种直观上看着重要的词。

卡方检验本质上在检验词和某个类别C相互独立这个假设是否成立,和这个假设偏离越大,就越说明这个词和类别C关联紧密,那当然这个词就是关键词了。

计算一个词Wi和Cj的卡方值,需要统计四个值:
1、类别为 C j C_j Cj的文本中出现词 W i W_i Wi的文本数A;
2、词 W i W_i Wi在非 C j C_j Cj的文本中出现的文本数B;
3、类别为 C j C_j Cj的文本中没有出现词 W i W_i Wi的文本数C;
4、词 W i W_i Wi在非 C j C_j Cj的文本中没有出现的文本数D;

在这里插入图片描述
然后按照如下公式计算每一个词和每一个类别的卡方值:

在这里插入图片描述
关于这个卡方值计算,我在这里说明几点:
1、每个词和每个类别都要计算,只要对其中一个类别有帮助都应该留下;
2、由于是比较卡方值的大小,所以公式的N可以不参与计算,因为它对于每个词都一样,就是总的文本数;
3、卡方值越大,意为着偏离词和类比相互独立的假设越远;

2、信息增益

IG即information Gain,信息增益,也是一种有监督的关键词选择方法,也需要有标注信息。要理解信息增益,先理解信息熵;
信息熵,举一个例子,比如一批文本被标注了类别,那么随意挑选一个文本,问你这是什么类别?
如果各个类别的文本数量都差不多,也就是说每个类别的概率都相对较小,则信息熵较大;
如果其中一个类别的文本数明显大于其他类别,你猜这个类比猜对的概率就相对较大,此时这个类别的信息熵则较小;
可以简单理解信息熵和概率成反比,信息熵大,概率低,信息熵小,则概率大;

信息增益表示在得知特征X的信息后,对于分类结果的不确定性的减少程度。具体来说,信息增益是指在得知特征X的取值后,对于分类结果的熵减少的程度。
信息增益的计算公式如下:
信息增益 = 父节点的熵 − 子节点的熵 \text{信息增益} = \text{父节点的熵} - \text{子节点的熵} 信息增益=父节点的熵子节点的熵

信息增益应用最广就是数据挖掘中的决策树分类算法,经典的决策树分类算法挑选分裂节点时就是计算各个属性的信息增益,始终挑选信息增益最大的节点作为分裂节点。

卡方检验和信息增益不同之处在于:前者是针对每一个行为单独筛选一套标签出来,后者是全局统一筛选;
这些方法都是在离线阶段批量完成的,把用户的画像生成配置成离线任务,每天更新一遍,次日就可以使用新的用户画像了。

总结

用户画像对于推荐系统还是非常必要的,而产品中属文本数据越多,那如何用文本数据构建出用户的画像内容呢?
本文按照如下步骤梳理了这一过程:
1、分析用户的文本和物品的文本,使其结构化;
2、为用户挑选有信息量的结构化数据,作为其画像内容;

其中,我们提出了把为用户挑选画像标签看成是特征选择问题,主要方法是卡方检验和信息增益。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1803807.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

攻防世界---misc---小小的PDF

1、题目描述,下载附件是一个PDF,打开之后是这样,有两页PDF 2、用winhex分析,没有发现奇怪的地方 3、在kali中binwalk发现有多张照片 4、接着使用foremost将图片分离出来, 5、得到3张图片,打开第3张图片&am…

数字滤波器和模拟滤波器(一)

模拟滤波器和数字滤波器(一) 下面介绍模拟滤波器和数字滤波器的频率响应的异同,以及如何使用python地scipy.signal来绘制其频谱响应和冲激阶跃响应。在第二期将谈到如何设计模拟滤波器和数字滤波器。 在正文之间,应该介绍连续时…

Spark 性能调优——分布式计算

前言 分布式计算的精髓,在于如何把抽象的计算流图,转化为实实在在的分布式计算任务,然后以并行计算的方式交付执行。今天这一讲,我们就来聊一聊,Spark 是如何实现分布式计算的。分布式计算的实现,离不开两个…

Shell脚本学习_字符串变量

目录 1.Shell字符串变量:格式介绍 2.Shell字符串变量:拼接 3.Shell字符串变量:字符串截取 4.Shell索引数组变量:定义-获取-拼接-删除 1.Shell字符串变量:格式介绍 1、目标: 能够使用字符串的三种方式 …

详解linux设备下的/dev/null

/dev/zero是一个特殊的设备文件,它在Linux系统中通常被用来生成无限数量的零数据流。 这个设备文件位于/dev目录下,它不代表任何实际的硬件设备,而是一个虚拟设备。 当从/dev/zero设备中读取数据时,会得到无限数量的零字节&…

JAVA开发的一套(智造制造领航者云MES系统成品源码)saas云MES制造执行系统源码,全套源码,支持二次开发

JAVA开发的一套(智造制造领航者云MES系统成品源码)saas云MES制造执行系统源码,全套源码,支持二次开发 1990年11月,美国先进制造研究中心AMR(Advanced Manufacturing Research)就提出了MES&#…

进程通信(IPC-Inter Process Communication)

进程之间的通信通过内核空间实现 IPC技术 ①管道(匿名管道/命名管道-FIFO队列) ②System V IPC(消息队列、信号量和共享内存) ③套接字(UNIX套接字&Internet套接字) ※信号 软中断,信号提供了一种处理异步事件的方法,作为进程通信的一种机制&am…

D455相机RGB与深度图像对齐,缓解相机无效区域的问题

前言 上一次我们介绍了深度相机D455的使用:intel深度相机D455的使用-CSDN博客,我们也看到了相机检测到的无效区域。 在使用Intel深度相机D455时,我们经常会遇到深度图中的无效区域。这些无效区域可能由于黑色物体、光滑表面、透明物体以及视…

大学国学搜题软件?分享7个软件和公众号,来对比看看吧 #经验分享#微信#媒体

在大学里,高效的学习工具可以帮助我们更好地管理时间和资源,提高学习效果。 1.彩虹搜题 这是个老公众号了 多语言查询支持,满足国际用户需求。全球通用,无障碍搜题。 下方附上一些测试的试题及答案 1、某酸碱指示剂的&#xf…

java线程池介绍

在Java中,线程池是用来管理和复用线程的一种机制,它可以显著提升程序性能,特别是在大量短期异步任务的场景下。以下是创建和使用线程池的基本步骤: 1.创建线程池: 使用java.util.concurrent.Executors类的静态工厂方法创建线程池&…

How to install a dataset from huggingface?

当我从抱抱脸上git clone imdb数据集时,plain_text里的文件是这样的:

【经验分享】不同内网服务器之间利用webdav互传文件

目录 0、前言1、授权webdav应用2、下载webdavclient33、替换相关代码 0、前言 最近,我在处理两台服务器间的文件传输问题时遇到了不少难题。这两台服务器并不处于同一内网环境,导致无法通过SFTP进行文件传输。由于这些服务器属于局域网,并且…

Python初步使用教程

1.基本输出print函数 a10 b20 print(a)#输出结束后会自动换行 print(b) print(a,b,猪猪侠)#print中sep决定三者之间会存在空格#连接方法一 print(猪猪,end) print(侠) #连接方法二(只能是字符串和字符串连) print(超级无敌)print(chr(67)) print(ord(猪…

PromptPort:为大模型定制的创意AI提示词工具库

PromptPort:为大模型定制的创意AI提示词工具库 随着人工智能技术的飞速发展,大模型在各行各业的应用越来越广泛。而在与大模型交互的过程中,如何提供精准、有效的提示词成为了关键。今天,就为大家介绍一款专为大模型定制的创意AI…

植物大战僵尸杂交版2024潜艇伟伟迷

在广受欢迎的游戏《植物大战僵尸》的基础上,我最近设计了一款创新的杂交版游戏,简直是太赞了!这款游戏结合了原有游戏的塔防机制,同时引入新的元素、角色和挑战,为玩家提供了全新的游戏体验。 植物大战僵尸杂交版最新绿…

【大模型】基于Hugging Face调用及微调大模型(1)

文章目录 一、前言二、Transformer三、Hugging Face3.1 Hugging Face Dataset3. 2 Hugging Face Tokenizer3.3 Hugging Face Transformer3.4 Hugging Face Accelerate 四、基于Hugging Face调用模型4.1 调用示例4.2 调用流程概述4.2.1 Tokenizer4.2.2 模型的加载4.2.3 模型基本…

软件设计师(中级)概要笔记:基于软件设计师教程(第5版)

文章目录 作者前言1、计算机系统知识1.1、计算机系统基础知识1.1.1 计算机系统硬件基本组成1.1.2 中央处理单元1.1.3、数据表示原码、反码、补码和移码(符号数)符号数的应用定点数和浮点数 1.1.4、校验码奇偶校验循环冗余校验码海明码 1.2、计算机体系…

Day07 待办事项功能页面设计

​ 当前章节待办事项页面设计最终效果图: 一.布局设计 整个 待办事项页面 主要分上下布局,也就是分2行进行设计。第1 行 放搜索框和添加待办按钮,第2行 放置待办事项的内容。 那么 在视图中,怎么将页面分上下2行?就使用到Grid中 的 Grid.RowDefinitions ,就能实现将页面分…

每日5题Day18 - LeetCode 86 - 90

每一步向前都是向自己的梦想更近一步,坚持不懈,勇往直前! 第一题:86. 分隔链表 - 力扣(LeetCode) /*** Definition for singly-linked list.* public class ListNode {* int val;* ListNode next;…

用HAL库改写江科大的stm32入门-输入捕获原理图示

原理与接线: (输入捕获的结构) cubeMx: PA11: