编译工具PyCharm
文章目录
- 编译工具PyCharm
- 文本分析与表示
- 实现方式:
- 文本表示方法
- 文本相似度计算
- LDA主题模型
- 朴素贝叶斯算法
- 应用:评论情感分析,工具评论分析是好评还是差评
- 获取数据
- 加载停用词
- 内容标准化(将每一句话划分成一个个的词)
- 统计词的个数
- 模型训练及预测
文本分析与表示
实现方式:
正则表达式REGEX:指作为需提取内容的前提条件的特定格式化符号数组
条件随机场CRFs:之通过评估特定模式或短语提取文本的机器学习方法,更加精细和灵活。
文本表示方法
one-hot是指在一个向量中,只有一个位置上的值是1,其他位置都是0.缺点:无法表现词与词之间的语义关系,当数据量大的时候,维数也会变得很大。
Bag of Words(词袋表示):也成为Count Vectors,每个文档的字词可以使用其出现次数来进行表示。缺点:会忽略文本的表达顺序,如我爱你和你爱我,表示都一样。
N-gram:与Count Vectors类似,不过加入了相邻单词组合成新的单词,并且进行计数。
TF-IDF关键词提取:两部分组成,词频TF和逆文档概率IDF
TF=某个词在文中出现的次数/文本中一共包含多少个词
IDF=log(语料库的文档总数/包含该词的文档数)
文本相似度计算
余弦相似度
LDA主题模型
LDA主题模型不关心词的顺序,用bag of words词袋表示。
朴素贝叶斯算法
朴素贝叶斯假定特征与特征相互独立
但是如果词频列表里有很多出现的次数为0,是计算结果可能为0;
解决方法:拉普拉斯平滑系数
例如:特征词个数为6
应用:评论情感分析,工具评论分析是好评还是差评
data.csv数据如下
内容,评价
从编程小白的角度看,入门极佳,好评
很好的入门书,简洁全面,适合小白,好评
讲解全面,许多小细节都有顾及,三个小项目受益匪浅,好评
前半部分讲概念深入浅出,要言不烦,很赞,好评
看了一遍还是不会写,有个概念而已,差评
中规中矩的教科书,零基础的看了依旧看不懂,差评
内容太浅显,个人认为不适合有其它语言编程基础的人,差评
破书一本,差评
适合完完全全的小白读,有其他语言经验的可以去看别的书,差评
基磁知识写的挺好的!,好评
太基础,差评
略_嗦。。适合完全没有编程经验的小白,差评
真的真的不建议买,差评
stopwords.csv上网找一个中文禁用词表即可,我用的是这一篇博客提供的。
https://blog.csdn.net/dilifish/article/details/117885706
获取数据
import pandas as pd # 获取数据 data = pd.read_csv("./data/data.csv") # 数据基本处理 content = data['内容'] # print(content) # 将评价中的好差评转换为数字 # 添加一列为评价编号,如果是好评评价编号为1,差评为0 data.loc[data.loc[:,'评价']=="好评","评价编号"]=1 data.loc[data.loc[:,'评价']=="差评","评价编号"]=0 print(data)
加载停用词
# 加载停用词 stopwords = [] with open("./data/stopwords.csv","r",encoding="utf-8") as f: lines=f.readlines() print(lines) # 有些数据并不是按照一行一行排序的,而是很乱,一个数据里面含\n进行换行 # 通过下面的方法可以将其变成一行一行排列的 for tmp in lines: line = tmp.strip() print(line) stopwords.append(line) # 去重 stopwords = list(set(stopwords)) print(stopwords)
去重后的数据
内容标准化(将每一句话划分成一个个的词)
# 内容标准化 # 将每一句话划分成词 comment_list=[] for tmp in content: print(tmp) # 对文本进行切割 seg_list=jieba.cut(tmp,cut_all=False) print(seg_list) # 这个只能打印出对象 # 拼接字符串 seg_str = ','.join(seg_list) print(seg_str) comment_list.append(seg_str) print(comment_list)
comment_list打印出来
统计词的个数
# 统计词的个数 # from sklearn.feature_extraction.text import CountVectorizer con = CountVectorizer(stop_words=stopwords) X = con.fit_transform(comment_list) name = con.get_feature_names_out() print(X.toarray()) print(name)
打印出来的矩阵
矩阵分别对应的字词
模型训练及预测
# 准备训练集和测试集 # 训练集 x_train = X.toarray()[:10,:] y_train = data["评价"][:10] # 测试集 x_test = X.toarray()[10:,:] y_test = data["评价"][10:] # 模型训练 # from sklearn.naive_bayes import MultinomialNB # alpha=1即拉普拉斯平滑系数为1 mb = MultinomialNB(alpha=1) mb.fit(x_train,y_train) y_pre = mb.predict(x_test) print("预测值: ",y_pre) print("真实值: ",y_test) # 模型评估 print(mb.score(x_test, y_test))