朴素贝叶斯
一、基本思想
在机器学习中,朴素贝叶斯分类器是在强独立假设下基于贝叶斯定理的一系列简单概率分类器,强独立假设为:
对 于 训 练 数 据 : D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) } \begin{aligned}
&对于训练数据:D=\{(x_1,y_1),(x_2,y_2),...,(x_n,y_n)\}
\end{aligned}
对 于 训 练 数 据 : D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) }
我们假设它是从未知分布中抽取的独立同分布,则有:
P ( D ) = P ( ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) ) = ∏ α = 1 n P ( x α , y α ) P(D)=P((x_1,y_1),(x_2,y_2),...,(x_n,y_n))=\prod_{\alpha=1}^nP(x_\alpha,y_\alpha)
P ( D ) = P ( ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) ) = α = 1 ∏ n P ( x α , y α )
如果我们有足够的数据,我们可以估算P ( X , Y ) P(X,Y) P ( X , Y ) ,类似于上一节的硬币例子,我们想象一个巨大的骰子,每个可能的( X , Y ) (X,Y) ( X , Y ) 值都有一面。我们可以通过计数来估计某一特定方面出现的概率。
P ^ ( x , y ) = ∑ i = 1 n I ( x i = x ∩ y i = y ) n x i = x 且 y i = y 时 , I ( x i = x ∩ y i = y ) = 1 , 否 则 为 0 \hat{P}(x,y)=\frac{\sum_{i=1}^nI(x_i=x\cap y_i=y)}{n}\\
x_i=x且y_i=y时,I(x_i=x\cap y_i=y)=1,否则为0
P ^ ( x , y ) = n ∑ i = 1 n I ( x i = x ∩ y i = y ) x i = x 且 y i = y 时 , I ( x i = x ∩ y i = y ) = 1 , 否 则 为 0
当然,如果我们主要感兴趣的是从特征x x x 预测标签y y y ,我们可以直接估计P ( y ∣ x ) P(y | x) P ( y ∣ x ) ,而不是P ( x , y ) P(x,y) P ( x , y ) 。我们可以使用贝叶斯最优分类器对P ( y ∣ x ) P(y | x) P ( y ∣ x ) 进行预测:
P ^ ( y ∣ x ) = P ^ ( x ∣ y ) P ^ ( y ) P ( x ) = P ^ ( x , y ) P ( x ) = ∑ i = 1 n I ( x i = x ∩ y i = y ) / n ∑ i = 1 n I ( x i = x ) / n = ∑ i = 1 n I ( x i = x ∩ y i = y ) ∑ i = 1 n I ( x i = x ) \hat{P}(y|x)=\frac{\hat{P}(x|y)\hat{P}(y)}{P(x)}=\frac{\hat{P}(x,y)}{P(x)}=\frac{\sum_{i=1}^nI(x_i=x\cap y_i=y)/n}{\sum_{i=1}^nI(x_i=x)/n}=\frac{\sum_{i=1}^nI(x_i=x\cap y_i=y)}{\sum_{i=1}^nI(x_i=x)}
P ^ ( y ∣ x ) = P ( x ) P ^ ( x ∣ y ) P ^ ( y ) = P ( x ) P ^ ( x , y ) = ∑ i = 1 n I ( x i = x ) / n ∑ i = 1 n I ( x i = x ∩ y i = y ) / n = ∑ i = 1 n I ( x i = x ) ∑ i = 1 n I ( x i = x ∩ y i = y )
如上图韦恩图所示,我们最终的预测结果可以表示为:
P ^ ( y ∣ x ) = ∣ C ∣ ∣ B ∣ \hat{P}(y|x)=\frac{|C|}{|B|}
P ^ ( y ∣ x ) = ∣ B ∣ ∣ C ∣
二、朴素贝叶斯算法
2.1 贝叶斯规则
朴素贝叶斯算法的核心是贝叶斯公式:
P ( y ∣ x ) = P ( x ∣ y ) P ( y ) P ( x ) P(y|x)=\frac{P(x|y)P(y)}{P(x)}
P ( y ∣ x ) = P ( x ) P ( x ∣ y ) P ( y )
根据上述贝叶斯公式我们可以知道:如果我们可以预测P ( x ∣ y ) P(x|y) P ( x ∣ y ) 和P ( y ) P(y) P ( y ) ,那么我们即可预测P ( y ∣ x ) P(y|x) P ( y ∣ x )
①预测P ( y ) P(y) P ( y ) 很容易,假如y y y 取离散的值,我们只需要记录观察到结果为y y y 的次数即可:
P ^ ( y = c ) = ∑ i = 1 n I ( y i = c ) n = π ^ c \hat{P}(y=c)=\frac{\sum_{i=1}^nI(y_i=c)}{n}=\hat{\pi}_c
P ^ ( y = c ) = n ∑ i = 1 n I ( y i = c ) = π ^ c
②但是预测P ( x ∣ y ) P(x|y) P ( x ∣ y ) 并不容易,因此我们需要引入朴素贝叶斯假设。
2.2 朴素贝叶斯假设
朴素贝叶斯假设为:
P ( x ∣ y ) = ∏ α = 1 d P ( x α ∣ y ) x = [ x 1 , x 2 , . . . , x d ] , x α 是 d 维 特 征 向 量 x 在 第 α 维 度 上 的 值 P(x|y)=\prod_{\alpha=1}^dP(x_\alpha|y)\\
x=[x_1,x_2,...,x_d],x_\alpha是d维特征向量x在第\alpha维度上的值
P ( x ∣ y ) = α = 1 ∏ d P ( x α ∣ y ) x = [ x 1 , x 2 , . . . , x d ] , x α 是 d 维 特 征 向 量 x 在 第 α 维 度 上 的 值
即:对于给定的标签,其特征值是独立的,这是一个非常大胆的假设
经常使用朴素贝叶斯分类器的一个例子是垃圾邮件的过滤,此处数据为电子邮件,标签为是垃圾邮件还是非垃圾邮件;
朴素贝叶斯假设意味着电子邮件中的单词在条件上是独立的,因为我们知道电子邮件是否是垃圾邮件,显然这不是真的。无论是垃圾邮件还是非垃圾邮件都不是独立随机抽取的。然而,即使违反了这一假设,由此产生的分类器在实践中也可以很好地工作。
由此我们可以对P ( x ∣ y ) P(x|y) P ( x ∣ y ) 进行估计:假设朴素贝叶斯假设成立,则贝叶斯分类器定义如下:
h ( x ) = a r g m a x y P ( y ∣ x ) = a r g m a x y P ( x ∣ y ) P ( y ) P ( x ) = a r g m a x y P ( x ∣ y ) P ( y ) = a r g m a x y ( ∏ α = 1 d P ( x α ∣ y ) ) P ( y ) = a r g m a x y ( ∑ α = 1 d log P ( x α ∣ y ) ) + log P ( y ) \begin{aligned}
&h(x)=\underset{y}{argmax}~P(y|x)=\underset{y}{argmax}~\frac{P(x|y)P(y)}{P(x)}=\underset{y}{argmax}~P(x|y)P(y)\\
&~~~~~~~~~=\underset{y}{argmax}~\big(\prod_{\alpha=1}^dP(x_\alpha|y)\big)P(y)=\underset{y}{argmax}~\big(\sum_{\alpha=1}^d\log P(x_\alpha|y)\big)+\log P(y)
\end{aligned}
h ( x ) = y a r g ma x P ( y ∣ x ) = y a r g ma x P ( x ) P ( x ∣ y ) P ( y ) = y a r g ma x P ( x ∣ y ) P ( y ) = y a r g ma x ( α = 1 ∏ d P ( x α ∣ y ) ) P ( y ) = y a r g ma x ( α = 1 ∑ d log P ( x α ∣ y ) ) + log P ( y )
估计P ( x α ∣ y ) P(x_\alpha|y) P ( x α ∣ y ) 和P ( y ) P(y) P ( y ) 都很容易,因此我们则可实现贝叶斯分类器。
三、估算P ( x α ∣ y ) P(x_\alpha|y) P ( x α ∣ y )
3.1 Case#1:分类特征
分类特征:对于d d d 维特征向量x x x ,它的第α \alpha α 维特征x α x_\alpha x α 有K α K_\alpha K α 个取值,即分类问题的特征
例如:年龄、性别、省份等特征,特们都有固定个数的K α K_\alpha K α 个取值,x α ∈ { f 1 , f 2 , . . . , f K α } x_\alpha\in\{f_1,f_2,...,f_{K_\alpha} \} x α ∈ { f 1 , f 2 , . . . , f K α }
P ( x α = f j ∣ y = c ) = [ θ j c ] α , ∑ j = 1 K α θ j c = 1 P(x_\alpha=f_j|y=c)=[\theta_{jc}]_\alpha,\sum_{j=1}^{K_\alpha}\theta_{jc}=1
P ( x α = f j ∣ y = c ) = [ θ j c ] α , j = 1 ∑ K α θ j c = 1
[ θ j c ] α [θ_{jc}]_α [ θ j c ] α 是特征α α α 在假设标签是c c c 时,具有值f j f_j f j 的概率。约束表明x α x_α x α 必须具有一个类别{ 1 , … , K α } \{1,…,K_α\} { 1 , … , K α }
下面我们对[ θ j c ] α [\theta_{jc}]_\alpha [ θ j c ] α 进行估计:
[ θ j c ] ^ α = ∑ i = 1 n I ( x i = f j ∩ y i = c ) + l ∑ i = 1 n I ( y i = c ) + l K α \hat{[\theta_{jc}]}_\alpha=\frac{\sum_{i=1}^nI(x_i=f_j\cap y_i=c)+l}{\sum_{i=1}^nI(y_i=c)+lK_\alpha}
[ θ j c ] ^ α = ∑ i = 1 n I ( y i = c ) + l K α ∑ i = 1 n I ( x i = f j ∩ y i = c ) + l
l ~l~ l 是一个平滑参数:
①l = 0 l=0 l = 0 时,我们得到M L E MLE M L E 估计量,l > 0 l>0 l > 0 时,我们得到M A P MAP M A P 估计量
②l = 1 l=1 l = 1 时,我们得到拉普拉斯平滑
最终我们得到的模型为:
h ( x ) = a r g m a x y ( ∏ α = 1 d [ θ j c ] ^ α ) π ^ c = a r g m a x y ( ∑ α = 1 d log [ θ j c ] α ^ ) + log π ^ c \begin{aligned}
&h(x)=\underset{y}{argmax}~\big(\prod_{\alpha=1}^d\hat{[\theta_{jc}]}_\alpha\big)\hat\pi_c=\underset{y}{argmax}~\big(\sum_{\alpha=1}^d\log\hat{[\theta_{jc}]_\alpha}\big)+\log\hat\pi_c
\end{aligned}
h ( x ) = y a r g ma x ( α = 1 ∏ d [ θ j c ] ^ α ) π ^ c = y a r g ma x ( α = 1 ∑ d log [ θ j c ] α ^ ) + log π ^ c
3.2 Case#2:多项式特征
多项式特征:特征值不是诸如男女之类的分类特征,而是计数值,即回归问题的特征,但是计数值是有限的
例如:垃圾邮件过滤的例子中,各个特征是不同的单词,维度d d d 即为单词表的大小,特征值是一个单词出现的次数,比如某个单词α α α 出现十次,即x α x_α x α =10,可能意味着该邮件为垃圾邮件。
x α ∈ { 0 , 1 , 2 , . . . , m } , m = ∑ α = 1 d x α x_\alpha\in\{0,1,2,...,m\},m=\sum_{\alpha=1}^dx_\alpha
x α ∈ { 0 , 1 , 2 , . . . , m } , m = α = 1 ∑ d x α
新的估计方式如下:P ( x ∣ m , y = c ) P(x|m,y=c) P ( x ∣ m , y = c ) 表示标签y = c y=c y = c 时,一个文本长度为m m m 的邮件中特征向量为x x x 的概率
P ^ ( x ∣ m , y = c ) = m ! x 1 ! ⋅ x 2 ! ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ x d ! ∏ α = 1 d ( θ α c ) x α \hat{P}(x|m,y=c)=\frac{m!}{x_1!\cdot x_2!\cdot\cdot\cdot\cdot\cdot\cdot x_d!}\prod_{\alpha=1}^d(\theta_{\alpha c})^{x_\alpha}
P ^ ( x ∣ m , y = c ) = x 1 ! ⋅ x 2 ! ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ x d ! m ! α = 1 ∏ d ( θ α c ) x α
θ α c \theta_{\alpha c} θ α c 是在标签y = c y=c y = c 时,选中特征向量中的x α x_\alpha x α 的概率,有∑ α = 1 d θ α c = 1 \sum_{\alpha=1}^d\theta_{\alpha c}=1 ∑ α = 1 d θ α c = 1 ,以垃圾邮件为例,θ α c \theta_{\alpha c} θ α c 即为单词x α x_\alpha x α 在文本中所占的比例。
下面我们对θ α c \theta_{\alpha c} θ α c 进行估计:
θ ^ α c = ∑ i = 1 n I ( y i = c ) x i α + l ∑ i = 1 n I ( y i = c ) m i + l ⋅ d \hat{\theta}_{\alpha c}=\frac{\sum_{i=1}^nI(y_i=c)x_{i\alpha}+l}{\sum_{i=1}^nI(y_i=c)m_i+l\cdot d}
θ ^ α c = ∑ i = 1 n I ( y i = c ) m i + l ⋅ d ∑ i = 1 n I ( y i = c ) x i α + l
x i α x_{i\alpha} x i α 是第i i i 个电子邮件的特征向量的第α \alpha α 维度的值,m i = ∑ α = 1 d x i α m_i=\sum_{\alpha=1}^dx_{i\alpha} m i = ∑ α = 1 d x i α 即第i i i 个电子邮件中的文本总数
最终我们得到的模型为:
h ( x ) = a r g m a x y P ( y = c ∣ x ) = a r g m a x y ( ∏ α = 1 d ( θ α c ) x α ) ⋅ π ^ c = a r g m a x y ( ∑ α = 1 d x α log θ α c ) + log π ^ c h(x)=\underset{y}{argmax}~P(y=c|x)=\underset{y}{argmax}~\big(\prod_{\alpha=1}^d(\theta_{\alpha c})^{x_\alpha}\big)\cdot\hat\pi_c=\underset{y}{argmax}~\big(\sum_{\alpha=1}^dx_\alpha\log\theta_{\alpha c}\big)+\log\hat\pi_c
h ( x ) = y a r g ma x P ( y = c ∣ x ) = y a r g ma x ( α = 1 ∏ d ( θ α c ) x α ) ⋅ π ^ c = y a r g ma x ( α = 1 ∑ d x α log θ α c ) + log π ^ c
3.3 Case#3:连续特征
连续特征:计数值是连续的值,例如身高体重,连续特征所对应的朴素贝叶斯也称为高斯朴素贝叶斯
x α ∈ R x_\alpha\in R
x α ∈ R
新的估计方式如下:
P ^ ( x α ∣ y = c ) = N ( μ α c , σ α c 2 ) = 1 2 π σ α c e − 1 2 ( x α − μ α c σ α c ) 2 \hat{P}(x_\alpha|y=c)=\mathcal{N}(\mu_{\alpha c},\sigma_{\alpha c}^2)=\frac1{\sqrt{2\pi}\sigma_{\alpha c}}e^{-\frac12(\frac{x_\alpha-\mu_{\alpha c}}{\sigma_{\alpha c}})^2}
P ^ ( x α ∣ y = c ) = N ( μ α c , σ α c 2 ) = 2 π σ α c 1 e − 2 1 ( σ α c x α − μ α c ) 2
注意,上面指定的模型基于我们对数据的假设,即每个特征α来自一类条件高斯分布。
对参数进行估计:
μ ^ α c = 1 n c ∑ i = 1 n I ( y i = c ) x i α σ ^ α c = 1 n c ∑ i = 1 n I ( y i = c ) ( x i α − μ α c ) 2 n c = ∑ i = 1 n I ( y i = c ) \hat\mu_{\alpha c}=\frac1{n_c}\sum_{i=1}^nI(y_i=c)x_{i\alpha}\\\hat\sigma_{\alpha c}=\frac1{n_c}\sum_{i=1}^nI(y_i=c)(x_{i\alpha}-\mu_{\alpha c})^2\\
n_c=\sum_{i=1}^nI(y_i=c)
μ ^ α c = n c 1 i = 1 ∑ n I ( y i = c ) x i α σ ^ α c = n c 1 i = 1 ∑ n I ( y i = c ) ( x i α − μ α c ) 2 n c = i = 1 ∑ n I ( y i = c )
高斯朴素贝叶斯分类器本质上为逻辑回归模型:
P ( y ∣ x ) = 1 1 + e − y ( w T x + b ) P(y|x)=\frac{1}{1+e^{-y(w^Tx+b)}}
P ( y ∣ x ) = 1 + e − y ( w T x + b ) 1
四、朴素贝叶斯分类器
朴素贝叶斯分类器为一个线性分类器:
对于一个多项式特征的数据集,其进行分类的过程如下:假设y i ∈ { − 1 , + 1 } y_i\in\{-1,+1\} y i ∈ { − 1 , + 1 } 且特征都是多项式特征,有:
h ( x ) = a r g m a x c P ( y = c ∣ x ) 设 h ( x ) = + 1 , 则 P ( y = + 1 ∣ x ) > P ( y = − 1 ∣ x ) 根 据 贝 叶 斯 公 式 , 则 有 : P ( x ∣ y = + 1 ) P ( y = + 1 ) P ( x ) > P ( x ∣ y = − 1 ) P ( y = − 1 ) P ( x ) 即 : P ( y = + 1 ) ⋅ m ! x 1 ! ⋅ x 2 ! ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ x d ! ∏ α = 1 d ( θ α ( + 1 ) ) x α > P ( y = − 1 ) ⋅ m ! x 1 ! ⋅ x 2 ! ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ x d ! ∏ α = 1 d ( θ α ( − 1 ) ) x α 即 : log P ( y = + 1 ) + ∑ α = 1 d x α log θ α ( + 1 ) > log P ( y = − 1 ) + ∑ α = 1 d x α log θ α ( − 1 ) 即 : [ log P ( y = + 1 ) − log P ( y = − 1 ) ] + ∑ α = 1 d x α ( log θ α ( + 1 ) − log θ α ( − 1 ) ) > 0 \begin{aligned}
&h(x)=\underset{c}{argmax}~P(y=c|x)\\
&设h(x)=+1,则P(y=+1|x)>P(y=-1|x)\\
&根据贝叶斯公式,则有:\frac{P(x|y=+1)P(y=+1)}{P(x)}>\frac{P(x|y=-1)P(y=-1)}{P(x)}\\
&即:P(y=+1)\cdot\frac{m!}{x_1!\cdot x_2!\cdot\cdot\cdot\cdot\cdot\cdot x_d!}\prod_{\alpha=1}^d(\theta_{\alpha (+1)})^{x_\alpha}>P(y=-1)\cdot\frac{m!}{x_1!\cdot x_2!\cdot\cdot\cdot\cdot\cdot\cdot x_d!}\prod_{\alpha=1}^d(\theta_{\alpha (-1)})^{x_\alpha}\\
&即:\log P(y=+1)+\sum_{\alpha=1}^dx_\alpha\log \theta_{\alpha(+1)}>\log P(y=-1)+\sum_{\alpha=1}^dx_\alpha\log \theta_{\alpha(-1)}\\
&即:\big[\log P(y=+1)-\log P(y=-1)\big]+\sum_{\alpha=1}^dx_\alpha(\log \theta_{\alpha(+1)}-\log \theta_{\alpha(-1)})>0
\end{aligned}
h ( x ) = c a r g ma x P ( y = c ∣ x ) 设 h ( x ) = + 1 , 则 P ( y = + 1 ∣ x ) > P ( y = − 1 ∣ x ) 根 据 贝 叶 斯 公 式 , 则 有 : P ( x ) P ( x ∣ y = + 1 ) P ( y = + 1 ) > P ( x ) P ( x ∣ y = − 1 ) P ( y = − 1 ) 即 : P ( y = + 1 ) ⋅ x 1 ! ⋅ x 2 ! ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ x d ! m ! α = 1 ∏ d ( θ α ( + 1 ) ) x α > P ( y = − 1 ) ⋅ x 1 ! ⋅ x 2 ! ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ x d ! m ! α = 1 ∏ d ( θ α ( − 1 ) ) x α 即 : log P ( y = + 1 ) + α = 1 ∑ d x α log θ α ( + 1 ) > log P ( y = − 1 ) + α = 1 ∑ d x α log θ α ( − 1 ) 即 : [ log P ( y = + 1 ) − log P ( y = − 1 ) ] + α = 1 ∑ d x α ( log θ α ( + 1 ) − log θ α ( − 1 ) ) > 0
我们可以发现上述正确分类的形式与感知机很像,我们可以进行如下变换:
令 : b = log P ( y = + 1 ) − log P ( y = − 1 ) , w α = log θ α ( + 1 ) − log θ α ( − 1 ) 则 : h ( x ) = + 1 ↔ w T x + b > 0 \begin{aligned}
&令:b=\log P(y=+1)-\log P(y=-1),w_\alpha=\log \theta_{\alpha(+1)}-\log \theta_{\alpha(-1)}\\
&则:h(x)=+1\leftrightarrow w^Tx+b>0
\end{aligned}
令 : b = log P ( y = + 1 ) − log P ( y = − 1 ) , w α = log θ α ( + 1 ) − log θ α ( − 1 ) 则 : h ( x ) = + 1 ↔ w T x + b > 0
与感知机的形式完全相同,最终我们将朴素贝叶斯分类器等效为了感知机。
五、算法实现
我们将通过手动实现与调库的方式去构造朴素贝叶斯模型。
5.1 数据集
本次我们使用的数据集为垃圾邮件数据集,其下载链接为:UCI Machine Learning Repository: SMS Spam Collection Data Set
下载后的SMSSpamCollection中的内容如下图所示,显然我们需要对文件进行处理整合,数据处理过程如下:
'''屏蔽warning'''
import warnings
warnings.filterwarnings("ignore")
'''导入重要的库'''
import numpy as np
import pandas as pd
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
'''自定义处理文本处理函数'''
def text_dispose(text):
'''
因为数据集中的内容为英文,这里我使用 NLTK 库进行处理,如果选择中文数据更推荐使用 jieba 库
:param text:
:return: 处理后的文本
'''
# 将每个单词和符号分开
sentences = nltk.sent_tokenize(text)
words = [word for sent in sentences for word in nltk.word_tokenize(sent)]
stops = stopwords.words('english')
# 去除停用词
words = [word for word in words if word not in stops]
words = [word.lower() for word in words if len(word) >= 3]
# 词汇化
lemmatizer = WordNetLemmatizer()
words = [lemmatizer.lemmatize(word) for word in words]
dispose_text = ' '.join(words)
return dispose_text
'''数据预处理'''
sms_data = open('data/SMSSpamCollection', 'r', encoding='utf-8') #读取数据:5574个样本
X,y=[],[]
for line in sms_data.readlines():
data = line.split('\t') #标签与正文之间用'\t'分隔
y.append(data[0])
X.append(text_dispose(data[1].split('\n')[0]))
sms_data.close()
上述数据集预处理过程中有几点需要注意:
①nltk报错问题,不妨尝试运行以下两部分代码完善nltk库的安装
import nltk
nltk.download("punkt")
import nltk
nltk.download("wordnet")
nltk.download("omw-1.4")
②TF-IDF特征矩阵:TF-IDF 是Term Frequency - Inverse Document Frequency的缩写,即“词频——逆文本频率 ”。它由两部分组成,TF和IDF,也就是这两部分的乘积。TF 指的就是常用的词频,即某个单词在当前文本中出现的频率。IDF ,即“逆文本频率”,反映了一个单词在当前文本中的重要性
T F ( t , D ) = 单 词 t 在 文 本 D 中 出 现 的 次 数 文 本 D 的 总 单 词 数 I D F ( t ) = log 语 料 库 文 本 总 数 + 1 包 含 词 语 t 的 文 本 总 数 + 1 T F − I D F ( t , D ) = T F ( t , D ) ⋅ I D F ( t ) \begin{aligned}
&TF(t,D)=\frac{单词t在文本D中出现的次数}{文本D的总单词数}\\
&IDF(t)=\log\frac{语料库文本总数+1}{包含词语t的文本总数+1}\\
&TF-IDF(t,D)=TF(t,D)\cdot IDF(t)
\end{aligned}
T F ( t , D ) = 文 本 D 的 总 单 词 数 单 词 t 在 文 本 D 中 出 现 的 次 数 I D F ( t ) = log 包 含 词 语 t 的 文 本 总 数 + 1 语 料 库 文 本 总 数 + 1 T F − I D F ( t , D ) = T F ( t , D ) ⋅ I D F ( t )
我们处理后得到的 vectorizer.fit_transform(X) 输出的特征矩阵形式为( A , B ) C (A,B)~C ( A , B ) C ,A A A 为文件索引,B B B 为特定词的向量索引,C C C 为文件A A A 中单词B B B 的T F − I D F TF-IDF T F − I D F 分数
5.2 手动实现模型
我们选择多项式特征的数据集,即在上述数据处理的基础上将文本转为统计单词数量的矩阵,数据预处理与存储过程如下:
'''统计单词词频'''
vectorizer=CountVectorizer()
X=vectorizer.fit_transform(X).toarray()
y=np.where(np.array(y)=='spam',1,0)
df=pd.DataFrame(data=X)
df["label"]=y
df.to_csv("data/spam_count.csv",index=False)
参考多项式特征的模型,我们可以构造我们的训练代码:
θ ^ α c = ∑ i = 1 n I ( y i = c ) x i α + l ∑ i = 1 n I ( y i = c ) m i + l ⋅ d \hat{\theta}_{\alpha c}=\frac{\sum_{i=1}^nI(y_i=c)x_{i\alpha}+l}{\sum_{i=1}^nI(y_i=c)m_i+l\cdot d}
θ ^ α c = ∑ i = 1 n I ( y i = c ) m i + l ⋅ d ∑ i = 1 n I ( y i = c ) x i α + l
h ( x ) = a r g m a x y P ( y = c ∣ x ) = a r g m a x y ( ∏ α = 1 d ( θ α c ) x α ) ⋅ π ^ c = a r g m a x y ( ∑ α = 1 d x α log θ α c ) + log π ^ c h(x)=\underset{y}{argmax}~P(y=c|x)=\underset{y}{argmax}~\big(\prod_{\alpha=1}^d(\theta_{\alpha c})^{x_\alpha}\big)\cdot\hat\pi_c=\underset{y}{argmax}~\big(\sum_{\alpha=1}^dx_\alpha\log\theta_{\alpha c}\big)+\log\hat\pi_c
h ( x ) = y a r g ma x P ( y = c ∣ x ) = y a r g ma x ( α = 1 ∏ d ( θ α c ) x α ) ⋅ π ^ c = y a r g ma x ( α = 1 ∑ d x α log θ α c ) + log π ^ c
'''屏蔽warning'''
import warnings
warnings.filterwarnings("ignore")
'''导入重要的库'''
import numpy as np
import pandas as pd
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.naive_bayes import MultinomialNB
class Naive_Bayes(object):
def __init__(self,l):
self.l=l #平滑参数
'''模型训练'''
def fit(self,X_train, y_train):
'''统计数目'''
numTrainDocs = len(X_train) #计算训练电子邮件数目
d = len(X_train[0]) #计算电子邮件的词条数
'''计算P(y=c)'''
pAbusive = sum(y_train)/float(numTrainDocs)#文档属于垃圾邮件类的的概率P(y=spam)=πc
'''初始化'''
p0Num = np.ones(d)
p1Num = np.ones(d)
p0Denom = self.l*d #用于记录ham类的电子邮件单词总数+l
p1Denom = self.l*d #用于记录spam类的电子邮件单词总数+l
'''数据统计'''
for i in range(numTrainDocs): #遍历每一个电子邮件
if y_train[i] == 1: #是垃圾邮件spam
p1Num += X_train[i] #用于spam类的各个单词数量
p1Denom += sum(X_train[i])
else: #是正常邮件ham
p0Num += X_train[i] #用于统计ham类的各个单词数量
p0Denom += sum(X_train[i])
#相除计算概率向量
p1Vect = np.log(p1Num+self.l / p1Denom)
p0Vect = np.log(p0Num+self.l / p0Denom)
'''保留计算的数据'''
self.p1Vect=p1Vect
self.p0Vect=p0Vect
self.pAbusive=pAbusive
'''结果预测'''
def predict(self,X_test):
y_pred=[]
for x in X_test:
p1=np.dot(x,self.p1Vect)+np.log(self.pAbusive)
p0=np.dot(x,self.p0Vect)+np.log(1-self.pAbusive)
if p1>p0:
y_pred.append(1)
else:
y_pred.append(0)
return np.array(y_pred)
'''读取数据'''
df=pd.read_csv("data/spam_count.csv")
y=df['label'].values
df.drop("label",axis=1,inplace=True)
X=df.values
'''数据划分'''
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2)#选取20%的数据作为测试集
naive_bayes=Naive_Bayes(1)
naive_bayes.fit(X_train,y_train)
y_pred=naive_bayes.predict(X_test)
print(accuracy_score(y_test,y_pred)) #0.979372197309417
5.3 调库实现模型
调库实现模型时,我们可以使用另一种方法,即上面提到过的TF-IDF特征矩阵,即连续特征的数据集,数据预处理与存储过程如下:
'''TF-IDF特征矩阵'''
vectorizer=TfidfVectorizer()
X=vectorizer.fit_transform(X).toarray()
y=np.where(np.array(y)=='spam',1,0)
df=pd.DataFrame(data=X)
df["label"]=y
df.to_csv("data/spam_tfidf.csv",index=False)
我们直接利用sklearn所提供的朴素贝叶斯分类器,观察分类情况,可以发现调库的准确率达到了0.9596412556053812,也较为准确。
'''屏蔽warning'''
import warnings
warnings.filterwarnings("ignore")
'''导入重要的库'''
import numpy as np
import pandas as pd
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.naive_bayes import MultinomialNB
'''读取数据'''
df=pd.read_csv("data/spam_tfidf.csv")
y=df['label'].values
df.drop("label",axis=1,inplace=True)
X=df.values
'''数据划分'''
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2)#选取20%的数据作为测试集
naive_bayes=MultinomialNB()
naive_bayes.fit(X_train,y_train)
y_pred=naive_bayes.predict(X_test)
print(accuracy_score(y_test,y_pred)) #0.9596412556053812