找回密码
 注册
关于网站域名变更的通知
查看: 579|回复: 1
打印 上一主题 下一主题

基于WMD(词移距离)的句子相似度分析MATLAB代码

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2020-10-19 15:51 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

EDA365欢迎您登录!

您需要 登录 才可以下载或查看,没有帐号?注册

x

' N* J7 A5 }) l# V. ]/ @7 b文章目录
" m6 a7 N1 h3 s! C$ f# v  w
  • WMD简介
  • WMD MATLAB代码
  • RWMD(Relaxed word moving distance )
  • RWMD MATLAB代码
  • 上述两个代码的distance函数
  • 数据集来源
  • 结果
  • 分析
  • 参考资料$ N; q4 U/ V) r7 N9 U

. u6 Z; P1 z0 D, wWMD简介' D3 d4 N$ S2 e0 P' |5 A! D8 X
词移距离(Word Mover’s Distance)
/ a" y( Y+ n9 W% P, C& @$ Q$ t! N  K; P/ |+ N% C# a

5 ~4 t- I" R& D1 s
2 u/ w/ H* i- Y, A" `! R' d4 `  J( s& N4 v! z) Z; a+ \
WMD MATLAB代码
4 `9 ?* X$ S8 }( w; f- R& e注意emd_mex是调用搬土距离的库Earth Mover’s Distance
" d9 M; w( J; ?# ~9 z2 S2 k5 e5 Q: J2 a+ i% v  n- p
  • %徐奕 E21614061
  • clc
  • clear
  • tic;
  • load_file = 'bbcsport.mat'; % 数据集为bbcsport
  • save_file = 'wmd_d_bbcsport.mat';
  • %X每个单元对应一个文档,是一个[d,u]矩阵,
  • %其中d是嵌入单词的维数bbcsport中的是300,u是该文档中Unique单词的数量
  • %每一列是特定单词的word2vec向量。
  • %Y是文档的标签
  • %BOW_X单元阵列中的每个单元格都是与文档对应的向量。
  • %向量的大小是文档中Unique单词的数量,每个条目是每个Unique单词出现的频率。
  • %indices 每个单元格对应于一个文档,它本身就是一个{1,u}单元格,其中每个条目是对应于每个Unique单词的实际单词
  • %TR每一行对应于训练集的随机分割,每个条目是相对于完整数据集的索引。
  • load(load_file)
  • docNum = length(BOW_X); %文档的数量
  • WMD = zeros(docNum,docNum);
  • paRFor i = 1:docNum %并行运行
  •     E_distance = zeros(1,docNum); %用来存放当前文档与其他文档的距离
  •     for j = (i+1):docNum
  •         if isempty(BOW_X{i}) || isempty(BOW_X{j})
  •             E_distance(j) = Inf;  % 错误处理
  •         else
  •         x1 = BOW_X{i}./sum(BOW_X{i}); %归一化
  •         x2 = BOW_X{j}./sum(BOW_X{j}); %归一化
  •         %%% 求欧式距离
  •         D = distance(X{i}, X{j}); %计算两个文档间的距离(计算X{i}和{j}中的任意列向量之间的两两平方距离矩阵)
  •         D(D < 0) = 0; %设置下限
  •         D = sqrt(D);  %开方
  •         [emd,flow]=emd_mex(x1,x2,D); %调用搬土距离的库Earth Mover's Distance,求WMD
  •         E_distance(j) = emd;
  •         end
  •     end
  •     WMD(i,:) = E_distance; %存放到外部变量
  • end
  • %% 根据距离矩阵计算相似度,使用归一化
  • similarVar = -WMD;
  • maxs = max(similarVar);
  • mins = min(similarVar);
  • for i = 1:size(WMD,1)
  •     for j = 1:length(WMD(i,:))
  •         similarVar(i,j) = (similarVar(i,j)-mins)/(maxs-mins);
  •     end
  • end
  • toc
  • %% 保存数据与文件
  • save('wmd_sim',similarVar);
  • save(save_file,'WMD');
    3 W7 ]# p5 L- K# ~( V
               
5 k; o: t. q7 L4 ~7 C3 u# s8 G+ D: g, T
: {" i+ V# J" c6 b' ERWMD(Relaxed word moving distance ): x0 j8 H8 w7 e4 m
先去掉一个约束,计算相应的WMD,最终取最大值。9 i4 O5 N# I# z. l. p- _

5 N( H% N$ E1 F这两个 relax 过的优化问题的解,恰好对应于词向量矩阵的行空间和列空间上的最近邻问题,也是很好算的。最后定义 RWMD 为这两个 relaxed 优化问题的两个目标值中的最大值。8 O8 @, [, l4 S
$ h; T) M7 L$ I" @
RWMD MATLAB代码1 i$ h! q9 z' ?* X2 _) ?% C
本代码不需要任何外部包
5 R" Y/ F+ T  _- E; R7 P1 M
; b: ]+ O/ R' Z% P3 ?9 H
  • %徐奕 E21614061
  • clc
  • clear
  • tic;
  • addpath('emd')
  • load_file = 'bbcsport.mat'; % 数据集为bbcsport
  • save_file = 'rwmd_bbcsport.mat';
  • load(load_file)
  • %X每个单元对应一个文档,是一个[d,u]矩阵,
  • %其中d是嵌入单词的维数bbcsport中的是300,u是该文档中Unique单词的数量
  • %每一列是特定单词的word2vec向量。
  • %Y是文档的标签
  • %BOW_X单元阵列中的每个单元格都是与文档对应的向量。
  • %向量的大小是文档中Unique单词的数量,每个条目是每个Unique单词出现的频率。
  • %indices 每个单元格对应于一个文档,它本身就是一个{1,u}单元格,其中每个条目是对应于每个Unique单词的实际单词
  • %TR每一行对应于训练集的随机分割,每个条目是相对于完整数据集的索引。
  • docNum = length(BOW_X); % 读取文档的数量
  • RWMD = zeros(docNum,docNum); % 最终的生成矩阵
  • parfor i = 1:docNum %并行运行
  •     E_distance = zeros(1,docNum); % 计算单个文档与其他文档的距离
  •     for j = (i+1):docNum
  •         if isempty(BOW_X{i}) || isempty(BOW_X{j}) % 错误处理
  •             E_distance(j) = Inf;
  •         else
  •             x1 = BOW_X{i}./sum(BOW_X{i}); % 归一化
  •             x2 = BOW_X{j}./sum(BOW_X{j}); % 归一化
  •             DD = distance(X{i}, X{j});  % 计算两个文档间的距离(计算X{i}和{j}中的任意列向量之间的两两平方距离矩阵)
  •             m1 = sqrt(max(min(DD,[],1),0));
  •             m2 = sqrt(max(min(DD,[],2),0));
  •             dist1 = m1*x2'; % 只保留约束1
  •             dist2 = m2'*x1'; % 只保留约束2
  •             E_distance(j) = max(dist1,dist2); % 根据论文,对于RWMD,需要选择两个目标中最大的值
  •         end
  •     end
  •     RWMD(i,:) = E_distance; %存储
  •     fprintf("doc %d done!\n",i);
  • end
  • RWMD = RWMD + RWMD'; % 上三角加上下三角
  • %% 根据距离矩阵计算相似度,归一化
  • similarVar = -RWMD;
  • maxs = max(similarVar);
  • mins = min(similarVar);
  • for i = 1:size(RWMD,1)
  •     for j = 1:length(RWMD(i,:))
  •         similarVar(i,j) = (similarVar(i,j)-mins)/(maxs-mins);
  •     end
  • end
  • %% 保存数据与文件
  • toc;
  • save(save_file,'RWMD');
  • save('rwmd_sim', 'similarVar');6 ~+ N. j. n5 ], ?( O* v/ b, B/ C
               
* H4 H% z; I) R0 R( a4 u  X* g7 L+ W
上述两个代码的distance函数. D0 f  A' E; A- h
  B) \/ K6 M% [& v
  • function dist=distance(X,x)
  • % dist=distance(X,x)
  • % 计算X和中的任意列向量之间的两两平方距离矩阵
  • [D,~] = size(X);
  • if(nargin>=2)
  •     [d,~] = size(x);
  •      if(D~=d)
  •          error('注意维度要相等!\n');
  •      end
  •      X2 = sum(X.^2,1);
  •      x2 = sum(x.^2,1);
  •      dist = bsxfun(@plus,X2.',bsxfun(@plus,x2,-2*X.'*x));
  • else
  •     [D,N] = size(X);
  •     s=sum(X.^2,1);
  •     dist=bsxfun(@plus,s',bsxfun(@plus,s,-2*X.'*X));
  • end+ T6 ^9 }) _. }# d* Q
  7 N2 z7 B; V" r# Y
8 c  _7 N. h- }
结果  l; g" x! W5 M% |8 `; f
生成的WMD距离矩阵(左),归一化后可以转化为相似度矩阵(右)
/ D( \! R  r; C8 @/ W  r1 F% l: O9 S; r( q0 t: _

3 m  p& M: H7 t& L3 L+ j, j+ e- ?5 p* q- O: `
结果举例:找出的相似的两个文本,下面的相似度为47.78%(与文档1最相似)
2 h  v+ {& i+ p% ^* I6 b
6 J6 d% G6 j' ^( V3 C$ [: a+ v 5 f. n; m' m4 _  D; e' G
% w, ?; X  B5 k/ b
其中用不同颜色标注的是有明显相似特征的句子。$ p% r/ K( j, T
. l- s. F0 K' [. q  |
分析
" J# V$ Z" y* p- q( Y% s通过下面的文档相似度矩阵可以发现,文档与文档间的相似度较小,这是因为数据集是真实世界的数据集,即BBC SPORT中没有两篇完全一样的报道。另外,BBC SPORT共有5个不同的类别,从实验结果可以看到相同类别间的相似度远远大于不同类别间的相似度,因此,WMD对文本分类是有一定的效果。
: n# f4 b. g4 `* m0 j% h: w  c- e( q+ r3 r1 `8 L$ I  \* D
另外从作者的论文中实验结果可以看到,基于KNN的词移距离算法相对于大多数其他主流文本相似度分析算法来说,错误率要少很多,因此,在工业界,使用WMD来做NLP处理是非常有前景的。" M, ~0 F, n  Z/ f% X4 }

$ t! |" z# D/ [  j& d最后,根据由于WMD是无监督学习,通过有监督学习的论文(Supervised word mover’s distance)中可以发现,加上了监督机制后错误率还能再下降一个层次。* B, [& P" F/ G" Z# T7 l# L2 h
2 O6 A% i" i6 C  b' t% C
需要指出的是,不能简单地添加基于度量学习的监督矩阵,一方面,在计算过程中梯度可能不存在,另一方面,基于KNN的SWMD将会耗费大量的时间,因此需要采取相关措施来解决这些问题。
* k6 X$ E9 h* f
% \; J7 |: L) a/ B( uSWMD简介:
  a# h1 R  _! m. @ ! J1 V5 o5 |% |8 u- d8 K
) }4 m/ e; p: O5 B- a
0 [( y( T+ l0 w( v+ |  Y) f
  • TA的每日心情
    开心
    2022-12-26 15:46
  • 签到天数: 1 天

    [LV.1]初来乍到

    2#
    发表于 2020-10-19 17:05 | 只看该作者
    看的我眼睛都花了
    您需要登录后才可以回帖 登录 | 注册

    本版积分规则

    关闭

    推荐内容上一条 /1 下一条

    EDA365公众号

    关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

    GMT+8, 2025-8-12 13:01 , Processed in 0.125000 second(s), 26 queries , Gzip On.

    深圳市墨知创新科技有限公司

    地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

    快速回复 返回顶部 返回列表