|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
' N* J7 A5 }) l# V. ]/ @7 b文章目录
" m6 a7 N1 h3 s! C$ f# v w- WMD简介
- WMD MATLAB代码
- RWMD(Relaxed word moving distance )
- RWMD MATLAB代码
- 上述两个代码的distance函数
- 数据集来源
- 结果
- 分析
- 参考资料$ N; q4 U/ V) r7 N9 U
. u6 Z; P1 z0 D, wWMD简介' D3 d4 N$ S2 e0 P' |5 A! D8 X
词移距离(Word Mover’s Distance)
/ a" y( Y+ n9 W% P, C& @$ Q$ t! N K; P/ |+ N% C# a
5 ~4 t- I" R& D1 s
2 u/ w/ H* i- Y, A" `! R' d4 ` J( s& N4 v! z) Z; a+ \
WMD MATLAB代码
4 `9 ?* X$ S8 }( w; f- R& e注意emd_mex是调用搬土距离的库Earth Mover’s Distance
" d9 M; w( J; ?# ~9 z2 S2 k5 e5 Q: J2 a+ i% v n- p
- %徐奕 E21614061
- clc
- clear
- tic;
- load_file = 'bbcsport.mat'; % 数据集为bbcsport
- save_file = 'wmd_d_bbcsport.mat';
- %X每个单元对应一个文档,是一个[d,u]矩阵,
- %其中d是嵌入单词的维数bbcsport中的是300,u是该文档中Unique单词的数量
- %每一列是特定单词的word2vec向量。
- %Y是文档的标签
- %BOW_X单元阵列中的每个单元格都是与文档对应的向量。
- %向量的大小是文档中Unique单词的数量,每个条目是每个Unique单词出现的频率。
- %indices 每个单元格对应于一个文档,它本身就是一个{1,u}单元格,其中每个条目是对应于每个Unique单词的实际单词
- %TR每一行对应于训练集的随机分割,每个条目是相对于完整数据集的索引。
- load(load_file)
- docNum = length(BOW_X); %文档的数量
- WMD = zeros(docNum,docNum);
- paRFor i = 1:docNum %并行运行
- E_distance = zeros(1,docNum); %用来存放当前文档与其他文档的距离
- for j = (i+1):docNum
- if isempty(BOW_X{i}) || isempty(BOW_X{j})
- E_distance(j) = Inf; % 错误处理
- else
- x1 = BOW_X{i}./sum(BOW_X{i}); %归一化
- x2 = BOW_X{j}./sum(BOW_X{j}); %归一化
- %%% 求欧式距离
- D = distance(X{i}, X{j}); %计算两个文档间的距离(计算X{i}和{j}中的任意列向量之间的两两平方距离矩阵)
- D(D < 0) = 0; %设置下限
- D = sqrt(D); %开方
- [emd,flow]=emd_mex(x1,x2,D); %调用搬土距离的库Earth Mover's Distance,求WMD
- E_distance(j) = emd;
- end
- end
- WMD(i,:) = E_distance; %存放到外部变量
- end
- %% 根据距离矩阵计算相似度,使用归一化
- similarVar = -WMD;
- maxs = max(similarVar);
- mins = min(similarVar);
- for i = 1:size(WMD,1)
- for j = 1:length(WMD(i,:))
- similarVar(i,j) = (similarVar(i,j)-mins)/(maxs-mins);
- end
- end
- toc
- %% 保存数据与文件
- save('wmd_sim',similarVar);
- save(save_file,'WMD');
3 W7 ]# p5 L- K# ~( V
5 k; o: t. q7 L4 ~7 C3 u# s8 G+ D: g, T
: {" i+ V# J" c6 b' ERWMD(Relaxed word moving distance ): x0 j8 H8 w7 e4 m
先去掉一个约束,计算相应的WMD,最终取最大值。9 i4 O5 N# I# z. l. p- _
5 N( H% N$ E1 F这两个 relax 过的优化问题的解,恰好对应于词向量矩阵的行空间和列空间上的最近邻问题,也是很好算的。最后定义 RWMD 为这两个 relaxed 优化问题的两个目标值中的最大值。8 O8 @, [, l4 S
$ h; T) M7 L$ I" @
RWMD MATLAB代码1 i$ h! q9 z' ?* X2 _) ?% C
本代码不需要任何外部包
5 R" Y/ F+ T _- E; R7 P1 M
; b: ]+ O/ R' Z% P3 ?9 H- %徐奕 E21614061
- clc
- clear
- tic;
- addpath('emd')
- load_file = 'bbcsport.mat'; % 数据集为bbcsport
- save_file = 'rwmd_bbcsport.mat';
- load(load_file)
- %X每个单元对应一个文档,是一个[d,u]矩阵,
- %其中d是嵌入单词的维数bbcsport中的是300,u是该文档中Unique单词的数量
- %每一列是特定单词的word2vec向量。
- %Y是文档的标签
- %BOW_X单元阵列中的每个单元格都是与文档对应的向量。
- %向量的大小是文档中Unique单词的数量,每个条目是每个Unique单词出现的频率。
- %indices 每个单元格对应于一个文档,它本身就是一个{1,u}单元格,其中每个条目是对应于每个Unique单词的实际单词
- %TR每一行对应于训练集的随机分割,每个条目是相对于完整数据集的索引。
- docNum = length(BOW_X); % 读取文档的数量
- RWMD = zeros(docNum,docNum); % 最终的生成矩阵
- parfor i = 1:docNum %并行运行
- E_distance = zeros(1,docNum); % 计算单个文档与其他文档的距离
- for j = (i+1):docNum
- if isempty(BOW_X{i}) || isempty(BOW_X{j}) % 错误处理
- E_distance(j) = Inf;
- else
- x1 = BOW_X{i}./sum(BOW_X{i}); % 归一化
- x2 = BOW_X{j}./sum(BOW_X{j}); % 归一化
- DD = distance(X{i}, X{j}); % 计算两个文档间的距离(计算X{i}和{j}中的任意列向量之间的两两平方距离矩阵)
- m1 = sqrt(max(min(DD,[],1),0));
- m2 = sqrt(max(min(DD,[],2),0));
- dist1 = m1*x2'; % 只保留约束1
- dist2 = m2'*x1'; % 只保留约束2
- E_distance(j) = max(dist1,dist2); % 根据论文,对于RWMD,需要选择两个目标中最大的值
- end
- end
- RWMD(i,:) = E_distance; %存储
- fprintf("doc %d done!\n",i);
- end
- RWMD = RWMD + RWMD'; % 上三角加上下三角
- %% 根据距离矩阵计算相似度,归一化
- similarVar = -RWMD;
- maxs = max(similarVar);
- mins = min(similarVar);
- for i = 1:size(RWMD,1)
- for j = 1:length(RWMD(i,:))
- similarVar(i,j) = (similarVar(i,j)-mins)/(maxs-mins);
- end
- end
- %% 保存数据与文件
- toc;
- save(save_file,'RWMD');
- save('rwmd_sim', 'similarVar');6 ~+ N. j. n5 ], ?( O* v/ b, B/ C
* H4 H% z; I) R0 R( a4 u X* g7 L+ W
上述两个代码的distance函数. D0 f A' E; A- h
B) \/ K6 M% [& v
- function dist=distance(X,x)
- % dist=distance(X,x)
- % 计算X和中的任意列向量之间的两两平方距离矩阵
- [D,~] = size(X);
- if(nargin>=2)
- [d,~] = size(x);
- if(D~=d)
- error('注意维度要相等!\n');
- end
- X2 = sum(X.^2,1);
- x2 = sum(x.^2,1);
- dist = bsxfun(@plus,X2.',bsxfun(@plus,x2,-2*X.'*x));
- else
- [D,N] = size(X);
- s=sum(X.^2,1);
- dist=bsxfun(@plus,s',bsxfun(@plus,s,-2*X.'*X));
- end+ T6 ^9 }) _. }# d* Q
7 N2 z7 B; V" r# Y
8 c _7 N. h- }
结果 l; g" x! W5 M% |8 `; f
生成的WMD距离矩阵(左),归一化后可以转化为相似度矩阵(右)
/ D( \! R r; C8 @/ W r1 F% l: O9 S; r( q0 t: _
3 m p& M: H7 t& L3 L+ j, j+ e- ?5 p* q- O: `
结果举例:找出的相似的两个文本,下面的相似度为47.78%(与文档1最相似)
2 h v+ {& i+ p% ^* I6 b
6 J6 d% G6 j' ^( V3 C$ [: a+ v
5 f. n; m' m4 _ D; e' G
% w, ?; X B5 k/ b
其中用不同颜色标注的是有明显相似特征的句子。$ p% r/ K( j, T
. l- s. F0 K' [. q |
分析
" J# V$ Z" y* p- q( Y% s通过下面的文档相似度矩阵可以发现,文档与文档间的相似度较小,这是因为数据集是真实世界的数据集,即BBC SPORT中没有两篇完全一样的报道。另外,BBC SPORT共有5个不同的类别,从实验结果可以看到相同类别间的相似度远远大于不同类别间的相似度,因此,WMD对文本分类是有一定的效果。
: n# f4 b. g4 `* m0 j% h: w c- e( q+ r3 r1 `8 L$ I \* D
另外从作者的论文中实验结果可以看到,基于KNN的词移距离算法相对于大多数其他主流文本相似度分析算法来说,错误率要少很多,因此,在工业界,使用WMD来做NLP处理是非常有前景的。" M, ~0 F, n Z/ f% X4 }
$ t! |" z# D/ [ j& d最后,根据由于WMD是无监督学习,通过有监督学习的论文(Supervised word mover’s distance)中可以发现,加上了监督机制后错误率还能再下降一个层次。* B, [& P" F/ G" Z# T7 l# L2 h
2 O6 A% i" i6 C b' t% C
需要指出的是,不能简单地添加基于度量学习的监督矩阵,一方面,在计算过程中梯度可能不存在,另一方面,基于KNN的SWMD将会耗费大量的时间,因此需要采取相关措施来解决这些问题。
* k6 X$ E9 h* f
% \; J7 |: L) a/ B( uSWMD简介:
a# h1 R _! m. @
! J1 V5 o5 |% |8 u- d8 K
) }4 m/ e; p: O5 B- a
0 [( y( T+ l0 w( v+ | Y) f
|
|