【技术实现步骤摘要】
基于多源领域适应联合学习的跨领域文本情感分类方法
本专利技术涉及自然语言处理文本情感分析领域,提出了一种基于多源领域适应联合学习的跨领域文本情感分类方法。
技术介绍
跨领域情感分类(Cross-domainsentimentclassification)被定义为通过迁移源领域任务的情感信息到目标领域,利用相关的源领域带标签的数据学习一个精确的情感分类器,实现对目标领域不带标签数据的情感极性分类任务。跨领域文本情感分类作为自然语言处理任务中的重要分支,一直是产业界和学术界的研究热点和难点。根据可用的源领域的个数,可以分为单源领域和多源领域的跨领域情感分类。多源领域优势在于可以利用多个源领域的信息训练更鲁棒的模型,难点在于如何选择合适的源领域和如何融合多个多领域的情感信息。大部分多源跨领域情感分类研究主要专注于目标领域数据样本稀缺问题和如何利用多个源领域数据,多采用基于实例迁移或者模型迁移的方法。从模型迁移的角度看,Tan等人定义了多视角和多源领域的迁移学习,提出了一种新的“协同利用不同视角和源领域的知识算法”(StatisticalAnalysisandDataMining:TheASADataScienceJournal,2014,第7卷第4期),通过不同源领域互相协同训练的方法,可以弥补不同领域之间的分布差异。Ge等人提出了一种“快速的、可扩展的在线多领域迁移学习框架”(ProceedingsoftheACMInternationalConferenceonInformationandKnowledgeManagement,2013),此框架在凸优化的基 ...
【技术保护点】
1.一种基于多源领域适应联合学习的跨领域文本情感分类方法,其特征在于,包括以下步骤:S1,多源领域适应联合学习(Multi‑source domain adaptation with joint learning):我们迁移多个源领域任务TaskSk(1≤k≤K)的情感知识,并利用少量的目标领域带标签数据DL,同时学习TaskSk和TaskT,得到假设
【技术特征摘要】
1.一种基于多源领域适应联合学习的跨领域文本情感分类方法,其特征在于,包括以下步骤:S1,多源领域适应联合学习(Multi-sourcedomainadaptationwithjointlearning):我们迁移多个源领域任务TaskSk(1≤k≤K)的情感知识,并利用少量的目标领域带标签数据DL,同时学习TaskSk和TaskT,得到假设目标是最小化经验损失提高目标领域任务上的分类效果;S2,构建特定领域的BiGRU-ConvNets深度特征提取模型,使用在大量的无监督语料上得到的预训练词向量作为模型的输入。同时,词向量在针对特定的任务时可以微调;S3,为了预训练BiGRU-ConvNets底层参数,使用源领域和目标领域的数据执行编码—解码操作初始化BiGRU网络的参数,编码解码的操作流程为x→C→h;S4,考虑到不同领域的情感分布的差异性,通过最小化参数迁移过程中的损失Lshare实现情感知识的迁移,目标是迁移多个源领域的知识到目标领域的特征表示中;S5,在源领域任务和目标领域任务上的整体情感损失为S6,源领域TaskSk的特征表示记为RSk,目标领域TaskT的特征表示记为RT,我们希望经过核希尔伯特空间映射后源领域和目标领域的分布尽可能地相似,即RSk≈RT;S7,定义联合损失函数L=Lsen+λLshare+ηLdomain+σReg,优化学习的目标函数是和参数集更新策略;S8,对于每个源任务和目标任务,我们对每个组合对(TaskSk,TaskT)进行交替训练。通过以这种方式训练网络,可以提高每个任务的性能,而无需找到更多领域特定的训练数据。使用随机梯度下降法训练参数,使用迭代的方法获得最佳参数集θopt。2.根据权利要求1所述的基于多源领域适应联合学习的跨领域文本情感分类方法,其特征在于,所述步骤S1包括:S11,在多源领域适应联合学习中,有三点值得注意,分别是:数据的表示、学习算法和共享的机制;S12,在数据表示上,我们使用在大量语料上得到的词的分布式表示输入到BiGRU-ConvNets模型中,每个词被表示为低维连续的实值向量;S13,在联合学习算法上,我们使用源领域任务和目标领域任务的组合对交替训练神经网络;S14,在领域共享机制上,我们采用软参数共享的方法分层地抽取和迁移神经网络的参数。此方法既考虑了不同任务的共享结构,又考虑了领域的特定特征。3.根据权利要求1所述的基于多源领域适应联合学习的跨领域文本情感分类方法,其特征在于,所述步骤S2包括:S21,在此模型中,输入为文本的词序列x={x1,x2,…xn},其中wi∈Rd为第i-th个词的嵌入式表示,d为词向量的维度;S22,门循环单元(Gatedrecurrentunits,GRU)是一种LSTM的轻量变体,训练速度要快于LSTM。一个门循环单元细胞包含更新门zt,重置门rt,候选门和输出ht;S23,BiGRU包含正向和反向两个隐层,两个方向的结果联合到最终的输出;S24,BiGRU的输出序列h={h1,h2,…hn}作为卷积神经网络的输入。在ConvNets网络中,输入层BiGRU生成的特征向量自顶向下排列生成的矩阵W∈Rn×d。在卷积层中,卷积的窗口大小为N元语法,诸如一元语法、二元语法、三元语法等。wi:i+m-1代表m个词,即wi,wi+1,和wi+m-1;S25,新的特征gi由wi:i+m-1生成,gi=ReLU(eT·wi:i+m-1+b)。其中,ReLU为线性单元激活函数,e∈Rm×d为卷积核,b∈R为偏置项。可以得到卷积矩阵g=[g1,g2…gn-h+1];S26,在Pooling层,我们使用Max-over-pooling的方法对卷积层得到的特征映射抽取最大值。Pooling层输出为每个特征映射的最大值,即最终l个卷积核得到的特征向量为这不仅抽取出了句子中重要的情感信息,还保持了顺序信息;S27,在情感分类阶段,在Pooling层后,输出的特征向量z通过全连接的方式被连接Softmax层。其中y为情感标签,w为全连接层的参数,为偏置项。我们在Softmax层引入Dropout机制减少过拟合。4.根据权利要求1所述的基于多源领域适应联合学习的跨领域文本情感分类方法,其特征在于,步骤S3还包括:S31,为了预训练BiGRU-ConvNets底层参数,我们使用源领域和目标领域的数据...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。