双向循环网络中文分词模型

Posted 学术世界

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了双向循环网络中文分词模型相关的知识,希望对你有一定的参考价值。

双向循环网络中文分词模型


胡婕,张俊驰  

湖北大学

 

针对统计方法的中文分词模型主要依赖于特征工程,难以捕捉句子中长距离依赖关系等问题,提出一种双向循环网络中文分词模型.为能有效获取待分类字符的上下文特征,避免局部窗口大小的限制,使用长短时记忆网络(Long Short-Term Memory Neural Network,LSTM)作为神经网络隐藏层,同时增加一层反向LSTM抽取字符的将来信息特征.提出一种语言模型预训练的网络权值初始化方法,该模型同时得到中文字符embeddings分布式向量特征.在标准分词数据集上测试表明该模型取得比以往统计标注方法更好的效果.通过对比实验结果发现深层神经网络能提取出不逊于人工总结的分词特征.

小型微型计算机系统

2017, 38(3): 522-526


作者简介 胡婕,女,1977年生,博士,副教授,主要研究方向为数据库及其推理、语义数据库、复杂数据管理; 张俊驰,男,1990年生,硕士研究生,主要研究方向为机器学习、自然语言处理.

扫描下载全文

双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型双向循环网络中文分词模型

双向循环网络中文分词模型

http://xwxt.sict.ac.cn/CN/Y2017/V38/I3/522


猜你喜欢 | 推荐指数★★★★★

双向循环网络中文分词模型
发表于近期 学术世界
查看: 370






中科国鼎数据科学研究院


   

温馨提示:点击页面右下角“写留言”发表评论,期待您的参与!欢迎转发!

以上是关于双向循环网络中文分词模型的主要内容,如果未能解决你的问题,请参考以下文章

Jieba中文分词 ——分词与自定义字典

自己动手实现一个神经网络中文分词模型

HMM 实践之一 Viterbi 中文分词

自然语言处理之HMM模型分词

自然语言处理 | 双向匹配中文分词 Python

Python深度学习循环神经网络RNN中文分词实战(附源码)