我是靠谱客的博主 背后糖豆,这篇文章主要介绍bert做文本摘要_Fine-tune BERT for Summarization: BERT和文本摘要,现在分享给大家,希望可以做个参考。

BERT论文系列导读

导读

文本摘要主要分为抽取式文本摘要和生成式文本摘要,抽取式文本摘要因为发展的时间比较长,因此在工业界应用的范围比较广。比较常用的抽取式文本摘要的算法就是Textrank,但是呢,本文要介绍一篇和BERT相关的抽取式摘要的模型。当然作为对比,本文也介绍了另一篇文章,结合了Textrank和BERT的模型,希望对大家有所启发。

Bert With Summarization

首先介绍一下模型的结构,原始的BERT的输出是针对Token而不是句子的,而且原始BERT的输入只有两个句子,并不适合文本摘要。

因此首先作者对BERT的结构做了一些更改,让他变得更适合文本摘要这个任务,作者的更改可以在下图体现到:作者使用[CLS]和[SEP]区分每一个句子,在原始的BERT中[CLS]表示一整个句子或者句子对的内容,在这里作者修改了模型结构,使用[CLS]来区分每一个句子

作者对每一个句子增加了segment embedding,segment embedding由句子的奇偶顺序决定,例如对于句子[sen1, sen2, sen3, sen4, sen5]他们的segment embedding就是[EA, EB, EA, EB, EA]。

Summarization layer

得到了句子的向量之后,接下来要做的工作就是判断这句话是否要组成文本的摘要。这就是一个二分类的工作了,作者尝试了三种summarization layer,分别是传统的全连接层

Inter-sentenc

最后

以上就是背后糖豆最近收集整理的关于bert做文本摘要_Fine-tune BERT for Summarization: BERT和文本摘要的全部内容,更多相关bert做文本摘要_Fine-tune内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(90)

评论列表共有 0 条评论

立即
投稿
返回
顶部