谷歌发布最新“天马”模型,自动生成文本摘要已超越人类!

  我们知道,Transfromer 在处理长序列文本方面比 CNN/RNN 表现更为出色,因此,最强大的预训练模型,如 BERT、GPT 均采用的是 Transfromer 基础架构。而且事实证明,在处理诸如机器翻译、文本摘要、语音识别、问答系统等多种语言任务时,只需进行微调,即可达到 SOTA 性能。

Read More →