2023

ACL

0 -《【模板】标题》

翻译:
  • 关键词:NLP
  • 数据集:
  • 方法介绍:
  • 结论
  • 实现:

1 -《Annotating and Detecting Fine-grained Factual Errors for Dialogue Summarization》

翻译:注释和检测细粒度事实错误以进行对话总结
  • 关键词:事实错误检测事实错误注释数据集:DIASUMFACT模型方法:ENDERANKER

    事实错误注释/标注,作者使用DIASUMFACT数据集对对话摘要中的细粒度句子级事实错误进行了注释,包括错误类别、错误跨度和解释

事实错误的检测方案:

1.基于文本蕴含的模型(二分类);

优点:有效地检测出事实错误;
缺点:需要大量标注数据的训练集

2.基于问答的模型

优点:易于纠正和理解
缺点:如何生成问题

模型方法:ENDERANKER

  1. 生成摘要:ENDERANKER使用不同的预训练编码器-解码器模型来生成摘要,包括T5、PEGASUS和BART等。

  2. 生成依存树:ENDERANKER使用Stanford CoreNLP工具生成摘要的依存树。

  3. 规则检测:ENDERANKER使用一组规则来检测依存树中的事实错误,包括错误类别、错误跨度和解释等。

  4. 模型检测:如果规则检测未能检测到错误,ENDERANKER将使用BERTMULTI模型来检测错误。

  5. 合并结果:ENDERANKER将规则检测和模型检测的结果合并起来,以获得最终的事实错误检测结果。

总的来说,ENDERANKER使用了多种技术来检测摘要中的事实错误,包括预训练编码器-解码器模型、依存树分析、规则检测和模型检测等。

2 -《Automated Metrics for Medical Multi-Document Summarization Disagree with Human Evaluations》

3 -《Cross-lingual Science Journalism: SELECT, SIMPLIFY and REWRITE Summaries for Non-expert Readers》

关键词:SSR框架、三个组件-SEKECT选候选摘要句子、SIMPLIFY生成一个语言的简单文本、REWRITE重写(采用的是mbart)、


九月

《Pretraining on the Test Set Is All You Need》

会议:?

时间:2023-09

link:https://arxiv.org/pdf/2309.08632.pdf

借助了一个高质量数据集(由huggingface上评估基准的数据集),来训练一个基于Transformer框架的模型,名为 phi-CTNL 的模型。

Summarization is (Almost) Dead

会议:

时间:2023-09

link:https://arxiv.org/pdf/2309.09558.pdf

使用LLMs模型,增对5个摘要任务