12-论文阅读记录
2023
ACL
0 -《【模板】标题》
翻译:
- 关键词:NLP
- 数据集:
- 方法介绍:
- 结论
- 实现:
1 -《Annotating and Detecting Fine-grained Factual Errors for Dialogue Summarization》
翻译:注释和检测细粒度事实错误以进行对话总结
关键词:事实错误检测、事实错误注释、数据集:DIASUMFACT、模型方法:ENDERANKER
事实错误注释/标注,作者使用DIASUMFACT数据集对对话摘要中的细粒度句子级事实错误进行了注释,包括错误类别、错误跨度和解释
事实错误的检测方案:
1.基于文本蕴含的模型(二分类);
优点:有效地检测出事实错误;
缺点:需要大量标注数据的训练集
2.基于问答的模型
优点:易于纠正和理解
缺点:如何生成问题
模型方法:ENDERANKER
生成摘要:ENDERANKER使用不同的预训练编码器-解码器模型来生成摘要,包括T5、PEGASUS和BART等。
生成依存树:ENDERANKER使用Stanford CoreNLP工具生成摘要的依存树。
规则检测:ENDERANKER使用一组规则来检测依存树中的事实错误,包括错误类别、错误跨度和解释等。
模型检测:如果规则检测未能检测到错误,ENDERANKER将使用BERTMULTI模型来检测错误。
合并结果:ENDERANKER将规则检测和模型检测的结果合并起来,以获得最终的事实错误检测结果。
总的来说,ENDERANKER使用了多种技术来检测摘要中的事实错误,包括预训练编码器-解码器模型、依存树分析、规则检测和模型检测等。
2 -《Automated Metrics for Medical Multi-Document Summarization Disagree with Human Evaluations》
3 -《Cross-lingual Science Journalism: SELECT, SIMPLIFY and REWRITE Summaries for Non-expert Readers》
关键词:SSR框架、三个组件-SEKECT选候选摘要句子、SIMPLIFY生成一个语言的简单文本、REWRITE重写(采用的是mbart)、
九月
《Pretraining on the Test Set Is All You Need》
会议:?
时间:2023-09
link:https://arxiv.org/pdf/2309.08632.pdf
借助了一个高质量数据集(由huggingface上评估基准的数据集),来训练一个基于Transformer框架的模型,名为 phi-CTNL 的模型。
Summarization is (Almost) Dead
会议:
时间:2023-09
link:https://arxiv.org/pdf/2309.09558.pdf
使用LLMs模型,增对5个摘要任务
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 云般自由人!

