WikiEdge:ArXiv-2408.17428v1/summary:修订间差异

来自WikiEdge
跳转到导航 跳转到搜索
David留言 | 贡献
Saved page by David
 
David留言 | 贡献
Saved page by David
第1行: 第1行:
== 内容摘要 ==
<!-- 不要移除下面一行,如果有编辑错误,请直接修改该行以后的内容 -->
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17428v1/summary|action=edit}} 编辑]</div>
<div style="float: right;">[{{fullurl:WikiEdge:ArXiv-2408.17428v1/summary|action=edit}} 编辑]</div>
这篇论文介绍了一种名为Context Leveraging OCR Correction (CLOCR-C) 的方法,旨在利用基于Transformer的语言模型(LMs)来提高光学字符识别(OCR)的质量。研究主要聚焦于历史印刷媒体档案的数字化,尤其是报纸和期刊,这些文档由于布局复杂,OCR错误率较高。CLOCR-C通过结合语言模型上下文感知力和提示中的社会文化信息来纠正OCR错误,并提升下游自然语言处理(NLP)任务的性
这篇论文介绍了一种名为[[Context Leveraging OCR Correction]] (CLOCR-C)的方法,旨在利用[[预训练语言模型]]([[LMs]])来提高[[光学字符识别]]([[OCR]])的质量。研究主要围绕三个问题展开:LMs否能够提高[[报纸]][[期刊]]OCR输出的准确性;CLOCR-C错误率的降低是否够改善下游[[自然语言处理]]([[NLP]])任务;以及提供[[社会文化背景信息]]是否能够提高OCR输出准确性。
1. 引言部分讨论了数字化历史档案的重要性以及OCR在转换物理记录为数字文本过程中误差问题。文中指出,尽管已有多种OCR后处理方法,但利用大型语料库和机器学习方法提高OCR后处理速度质量是未来的发展方向
# '''引言''':强调[[数字化]]历史[[印刷媒体]]档案对于提高当代记录可访问性的重要性,同时指出OCR在转换物理记录为数字文本时容易出错,尤其是在报纸和期刊这类复杂布局的文。以往的研究和方法,包括[[众包校正]][[机器学习方法]],都面临着挑战局限性
2. CLOCR-C介绍部分阐述该方法的核心思想,即利用预训练语言模型的“填充”能力来纠正OCR文本中错误。研究目标是验证LMs在报纸和期刊OCR输出的准确性升、后CLOCR-C错误率对下游NLP任务的改善,以及社会文化语境在纠正过程中的价值。
# '''CLOCR-C介绍''':提出了利用预训练LMs的“填充”和适应上下文的能力来改善OCR质量概念。研究目标是探索LMs在OCR后校正、下游NLP任务性能以及在纠正过程中提供社会文化背景的价值。
3. 方法论部分详细描述了数据集和抽样方法、所使用的语言模型、实验设置和评估方法。特别指出对19世纪期刊版(NCSE)、《悉尼先驱晨报》和《美国编年史》三个数据集的使用,以及对七个不同LMs的测试。
# '''方法论''':
4. 实验结果表明,某些LMs显著降低错误率,其中表现最好的模型在NCSE数据集上实现了超过60%的字符错误率降低。此外,OCR改进也扩展到了下游任务,如命名实体识别(NER),通过提高余弦命名实体相似度(CoNES)来实现
#* '''数据集和抽样方法''':使用了包括19世纪期刊版([[NCSE]])、《[[悉尼先驱晨报]]》和《[[美国编年史]]三个数据集进行实验。
5. 讨论部分总结了LMs在OCR后处理中的有效性,并指出了提示对于短文本LM性能的敏感性。研究还探讨了社会文化语境对LM纠正性能影响发现提供真实的社会文化语境可以显著提高任务性能,而误导性提示则会降低性能。
#* '''语言模型''':比较了七种流行的LMs,包括[[GPT-4]]、[[GPT-3.5]]、[[Llama 3]]等。
6. 结论部分强调了CLOCR-C作为一种有前景的OCR校正方法,利用LMs在提示提供的社会文化信息,并通过OCR文本本身执行任务诱导上下文学习尽管CLOCR-C展现出潜力但使用大型闭源模型成本可能过高,这突显了对训练开源模型进行进一步研究的需求,以使CLOCR-C成为一种更经济、更广泛应用的解决方案
#* '''实验设置''':详细描述了用于LM评估[[提示]](prompt)变体、选择过程以及用于测试下游任务改进的实验
# '''实验结果''':
#* '''语言模型比较''':发现某些LMs显著降低错误率,其中在NCSE数据集上表现最好的模型实现了[[字符错误率]]超过60%的降低。
#* '''下游任务影响''':OCR质量提高扩展到了下游任务,如[[命名实体识别]]([[NER]]),提高余弦命名实体相似度。
#* '''社会文化信息作用''':研究表明在提示中提供社会文化背景可以改善性能,而误导性提示则会降低性能。
# '''结论''':论文得出CLOCR-C一种有前景方法,能够通过利用LMs中嵌入的社会文化信息和待纠正文本,提高现有数字档案质量同时论文还发布了一个包含91篇转录文章数据集以支持一领域的进一步研究。

2024年9月3日 (二) 08:29的版本

编辑

这篇论文介绍了一种名为Context Leveraging OCR Correction (CLOCR-C)的新方法,旨在利用预训练语言模型LMs)来提高光学字符识别OCR)的质量。研究主要围绕三个问题展开:LMs是否能够提高报纸期刊OCR输出的准确性;CLOCR-C错误率的降低是否能够改善下游自然语言处理NLP)任务;以及提供社会文化背景信息是否能够提高OCR输出的准确性。

  1. 引言:强调了数字化历史印刷媒体档案对于提高当代记录可访问性的重要性,同时指出OCR在转换物理记录为数字文本时容易出错,尤其是在报纸和期刊这类复杂布局的文档中。以往的研究和方法,包括众包校正机器学习方法,都面临着挑战和局限性。
  2. CLOCR-C介绍:提出了利用预训练LMs的“填充”和适应上下文的能力来改善OCR质量的概念。研究目标是探索LMs在OCR后校正、提高下游NLP任务性能以及在纠正过程中提供社会文化背景的价值。
  3. 方法论
    • 数据集和抽样方法:使用了包括19世纪期刊版(NCSE)、《悉尼先驱晨报》和《美国编年史》等三个数据集进行实验。
    • 语言模型:比较了七种流行的LMs,包括GPT-4GPT-3.5Llama 3等。
    • 实验设置:详细描述了用于LM评估的提示(prompt)变体、选择过程以及用于测试下游任务改进的实验。
  4. 实验结果
    • 语言模型比较:发现某些LMs显著降低了错误率,其中在NCSE数据集上表现最好的模型实现了字符错误率超过60%的降低。
    • 下游任务影响:OCR质量的提高扩展到了下游任务,如命名实体识别NER),提高了余弦命名实体相似度。
    • 社会文化信息的作用:研究表明,在提示中提供社会文化背景可以改善性能,而误导性的提示则会降低性能。
  5. 结论:论文得出CLOCR-C是一种有前景的方法,能够通过利用LMs中嵌入的社会文化信息和待纠正文本,提高现有数字档案的质量。同时,论文还发布了一个包含91篇转录文章的数据集,以支持这一领域的进一步研究。