从PDF文档中提取信息,是很多类似RAG这样的应用第一步要处理的事情,这里需要做好三件事:
- 提取出来的文本要保持信息完整性,也就是准确性
- 提出的结果需要有附加信息,也就是要保存元数据
- 提取过程要完成自动化,也就是流程化
然而,在我们开始之前,我们需要指定目前不同类型的pdf,更具体地说,是出现最频繁的三种:
- 机器生成的pdf文件:这些pdf文件是在计算机上使用W3C技术(如HTML、CSS和Javascript)或其他软件(如Adobe Acrobat、Word或Typora等MarkDown工具)创建的。这种类型的文件可以包含各种组件,例如图像、文本和链接,这些组件都是可以被选中、搜索和易于编辑的。
- 传统扫描文档:这些PDF文件是通过扫描仪、手机是通过扫描王这样的APP从实物上扫描创建的。这些文件只不过是存储在PDF文件中的图像集合。也就是说,出现在这些图像中的元素,如文本或链接是不能被选择或搜索的。本质上,PDF只是这些图像的容器而已。
- 带OCR的扫描文档:这种类似有点特殊,在扫描文档后,使用光学字符识别(OCR)软件识别文件中每个图像中的文本,将其转换为可搜索和可编辑的文本。然后软件会在图像上添加一个带有实际文本的图层,这样你就可以在浏览文件时选择它作为一个单独的组件。但是有时候我们不能完全信任OCR,因为它还是存在一定几率的识别错误的。
考虑到所有上面说的几种不同类型的PDF文件格式,对PDF的布局进行初步分析以确定每个组件所需的适当工具就很重要了。更具体地说,根据此分析的结果,我们将应用适当的方法从PDF中提取文本,无论是在具有元数据的语料库块中呈现的文本、图像中的文本还是表格中的结构化文本。在没有OCR的扫描文档中,从图像中识别和提取文本将非常繁重。此过程的输出将是一个Python字典(dictionary),其中包含为PDF文件的每个页面提取的信息。该字典(dictionary)中的每个键将表示文档的页码,其对应的值将是一个列表,其中包含以下5个嵌套列表:
- 从语料库中每个文本块提取的文本
- 每个文本块中文本的格式,包括font-family和font-size
- 从页面中的图像上提取的文本
- 以结构化格式从表格中提取的文本
- 页面的完整文本内容
文本提取示意
这样,我们可以实现对每个PDF组件提取的文本的更合乎逻辑的分离,并且有时可以帮助我们更容易地检索通常出现在特定组件中的信息(例如,LOGO中的公司名称、表格中各数据的对应关系)。此外,从文本中提取的元数据,如font-family和font-size,可以用来轻松地识别文本标题或高亮的重要文本,这将帮助我们进一步分离,或者在多个不同的块中对文本进行合并、排序等后续处理。最后,以LLM能够理解的方式保留结构化表信息将显著提高对提取数据中关系的推理质量。然后,这些信息可以在最终输出的时候保留它原本的格式。您可以在下面的图片中看到这种方法的流程图。
PDF提取方法的具体流程,中间会有各种适配选择
安装所需的库
在我们开始使用PDF文本提取之前,应该安装必要的库。机器上首先需要安装Python 3.10或更高版本。你也可以安装最新的Anaconda,我装的就是它。
PyPDF2:从存储路径读取PDF文件。
1 | pip install PyPDF2 |
Pdfminer :执行布局分析并从PDF中提取文本和格式。(.six版本的库是支持Python 3的版本)
1 | pip install pdfminer.six |
Pdfplumber: 识别PDF页面中的table并从中提取信息。
1 | pip install pdfplumber |
Pdf2image:将裁剪后的PDF图像转换为PNG图像。
1 | pip install pdf2image |
PIL: 读取PNG图像。
1 | pip install Pillow |
Pytesseract: 从图像中提取文本使用OCR技术
这个安装起来有点棘手,因为首先,您需要安装Google Tesseract OCR
(链接在文章底部引用区),这是一个基于LSTM模型的OCR机器,用于识别行识别和字符模式。
如果你是Mac用户,你可以在你的终端上通过Brew安装它,这样就可以了。
1 | brew install tesseract |
对于Windows用户,可以参照以下步骤进行安装(https://linuxhint.com/install-tesseract-windows/)。安装软件后,需要将它们的可执行文件路径添加到计算机上的环境变量中。或者,也可以运行以下命令,使用以下代码直接将其路径包含在Python脚本中:
1 | pytesseract.pytesseract.tesseract_cmd = r'C:\Program Files\Tesseract-OCR\tesseract.exe' |
然后就可以安装Python库了
1 | pip install pytesseract |
最后,我们将在程序中导入所有库:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 | # 读取PDF import PyPDF2 # 分析PDF的layout,提取文本 from pdfminer.high_level import extract_pages, extract_text from pdfminer.layout import LTTextContainer, LTChar, LTRect, LTFigure # 从PDF的表格中提取文本 import pdfplumber # 从PDF中提取图片 from PIL import Image from pdf2image import convert_from_path # 运行OCR从图片中提取文本 import pytesseract # 清除过程中的各种过程文件 import os |
现在我们都准备好了,让我们来试一下这些库怎么样。
文档的布局(Layout)分析
布局分析,理解什么是LOGO,什么是标题,什么是表格等。
对于初步分析,我们使用PDFMiner的Python库将文档对象中的文本分离为多个页面对象,然后分解并检查每个页面的布局。PDF文件本身缺乏结构化信息,如我们可以一眼识别的段落、句子或单词等。相反,它们只理解文本中的单个字符及其在页面上的位置。通过这种方式,PDFMiner尝试将页面的内容重构为单个字符及其在文件中的位置。然后,通过比较这些字符与其他字符的距离,它组成适当的单词、句子、行和文本段落。为了实现这一点,PDFMiner使用高级函数extract_pages()
从PDF文件中分离各个页面,并将它们转换为LTPage对象。然后,对于每个LTPage对象,它从上到下遍历每个元素,并尝试将适当的组件识别为:
- LTFigure:表示PDF中页面上的图形或图像的区域。
- LTTextContainer:代表一个矩形区域(段落)中的一组文本行(line),然后进一步分析成LTTextLine对象的列表。它们中的每一个都表示一个LTChar对象列表,这些对象存储文本的单个字符及其元数据。
- LTRect表示一个二维矩形,可用于在LTPage对象中占位区或者Panel,图形或创建表。
因此,使用Python对页面进行重构之后,将页面元素分类为LTFigure(图像或图形)、LTTextContainer(文本信息)或LTRect(表格),我们就可以选择适当的函数来更好地提取内容信息了。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 | for pagenum, page in enumerate(extract_pages(pdf_path)): # Iterate the elements that composed a page for element in page: # Check if the element is a text element if isinstance(element, LTTextContainer): # Function to extract text from the text block pass # Function to extract text format pass # Check the elements for images if isinstance(element, LTFigure): # Function to convert PDF to Image pass # Function to extract text with OCR pass # Check the elements for tables if isinstance(element, LTRect): # Function to extract table pass # Function to convert table content into a string pass |
现在我们了解了流程的结构原理,接下来我们来创建从不同组件种提取文本所需的函数。
定义从PDF中提取文本的函数
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 | # 创建一个文本提取函数 def text_extraction(element): # 从行元素中提取文本 line_text = element.get_text() # 探析文本的格式 # 用文本行中出现的所有格式初始化列表 line_formats = [] for text_line in element: if isinstance(text_line, LTTextContainer): # 遍历文本行中的每个字符 for character in text_line: if isinstance(character, LTChar): # 追加字符的font-family line_formats.append(character.fontname) # 追加字符的font-size line_formats.append(character.size) # 找到行中唯一的字体大小和名称 format_per_line = list(set(line_formats)) # 返回包含每行文本及其格式的元组 return (line_text, format_per_line) |
因此,要从文本容器中提取文本,我们只需使用LTTextContainer元素的get_text()方法。此方法检索构成特定语料库框中单词的所有字符,并将输出存储在文本数据列表中。此列表中的每个元素表示容器中包含的原始文本信息。现在,为了识别该文本的格式,我们遍历LTTextContainer对象,以单独访问该语料库的每个文本行。在每次迭代中,都会创建一个新的LTTextLine对象,表示该语料库块中的一行文本。然后检查嵌套的line元素是否包含文本。如果是,我们将每个单独的字符元素作为LTChar访问,其中包含该字符的所有元数据。从这个元数据中,我们提取两种类型的格式,并将它们存储在一个单独的列表中,对应于检查的文本:
- 字符的font-family,包括字符是粗体还是斜体
- 字符的font-size
通常,特定文本块中的字符往往具有一致的格式,除非某些字符以粗体突出显示。为了便于进一步分析,我们捕获文本中所有字符的文本格式的唯一值,并将它们存储在适当的列表中。
获取字体、尺寸等元数据的过程
定义从图像中提取文本的函数
在这里,我认为这是一个更棘手的部分。如何处理在PDF中找到的图像中的文本?
首先,我们需要在这里确定存储在pdf中的图像元素与文件的格式不同,例如JPEG或PNG。这样,为了对它们应用OCR软件,我们需要首先将它们从文件中分离出来,然后将它们转换为图像格式。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 | # 创建一个从pdf中裁剪图像元素的函数 def crop_image(element, pageObj): # 获取从PDF中裁剪图像的坐标 [image_left, image_top, image_right, image_bottom] = [element.x0,element.y0,element.x1,element.y1] # 使用坐标(left, bottom, right, top)裁剪页面 pageObj.mediabox.lower_left = (image_left, image_bottom) pageObj.mediabox.upper_right = (image_right, image_top) # 将裁剪后的页面保存为新的PDF cropped_pdf_writer = PyPDF2.PdfWriter() cropped_pdf_writer.add_page(pageObj) # 将裁剪好的PDF保存到一个新文件 with open('cropped_image.pdf', 'wb') as cropped_pdf_file: cropped_pdf_writer.write(cropped_pdf_file) # 创建一个将PDF内容转换为image的函数 def convert_to_images(input_file,): images = convert_from_path(input_file) image = images[0] output_file = "PDF_image.png" image.save(output_file, "PNG") # 创建从图片中提取文本的函数 def image_to_text(image_path): # 读取图片 img = Image.open(image_path) # 从图片中抽取文本 text = pytesseract.image_to_string(img) return text |
为此,我们遵循以下流程:
- 我们使用从PDFMiner检测到的LTFigure对象的元数据来裁剪图像框,利用其在页面布局中的坐标。然后使用PyPDF2库将其保存为新的PDF文件。
- 然后,我们使用pdf2image库中的convert_from_file()函数将目录中的所有PDF文件转换为图像列表,并以PNG格式保存它们。
- 最后,现在我们有了图像文件,我们使用PIL模块的image 包在脚本中读取它们,并实现pytesseract的image_to_string()函数,使用tesseract OCR引擎从图像中提取文本。
结果,这个过程返回图像中的文本,然后我们将其保存在输出字典中的第三个列表中。此列表包含从检查页面上的图像中提取的文本信息。
定义从表格中提取文本的函数
在本节中,我们将从PDF页面上的表格中提取更具逻辑结构的文本。这是一个比从语料库中提取文本稍微复杂的任务,因为我们需要考虑信息的粒度和表中呈现的数据点之间形成的关系。虽然有几个库用于从pdf中提取表数据,其中Tabula-py是最著名的库之一,但我们已经确定了它们在功能上的某些限制。在我们看来,最明显的问题来自于库在表的文本中使用换行特殊字符\n来标识表的不同行。这在大多数情况下工作得很好,但是当单元格中的文本被包装成2行或更多行时,它无法正确捕获,从而导致添加不必要的空行并丢失提取的单元格的上下文。
当我们尝试使用tabula-py从一个表中提取数据时,你可以看到下面的例子:
提取表格信息,虽然转化为文本了,但是我们依然可以保留表格的信息
然后,提取的信息以Pandas DataFrame而不是字符串的形式输出。在大多数情况下,这可能是一种理想的格式,但是在考虑文本的Transformers的情况下,这些结果需要在输入到模型之前进行转换。出于这个原因,出于各种原因,我们使用了pdfplumber库来处理这个任务。首先,它是基于pdfminer构建的。我们初步分析时用了六个,也就是说里面有类似的物品。此外,它的表检测方法基于行元素及其交点,这些交点构建包含文本的单元格,然后是表本身。这样,在确定表的单元格之后,我们就可以提取单元格中的内容,而不必携带需要呈现的行数。然后,当我们拥有表的内容时,将其格式化为类似表的字符串,并将其存储在适当的列表中。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 | # 从页面中提取表格内容 def extract_table(pdf_path, page_num, table_num): # 打开PDF文件 pdf = pdfplumber.open(pdf_path) # 查找已检查的页面 table_page = pdf.pages[page_num] # 提取适当的表格 table = table_page.extract_tables()[table_num] return table # 将表格转换为适当的格式 def table_converter(table): table_string = '' # 遍历表格的每一行 for row_num in range(len(table)): row = table[row_num] # 从warp的文字删除线路断路器 cleaned_row = [item.replace('\n', ' ') if item is not None and '\n' in item else 'None' if item is None else item for item in row] # 将表格转换为字符串,注意'|'、'\n' table_string+=('|'+'|'.join(cleaned_row)+'|'+'\n') # 删除最后一个换行符 table_string = table_string[:-1] return table_string |
为了实现这一点,我们创建了两个函数,**extract_table()用于将表的内容提取到一个列表的列表中,table_converter()**用于将这些列表的内容连接到一个类似表的字符串中。
**extract_table()**函数中:
- 我们打开PDF文件。
- 我们导航到PDF文件的检查页面。
- 从pdfplumber在页面上找到的表列表中,我们选择所需的表。
- 我们提取表的内容,并将其输出到一个嵌套列表的列表中,该列表表示表的每一行。
在**table_converter()**函数:
- 我们在每个嵌套列表中迭代,并清除其上下文中来自任何换行文本的任何不需要的换行符。
- 我们通过使用|符号将行中的每个元素分开来连接它们,从而创建表单元格的结构。
- 最后,我们在末尾添加一个换行符以移动到下一行。
这将产生一个文本字符串,该字符串将显示表的内容,而不会丢失其中显示的数据的粒度。
整合所有文本
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 | # 查找PDF路径 pdf_path = 'OFFER 3.pdf' # 创建一个PDF文件对象 pdfFileObj = open(pdf_path, 'rb') # 创建一个PDF阅读器对象 pdfReaded = PyPDF2.PdfReader(pdfFileObj) # 创建字典以从每个图像中提取文本 text_per_page = {} # 我们从PDF中提取页面 for pagenum, page in enumerate(extract_pages(pdf_path)): # 初始化从页面中提取文本所需的变量 pageObj = pdfReaded.pages[pagenum] page_text = [] line_format = [] text_from_images = [] text_from_tables = [] page_content = [] # 初始化检查表的数量 table_num = 0 first_element= True table_extraction_flag= False # 打开pdf文件 pdf = pdfplumber.open(pdf_path) # 查找已检查的页面 page_tables = pdf.pages[pagenum] # 找出本页上的表格数目 tables = page_tables.find_tables() # 找到所有的元素 page_elements = [(element.y1, element) for element in page._objs] # 对页面中出现的所有元素进行排序 page_elements.sort(key=lambda a: a[0], reverse=True) # 查找组成页面的元素 for i,component in enumerate(page_elements): # 提取PDF中元素顶部的位置 pos= component[0] # 提取页面布局的元素 element = component[1] # 检查该元素是否为文本元素 if isinstance(element, LTTextContainer): # 检查文本是否出现在表中 if table_extraction_flag == False: # 使用该函数提取每个文本元素的文本和格式 (line_text, format_per_line) = text_extraction(element) # 将每行的文本追加到页文本 page_text.append(line_text) # 附加每一行包含文本的格式 line_format.append(format_per_line) page_content.append(line_text) else: # 省略表中出现的文本 pass # 检查元素中的图像 if isinstance(element, LTFigure): # 从PDF中裁剪图像 crop_image(element, pageObj) # 将裁剪后的pdf转换为图像 convert_to_images('cropped_image.pdf') # 从图像中提取文本 image_text = image_to_text('PDF_image.png') text_from_images.append(image_text) page_content.append(image_text) # 在文本和格式列表中添加占位符 page_text.append('image') line_format.append('image') # 检查表的元素 if isinstance(element, LTRect): # 如果第一个矩形元素 if first_element == True and (table_num+1) <= len(tables): # 找到表格的边界框 lower_side = page.bbox[3] - tables[table_num].bbox[3] upper_side = element.y1 # 从表中提取信息 table = extract_table(pdf_path, pagenum, table_num) # 将表信息转换为结构化字符串格式 table_string = table_converter(table) # 将表字符串追加到列表中 text_from_tables.append(table_string) page_content.append(table_string) # 将标志设置为True以再次避免该内容 table_extraction_flag = True # 让它成为另一个元素 first_element = False # 在文本和格式列表中添加占位符 page_text.append('table') line_format.append('table') # 检查我们是否已经从页面中提取了表 if element.y0 >= lower_side and element.y1 <= upper_side: pass elif not isinstance(page_elements[i+1][1], LTRect): table_extraction_flag = False first_element = True table_num+=1 # 创建字典的键 dctkey = 'Page_'+str(pagenum) # 将list的列表添加为页键的值 text_per_page[dctkey]= [page_text, line_format, text_from_images,text_from_tables, page_content] # 关闭pdf文件对象 pdfFileObj.close() # 删除已创建的过程文件 os.remove('cropped_image.pdf') os.remove('PDF_image.png') # 显示页面内容 result = ''.join(text_per_page['Page_0'][4]) print(result) |
上面的脚本将运行:
-
导入必要的库;
-
使用pyPDF2库打开PDF文件;
-
提取PDF的每个页面并重复以下步骤;
-
检查页面上是否有任何表,并使用pdfplumner创建它们的列表;
-
查找页面中嵌套的所有元素,并按照它们在页面布局中出现的顺序对它们进行排序。
然后对于每个元素:
检查它是否是一个文本容器,并且没有出现在表元素中。然后使用text_extraction()函数提取文本及其格式,否则传递该文本。
检查它是否为图像,并使用crop_image()函数从PDF中裁剪图像组件,使用convert_to_images()将其转换为图像文件,并使用image_to_text()函数使用OCR从中提取文本。
检查它是否是一个矩形元素。在这种情况下,我们检查第一个矩形是否是页表的一部分,如果是,我们移动到以下步骤:
- 查找表的边界框,以便不再使用text_extraction()函数提取其文本。
- 提取表的内容并将其转换为字符串。
- 然后添加一个布尔参数来说明我们是从Table中提取文本的。
- 此过程将在最后一个LTRect落在表的边界框中并且布局中的下一个元素不是矩形对象之后结束。(构成表的所有其他对象都将被传递)
每次迭代的输出将存储在5个列表中,命名为:
- page_text:包含来自PDF中文本容器的文本(当文本从另一个元素中提取时,将放置占位符)
- Line_format:包含上面提取的文本的格式(当文本从另一个元素提取时,将放置占位符)
- Text_from_images:包含从页面上的图像中提取的文本
- Text_from_tables:包含带有表内容的类表字符串
- Page_content:以元素列表的形式包含页面上呈现的所有文本
所有的列表将被存储在字典的关键,将代表每次检查页面的数量。
之后,我们将关闭PDF文件。
然后,我们将删除在此过程中创建的所有附加文件。
最后,我们可以通过连接page_content列表的元素来显示页面的内容。
引用
- https://www.techopedia.com/12-practical-large-language-model-llm-applications
- https://www.pdfa.org/wp-content/uploads/2018/06/1330_Johnson.pdf
- PDF & OCR: Everything You Need to Know in 2023 | PDF Pro technology reads text from, a searchable and editable PDF.
- Converting a PDF file to text — pdfminer.six __VERSION__ documentation
- https://github.com/pdfminer/pdfminer.six
- Google Tesseract OCR:https://github.com/tesseract-ocr/tesseract