【计算机视觉项目实战】中文场景识别

在这里插入图片描述

专栏介绍: 经过几个月的精心筹备,本作者推出全新系列《深入浅出OCR》专栏,对标最全OCR教程,具体章节如导图所示,将分别从OCR技术发展、方向、概念、算法、论文、数据集等各种角度展开详细介绍。

👨‍💻面向对象: 本篇前言知识主要介绍深度学习知识,全面总结知知识点,方便小白或AI爱好者学习基础知识。

💚友情提醒: 本文内容可能未能含概深度学习所有知识点,其他内容可以访问本人主页其他文章或个人博客,同时因本人水平有限,文中如有错误恳请指出,欢迎互相学习交流!

💙个人主页: GoAI |💚 公众号: GoAI的学习小屋 | 💛交流群: 704932595 |💜个人简介 : 掘金签约作者、百度飞桨PPDE、领航团团长、开源特训营导师、CSDN、阿里云社区人工智能领域博客专家、新星计划计算机视觉方向导师等,专注大数据与人工智能知识分享。

💻文章目录

在这里插入图片描述

image.png

💻文章目录

《深入浅出OCR》前言知识(二):深度学习基础总结 (✨文末有深度学习总结导图福利!)

《深入浅出OCR》前言知识(一):机器学习基础总结 (✨文末有机器学习总结导图福利!)


【计算机视觉OCR项目实战】中文文字识别

💻本篇导读:在上节深度学习知识总结,本人对手写识别项目进行实战,为了进一步学习计算机视觉知识,我们本次以计算机视觉的OCR方向为例,完成中文场景识别,从头到尾帮助大家学习并完成中文文字识别实战任务,方便学习者学习计算机视觉项目流程。

一、项目背景

随着OCR领域在结构化数据中取得不错成果及应用,中文场景文字识别技术在人们的日常生活中受到广泛关注,在文档识别、身份证识别、银行卡识别、病例识别、名片识别等领域广泛应用.但由于中文场景中的文字容易受光照变化、低分辨率、字体以及排布多样性、中文字符种类多等影响,对识别经典有一定影响,如何解决这一问题是目前值得关注的。

image.png

二、项目简介:

本项目为基于PaddleOCR的中文场景文字识别,项目主要以CRNN网络为基础框架,结合数据增强及模型微调,采用ResNet34和MobileNetV3模型作为骨干网络,进行训练及预测。以准确度为评价指标,最终生成的预测文件为work中的result.txt文件。

三、数据集介绍:

项目提供的数据训练集(train_img)是5w张,测试集(test_img)为1w张。训练集原始标注文件(train.list)。

  • 数据集采自中国街景,并由街景图片中的文字行区域(例如店铺标牌、地标等等)截取出来而形成
  • 所有图像都经过一些预处理,将文字区域利用仿射变化,等比映射为一张高为48像素的图片。

数据集样例如下:
image.png

image.png

标注文件

本数据集提供的标注文件为.txt文件格式。标注文件中的四列分别是图片的宽、高、文件名和文字标注。标注文件信息如下:

hwnamevalue
12848img_1.jpg文本1
5648img_2.jpg文本2

四、相关框架及技术

PaddleOCR框架: https://github.com/PaddlePaddle/PaddleOCR

PaddleOCR是一款超轻量、中英文识别模型,目标是打造丰富、领先、实用的文本识别模型/工具库
3.5M实用超轻量OCR系统,支持在服务器,移动,嵌入式和IoT设备之间进行培训和部署
同时支持中英文识别;支持倾斜、竖排等多种方向文字识别,支持GPU、CPU预测,同时可运行于Linux、Windows、MacOS等多种系统。

186170862-b8f80f6c-fee7-4b26-badc-de9c327c76ce.png

本次项目以开源的百度飞桨PaddleOCR为框架,采用CRNN+CTC网络为主体,具体结构如下图:
image.png

五、项目流程:

深度学习OCR通用流程

项目分析:针对中文场景下的数据预处理(包括:把繁体字转成简体字,大写->小写,删除空格,删除符号等操作),结合相应的中文字典来提升文字识别的准确率。并且在飞桨框架下采用当前业界最经典的CRNN算法架构来建模与求解,以保证模型的性能。

基于上述分析,我将本次项目大致分为以下几个流程:

1.PaddleOCR环境安装

2.数据处理

3.模型调整

4.训练与预测

六、环境安装

6.1 项目环境安装

本次项目环境需要先克隆PaddleOCR项目,具体命令:

!cd ~/work && git clone -b develop <https://gitee.com/paddlepaddle/PaddleOCR.git>

其次,需要安装PaddleOCR项目提供环境文件requirements.txt,具体命令:

!cd ~/work/PaddleOCR
!pip install -r ./requirements.txt && python setup.py install

6.2 PaddleOCR识别测试

另外,在正式开始介绍项目前,我们尝试可以快速开始体验PaddleOCR,将其应用到自己的领域进行图片识别测试。同样需要我们在自己电脑上安装如下环境

1.1 安装PaddlePaddle

如果大家没有基础的Python运行环境,请参考运行环境准备。

  • 您的机器安装的是CUDA9或CUDA10,请运行以下命令安装

    python3 -m pip install paddlepaddle-gpu -i https://mirror.baidu.com/pypi/simple
    
  • 您的机器是CPU,请运行以下命令安装

    python3 -m pip install paddlepaddle -i https://mirror.baidu.com/pypi/simple
    

更多的版本需求,请参照飞桨官网安装文档中的说明进行操作。

1.2 安装PaddleOCR whl包

pip install "paddleocr>=2.0.1" # 推荐使用2.0.1+版本

在安装好环境后,为了大家能够更好的直观体验PaddleOCR识别效果,我们可以直接调用PaddleOCR框架提供的接口进行测试,本人帮大家整理好了相关代码,大家可以自行更换图片路径。

from paddleocr import PaddleOCR, draw_ocr
# Paddleocr supports Chinese, English, French, German, Korean and Japanese.
# You can set the parameter `lang` as `ch`, `en`, `fr`, `german`, `korean`, `japan` to switch the language model in order.
ocr = PaddleOCR(use_angle_cls=True, lang='en',  #选择语种use_gpu=False, #是否调用GPUdet_model_dir="/root/.paddleocr/whl/det/en/en_PP-OCRv3_det_infer/", # 检测模型cls_model_dir="/root/.paddleocr/whl/cls/ch_ppocr_mobile_v2.0_cls_infer/", # 分类模型rec_model_dir="/root/.paddleocr/whl/rec/en/en_PP-OCRv3_rec_infer/" # 识别模型
)  # need to run only once to download and load model into memoryimg_path = './1.jpg'  #更换自己的图片路径
result = ocr.ocr(img_path, cls=True)
for line in result:print(line)# draw result
from PIL import Image
image = Image.open(img_path).convert('RGB')
boxes = [line[0] for line in result]
txts = [line[1][0] for line in result]
scores = [line[1][1] for line in result]
im_show = draw_ocr(image, boxes, txts, scores, font_path='./fonts/simfang.ttf') # 字体需要准备
im_show = Image.fromarray(im_show)
im_show.save('result.jpg')

七、数据处理及增广合成

7.1 解压数据集

解压训练集与测试集

!cd ~/data/data62842/ && unzip train\_images.zip
!cd ~/data/data62843/ && unzip test\_images.zip

重命名处理

!cd ~/data/data62842/ && mv train\_images ../ && mv train\_label.csv ../
!cd ~/data/data62843/ && mv test\_images ../

查看前十条数据样例

%cd data/data62842
!cat  train\_label.csv | head  -n 10

2.2数据增广

首先,考虑使用轻量模型会有一定精度损失,采用经典网络ResNet34。

其次,为了进一步增强识别效果及模型泛化行,参考其他项目使用text_render进行数据增广。

最后,使用text_renderer进行数据增广,修改text_render/configs/default.yaml配置,以下为更改后的模版,主要将三项做修改,分别是font_color的enable设为True,img_bg的enable设为False,seamless_clone的enable设为True。

数据增广参考: 链接

本次数据增广参数配置信息如下:

# Small font_size will make text looks like blured/prydown
font_size:min: 14max: 23# choose Text color range
# color boundary is in R,G,B format
font_color:enable: Trueblue:fraction: 0.5l_boundary: [0,0,150]h_boundary: [60,60,255]brown:fraction: 0.5l_boundary: [139,70,19]h_boundary: [160,82,43]# By default, text is drawed by Pillow with (https://stackoverflow.com/questions/43828955/measuring-width-of-text-python-pil)
# If `random_space` is enabled, some text will be drawed char by char with a random space
random_space:enable: falsefraction: 0.3min: -0.1 # -0.1 will make chars very close or even overlappedmax: 0.1# Do remap with sin()
# Currently this process is very slow!
curve:enable: falsefraction: 0.3period: 360  # degree, sin 函数的周期min: 1 # sin 函数的幅值范围max: 5# random crop text height
crop:enable: falsefraction: 0.5# top and bottom will applied equallytop:min: 5max: 10 # in pixel, this value should small than img_heightbottom:min: 5max: 10 # in pixel, this value should small than img_height# Use image in bg_dir as background for text
img_bg:enable: falsefraction: 0.5# Not work when random_space applied
text_border:enable: falsefraction: 0.5# lighter than word colorlight:enable: truefraction: 0.5# darker than word colordark:enable: truefraction: 0.5# https://docs.opencv.org/3.4/df/da0/group__photo__clone.html#ga2bf426e4c93a6b1f21705513dfeca49d
# https://www.cs.virginia.edu/~connelly/class/2014/comp_photo/proj2/poisson.pdf
# Use opencv seamlessClone() to draw text on background
# For some background image, this will make text image looks more real
seamless_clone:enable: truefraction: 0.5perspective_transform:max_x: 25max_y: 25max_z: 3blur:enable: truefraction: 0.03# If an image is applied blur, it will not be applied prydown
prydown:enable: truefraction: 0.03max_scale: 1.5 # Image will first resize to 1.5x, and than resize to 1xnoise:enable: truefraction: 0.3gauss:enable: truefraction: 0.25uniform:enable: truefraction: 0.25salt_pepper:enable: truefraction: 0.25poisson:enable: truefraction: 0.25line:enable: falsefraction: 0.05random_over:enable: truefraction: 0.2under_line:enable: falsefraction: 0.2table_line:enable: falsefraction: 0.3middle_line:enable: falsefraction: 0.3line_color:enable: falseblack:fraction: 0.5l_boundary: [0,0,0]h_boundary: [64,64,64]blue:fraction: 0.5l_boundary: [0,0,150]h_boundary: [60,60,255]# These operates are applied on the final output image,
# so actually it can also be applied in training process as an data augmentation method.# By default, text is darker than background.
# If `reverse_color` is enabled, some images will have dark background and light text
reverse_color:enable: falsefraction: 0.5emboss:enable: falsefraction: 0.1sharp:enable: falsefraction: 0.1

2.3数据预处理

  • 读取train.list标签文件,生成图片的信息字典。
  • get_aspect_ratio函数设定图片信息(宽、高、比例、最长字符串、类别等信息)。
  • 对标签label进行预处理,进行“繁体->简体”、“大写->小写”、“删除空格”、“删除符号”等操作。
import glob
import os
import cv2def get_aspect_ratio(img_set_dir):m_width = 0m_height = 0width_dict = {}height_dict = {}images = glob.glob(img_set_dir+'*.jpg')for image in images:img = cv2.imread(image)width_dict[int(img.shape[1])] = 1 if (int(img.shape[1])) not in width_dict else 1 + width_dict[int(img.shape[1])]height_dict[int(img.shape[0])] = 1 if (int(img.shape[0])) not in height_dict else 1 + height_dict[int(img.shape[0])]m_width += img.shape[1]m_height += img.shape[0]m_width = m_width/len(images)m_height = m_height/len(images)aspect_ratio = m_width/m_heightwidth_dict = dict(sorted(width_dict.items(), key=lambda item: item[1], reverse=True))height_dict = dict(sorted(height_dict.items(), key=lambda item: item[1], reverse=True))return aspect_ratio,m_width,m_height,width_dict,height_dict
aspect_ratio,m_width,m_height,width_dict,height_dict = get_aspect_ratio("/home/aistudio/data/train_images/")
print("aspect ratio is: {}, mean width is: {}, mean height is: {}".format(aspect_ratio,m_width,m_height))
print("Width dict:{}".format(width_dict))
print("Height dict:{}".format(height_dict))
import pandas as pddef Q2B(s):"""全角转半角"""inside_code=ord(s)if inside_code==0x3000:inside_code=0x0020else:inside_code-=0xfee0if inside_code<0x0020 or inside_code>0x7e: #转完之后不是半角字符返回原来的字符return sreturn chr(inside_code)def stringQ2B(s):"""把字符串全角转半角"""return "".join([Q2B(c) for c in s])def is_chinese(s):"""判断unicode是否是汉字"""for c in s:if c < u'\u4e00' or c > u'\u9fa5':return Falsereturn Truedef is_number(s):"""判断unicode是否是数字"""for c in s:if c < u'\u0030' or c > u'\u0039':return Falsereturn Truedef is_alphabet(s):"""判断unicode是否是英文字母"""for c in s:if c < u'\u0061' or c > u'\u007a':return Falsereturn Truedef del_other(s):"""判断是否非汉字,数字和小写英文"""res = str()for c in s:if not (is_chinese(c) or is_number(c) or is_alphabet(c)):c = ""res += creturn resdf = pd.read_csv("/home/aistudio/data/train_label.csv", encoding="gbk")
name, value = list(df.name), list(df.value)
for i, label in enumerate(value):# 全角转半角label = stringQ2B(label)# 大写转小写label = "".join([c.lower() for c in label])# 删除所有空格符号label = del_other(label)value[i] = label# 删除标签为""的行
data = zip(name, value)
data = list(filter(lambda c: c[1]!="", list(data)))
# 保存到work目录
with open("/home/aistudio/data/train_label.txt", "w") as f:for line in data:f.write(line[0] + "\t" + line[1] + "\n")# 记录训练集中最长标签
label_max_len = 0
with open("/home/aistudio/data/train_label.txt", "r") as f:for line in f:name, label = line.strip().split("\t")if len(label) > label_max_len:label_max_len = len(label)print("label max len: ", label_max_len)
def create_label_list(train_list):classSet = set()with open(train_list) as f:next(f)for line in f:img_name, label = line.strip().split("\t")for e in label:classSet.add(e)# 在类的基础上加一个blankclassList = sorted(list(classSet))with open("/home/aistudio/data/label_list.txt", "w") as f:for idx, c in enumerate(classList):f.write("{}\t{}\n".format(c, idx))# 为数据增广提供词库with open("/home/aistudio/work/text_renderer/data/chars/ch.txt", "w") as f:for idx, c in enumerate(classList):f.write("{}\n".format(c))return classSetclassSet = create_label_list("/home/aistudio/data/train_label.txt")
print("classify num: ", len(classSet))

这里我们需要通过上述代码对数据集进行信息统计,设置识别算法参数,具体统计结果如下:

宽高比等信息:
aspect ratio is: 3.451128333333333, mean width is: 165.65416, mean height is: 48.0
Width dict:{48: 741, 96: 539, 44: 392, 42: 381, 144: 365, 45: 345, 43: 323, 72: 318, 88: 318, 40: 312, 52: 301, 36: 298, 50: 297, 120: 294, 54: 288, 84: 286, 51: 283, 32: 283, 24: 281, 100: 277, 64: 276, 80: 276, 76: 275, 102: 272, 81: 270, 90: 269, 56: 268, 66: 267, 78: 266, 37: 262, 82: 261, 41: 259, 89: 25.....
词典规格:
Height dict:{48: 50000}
最长字符长度:
label max len:  77
类别数:
classify num:  3096

八、模型调整

  • 加载官方提供的CRNN预训练模型。
  • 改变默认输入图片尺寸,高度height设为48,宽度width设为256。
  • 优化学习率策略,通过cosine_decay和warmup策略加快模型收敛。

CRNN模型介绍

本项目模型采用文字识别经典CRNN模型(CNN+RNN+CTC),其中部分模型代码经过PaddleOCR源码改编,完成识别模型的搭建、训练、评估和预测过程。训练时可以手动更改config配置文件(数据训练、加载、评估验证等参数),默认采用优化器采用Adam,使用CTC损失函数。本项目采用ResNet34作为骨干网络。

CRNN网络结构包含三部分,从下到上依次为:

(1)卷积层。作用是从输入图像中提取特征序列。

(2)循环层。作用是预测从卷积层获取的特征序列的标签(真实值)分布。

(3)转录层。作用是把从循环层获取的标签分布通过去重整合等操作转换成最终的识别结果。

CRNN网络详细流程:

v2-aed7f7b69bc3bf751085ac7c488b1b07_1440w.png

下载PaddleOCR提供的训练权重

!cd ~/work/PaddleOCR && mkdir pretrain_weights && cd pretrain_weights && wget https://paddleocr.bj.bcebos.com/20-09-22/server/rec/ch_ppocr_server_v1.1_rec_pre.tar

解压训练权重文件

!cd ~/work/PaddleOCR/pretrain_weights && tar -xf ch_ppocr_server_v1.1_rec_pre.tar

PaddleOCR通过将训练参数统一为配置文件进行训练,具体位置在PaddleOCR/configs/rec中,添加训练配置文件 my_rec_ch_train.yml和my_rec_ch_reader.yml

#my_rec_ch_train.yml
Global:algorithm: CRNNuse_gpu: trueepoch_num: 201log_smooth_window: 20print_batch_step: 10save_model_dir: ./output/my_rec_chsave_epoch_step: 50eval_batch_step: 1000train_batch_size_per_card: 64test_batch_size_per_card: 64image_shape: [3, 48, 256]max_text_length: 80character_type: chcharacter_dict_path: ./ppocr/utils/ppocr_keys_v1.txtloss_type: ctcdistort: trueuse_space_char: truereader_yml: ./configs/rec/my_rec_ch_reader.ymlpretrain_weights: ./pretrain_weights/ch_ppocr_server_v1.1_rec_pre/best_accuracycheckpoints:save_inference_dir: infer_img:Architecture:function: ppocr.modeling.architectures.rec_model,RecModelBackbone:function: ppocr.modeling.backbones.rec_resnet_vd,ResNetlayers: 34Head:function: ppocr.modeling.heads.rec_ctc_head,CTCPredictencoder_type: rnnfc_decay: 0.00004SeqRNN:hidden_size: 256Loss:function: ppocr.modeling.losses.rec_ctc_loss,CTCLossOptimizer:function: ppocr.optimizer,AdamDecaybase_lr: 0.0001l2_decay: 0.00004beta1: 0.9beta2: 0.999decay:function: cosine_decay_warmupstep_each_epoch: 1000total_epoch: 201warmup_minibatch: 2000
#my_rec_ch_reader.yml
TrainReader:reader_function: ppocr.data.rec.dataset_traversal,SimpleReadernum_workers: 1img_set_dir: /home/aistudio/data/train_imageslabel_file_path: /home/aistudio/data/train_label.txtEvalReader:reader_function: ppocr.data.rec.dataset_traversal,SimpleReaderimg_set_dir: /home/aistudio/data/train_imageslabel_file_path: /home/aistudio/data/train_label.txtTestReader:reader_function: ppocr.data.rec.dataset_traversal,SimpleReader

参数解读:

ParameterDescriptionDefault value
use_gpu是否启用GPUTRUE
gpu_memGPU memory size used for initialization8000M
image_dirThe images path or folder path for predicting when used by the command line
det_algorithm选择的检测算法类型DB
det_model_dir文本检测推理模型文件夹。 参数传递有两种方式:None:自动将内置模型下载到 /root/.paddleocr/det ; 自己转换的推理模型的路径,模型和params文件必须包含在模型路径中None
det_max_side_len图像长边的最大尺寸。 当长边超过这个值时,长边会调整到这个大小,短边会按比例缩放960
det_db_threshBinarization threshold value of DB output map0.3
det_db_box_threshThe threshold value of the DB output box. Boxes score lower than this value will be discarded0.5
det_db_unclip_ratioThe expanded ratio of DB output box2
det_east_score_threshBinarization threshold value of EAST output map0.8
det_east_cover_threshThe threshold value of the EAST output box. Boxes score lower than this value will be discarded0.1
det_east_nms_threshThe NMS threshold value of EAST model output box0.2
rec_algorithm选择的识别算法类型CRNN(卷积循环神经网络)
rec_model_dir文本识别推理模型文件夹。 参数传递有两种方式:None:自动将内置模型下载到 /root/.paddleocr/rec ; 自己转换的推理模型的路径,模型和params文件必须包含在模型路径中None
rec_image_shape图像形状识别算法“3,32,320”
rec_batch_numWhen performing recognition, the batchsize of forward images30
max_text_length识别算法可以识别的最大文本长度25
rec_char_dict_paththe alphabet path which needs to be modified to your own path when rec_model_Name use mode 2./ppocr/utils/ppocr_keys_v1.txt
use_space_char是否识别空格TRUE
drop_score按分数过滤输出(来自识别模型),低于此分数的将不返回0.5
use_angle_cls是否加载分类模型FALSE
cls_model_dir分类推理模型文件夹。 参数传递有两种方式:None:自动下载内置模型到 /root/.paddleocr/cls ; 自己转换的推理模型的路径,模型和params文件必须包含在模型路径中None
cls_image_shape图像形状分类算法“3,48,192”
label_listlabel list of classification algorithm[‘0’,‘180’]
cls_batch_numWhen performing classification, the batchsize of forward images30
enable_mkldnn是否启用 mkldnnFALSE
use_zero_copy_runWhether to forward by zero_copy_runFALSE
lang支持语言,目前只支持中文(ch)、English(en)、French(french)、German(german)、Korean(korean)、Japanese(japan)ch
detppocr.ocr 函数执行时启用检测TRUE
recppocr.ocr func exec 时启用识别TRUE
clsEnable classification when ppocr.ocr func exec((Use use_angle_cls in command line mode to control whether to start classification in the forward direction)FALSE
show_logWhether to print logFALSE
typePerform ocr or table structuring, 取值在 [‘ocr’,‘structure’]ocr
ocr_versionOCR型号版本号,目前模型支持列表如下:PP-OCRv3支持中英文检测、识别、多语言识别、方向分类器模型;PP-OCRv2支持中文检测识别模型;PP-OCR支持中文检测、识别 和方向分类器、多语言识别模型PP-OCRv3

九、训练与预测

9.1 训练模型

  • 根据修改后的配置文件,输入以下命令就可以开始训练。
!pwd
!cd ~/work/PaddleOCR && python tools/train.py -c configs/rec/my_rec_ch_train.yml

9.2导出模型

通过export_model.py导出模型,设置配置文件及导出路径。

!cd ~/work/PaddleOCR && python tools/export_model.py -c configs/rec/my_rec_ch_train.yml -o Global.checkpoints=./output/my_rec_ch/iter_epoch_27 Global.save_inference_dir=./inference/CRNN_R34
2022-09-30 22:57:53,971-INFO: {'Global': {'debug': False, 'algorithm': 'CRNN', 'use_gpu': True, 'epoch_num': 201, 'log_smooth_window': 20, 'print_batch_step': 10, 'save_model_dir': './output/my_rec_ch', 'save_epoch_step': 3, 'eval_batch_step': 1000, 'train_batch_size_per_card': 64, 'test_batch_size_per_card': 64, 'image_shape': [3, 48, 256], 'max_text_length': 80, 'character_type': 'ch', 'character_dict_path': './ppocr/utils/ppocr_keys_v1.txt', 'loss_type': 'ctc', 'distort': True, 'use_space_char': True, 'reader_yml': './configs/rec/my_rec_ch_reader.yml', 'pretrain_weights': './pretrain_weights/ch_ppocr_server_v1.1_rec_pre/best_accuracy', 'checkpoints': './output/my_rec_ch/iter_epoch_27', 'save_inference_dir': './inference/CRNN_R34', 'infer_img': None}, 'Architecture': {'function': 'ppocr.modeling.architectures.rec_model,RecModel'}, 'Backbone': {'function': 'ppocr.modeling.backbones.rec_resnet_vd,ResNet', 'layers': 34}, 'Head': {'function': 'ppocr.modeling.heads.rec_ctc_head,CTCPredict', 'encoder_type': 'rnn', 'fc_decay': 4e-05, 'SeqRNN': {'hidden_size': 256}}, 'Loss': {'function': 'ppocr.modeling.losses.rec_ctc_loss,CTCLoss'}, 'Optimizer': {'function': 'ppocr.optimizer,AdamDecay', 'base_lr': 0.0001, 'l2_decay': 4e-05, 'beta1': 0.9, 'beta2': 0.999, 'decay': {'function': 'cosine_decay_warmup', 'step_each_epoch': 1000, 'total_epoch': 201, 'warmup_minibatch': 2000}}, 'TrainReader': {'reader_function': 'ppocr.data.rec.dataset_traversal,SimpleReader', 'num_workers': 8, 'img_set_dir': '/home/aistudio/data/train_images', 'label_file_path': '/home/aistudio/data/train_label.txt'}, 'EvalReader': {'reader_function': 'ppocr.data.rec.dataset_traversal,SimpleReader', 'img_set_dir': '/home/aistudio/data/train_images', 'label_file_path': '/home/aistudio/data/train_label.txt'}, 'TestReader': {'reader_function': 'ppocr.data.rec.dataset_traversal,SimpleReader'}}
W0930 22:57:54.222055 22198 device_context.cc:252] Please NOTE: device: 0, CUDA Capability: 70, Driver API Version: 11.2, Runtime API Version: 9.0
W0930 22:57:54.227607 22198 device_context.cc:260] device: 0, cuDNN Version: 7.6.
2022-09-30 22:57:57,220-INFO: Finish initing model from ./output/my_rec_ch/iter_epoch_27
inference model saved in ./inference/CRNN_R34/model and ./inference/CRNN_R34/params
save success, output_name_list: ['decoded_out', 'predicts']

9.3预测结果

修改模型路径,运行predict.py:

import sys 
import osfrom paddleocr import PaddleOCR
import numpy as np
import glob
import time
if __name__=='__main__':# Preferenceimg_set_dir = os.path.join('..','data','test_images','')# Load modeluse_gpu = True use_angle_cls = False det = Falsedet_model_dir = os.path.join('PaddleOCR','inference','ch_ppocr_mobile_v1.1_det_infer')cls_model_dir = os.path.join('PaddleOCR','inference','ch_ppocr_mobile_v1.1_cls_infer')rec_model_dir = os.path.join('PaddleOCR','inference','CRNN_R34')ocr = PaddleOCR(use_angle_cls=use_angle_cls, lang="ch",use_gpu=use_gpu,use_space_char=False,gpu_mem=4000,det = det,rec_image_shape = '3, 48, 256', rec_algorithm = 'CRNN',max_text_length = 80,det_model_dir = det_model_dir,cls_model_dir = cls_model_dir,rec_model_dir = rec_model_dir)# Load data in a folderimages = glob.glob(img_set_dir+'*.jpg')log_file_name = time.strftime('%Y-%m-%d-%H-%M-%S', time.localtime())# Print result to a filewith open(log_file_name+'.txt','w') as fid:print('new_name\tvalue',file=fid)#Inference in a folderfor image in images:result = ocr.ocr(image, cls=use_angle_cls,det=det)if result is None:print('Test {} failed.'.format(image.replace(img_set_dir,'')))continuefor info in result:pred_label = info[0]print('{}\t{}'.format(image.replace(img_set_dir,''),pred_label),file=fid)print("Finished predicting {} images!".format(len(images)))!pwd
!python ~/work/predict.py

最终结果以txt文件保存,命名格式Y-%m-%d-%H-%M-%S,保存在在/home/aistudio/目录下。

#查看结果 txt文件生成
%cd /home/aistudio/
!cat 2022-09-30-22-58-06.txt | head -n 10

十、总结与后续优化:

1.目前只用resnet网络,后续考虑更换更多轻量级网络测试效果;

2.后续继续对数据进行增强操作或结合更多相关数据集,增加模型的泛化性;

3.继续精调整学习率大小及训练策略调整,提升模型的收敛速度及准确度。

本篇总结: 本篇主要介绍OCR实战项目,以PaddleOCR框架完成计算机视觉中文场景识别任务,尽可能详细介绍代码及项目流程,如有错误请指正,后续本人也将介绍更多实战项目,欢迎大家交流学习。

参考资料

  • PaddleOCR官方教程

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/71016.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Two Stream network (Tsn)】(二) 阅读笔记

贡献 将深度神经网络应用于视频动作识别的难点&#xff0c;是如何同时利用好静止图像上的 appearance information以及物体之间的运动信息motion information。本文主要有三点贡献&#xff1a; 1.提出了一种融合时间流和空间流的双流网络&#xff1b; 2.证明了直接在光流上训…

【C++精华铺】10.STL string模拟实现

1. 序言 STL&#xff08;标准模板库&#xff09;是一个C标准库&#xff0c;其中包括一些通用的算法、容器和函数对象。STL的容器是C STL库的重要组成部分&#xff0c;它们提供了一种方便的方式来管理同类型的对象。其中&#xff0c;STLstring是一种常用的字符串类型。 STLstrin…

Docker如何安装seafile

SQLite 方式 要在 Docker 中安装 Seafile&#xff0c;您可以按照以下步骤进行操作&#xff1a; 安装 Docker&#xff1a;确保您的系统上已经安装了 Docker。您可以根据您的操作系统类型&#xff0c;在官方网站上找到适合您系统的 Docker 版本并进行安装。 下载 Seafile 镜像&…

Unity设置TextMeshPro文本超出范围显示...

TextMtshPro文本超出范围&#xff0c;展示省略。选择Overflow为Ellipsis。

centroen 23版本换界面了

旧版本 新版本 没有与操作系统一起打包的ISO文件了&#xff0c;要么先安装系统&#xff0c;再安装Centreon&#xff0c;要么用pve导入OVF文件

Shell命令操作Linux文件系统

Shell命令操作Linux文件系统 文件夹介绍 文件夹常规命令 文件夹权限控制⭐ 文件类型和权限 修改文件权限 移动、复制、删除文件夹 文件夹介绍 Linux文件系统是计算机操作系统中的一个关键组成部分&#xff0c;它用于管理和组织计算机上的数据和信息。先到根目录&#xf…

支付宝使用OceanBase的历史库实践分享

为解决因业务增长引发的数据库存储空间问题&#xff0c;支付宝基于 OceanBase 数据库启动了历史库项目&#xff0c;通过历史数据归档、过期数据清理、异常数据回滚&#xff0c;实现了总成本降低 80%。 历史数据归档&#xff1a;将在线库&#xff08;SSD 磁盘&#xff09;数据归…

STDF-Viewer 解析工具说明

一、简介 1. 概述 STDF&#xff08;Standard Test Data Format&#xff09;&#xff08;标准测试数据格式&#xff09;是半导体测试行业的最主要的数据格式&#xff0c;包含了summary信息和所有测试项的测试结果&#xff1b;是半导体行业芯片测试数据的存储规范。 在半导体行业…

解决Nacos服务器连接问题:一次完整的排查经验分享

&#x1f337;&#x1f341; 博主猫头虎&#xff08;&#x1f405;&#x1f43e;&#xff09;带您 Go to New World✨&#x1f341; &#x1f984; 博客首页——&#x1f405;&#x1f43e;猫头虎的博客&#x1f390; &#x1f433; 《面试题大全专栏》 &#x1f995; 文章图文…

【笔试强训选择题】Day35.习题(错题)解析

作者简介&#xff1a;大家好&#xff0c;我是未央&#xff1b; 博客首页&#xff1a;未央.303 系列专栏&#xff1a;笔试强训选择题 每日一句&#xff1a;人的一生&#xff0c;可以有所作为的时机只有一次&#xff0c;那就是现在&#xff01;&#xff01; 文章目录 前言 一、Da…

l8-d7 实现TCP通信

一、TCP服务器的实现(理论) #include <sys/types.h> #include <sys/socket.h> int socket(int domain, int type, int protocol); -domain: 指定通信域&#xff08;通信地址族&#xff09;; -type: 指定套接字类型; -protocol: 指定协议; 套接字类型与协议 -type:…

2023高教社杯 国赛数学建模B题思路 - 多波束测线问题

1 赛题 B 题 多波束测线问题 单波束测深是利用声波在水中的传播特性来测量水体深度的技术。声波在均匀介质中作匀 速直线传播&#xff0c; 在不同界面上产生反射&#xff0c; 利用这一原理&#xff0c;从测量船换能器垂直向海底发射声波信 号&#xff0c;并记录从声波发射到信…

Ansible-roles学习

目录 一.roles角色介绍二.示例一.安装httpd服务 一.roles角色介绍 roles能够根据层次型结构自动装载变量文件&#xff0c;tasks以及handlers登。要使用roles只需在playbook中使用include指令即可。roles就是通过分别将变量&#xff0c;文件&#xff0c;任务&#xff0c;模块以…

layui实现数据列表的复选框回显

layui版本2.8以上 实现效果如图&#xff1a; <input type"hidden" name"id" id"id" value"{:g_val( id,0)}"> <div id"tableDiv"><table class"layui-hide" id"table_list" lay-filter…

点云切片的实现(PCL)C++

一、实现逻辑 1、通过PCL库的getMinMax3D得到xyz轴上的最大最小值&#xff1b; 函数原型&#xff1a; pcl::getMinMax3D(const pcl::PointCloud<PointT> &cloud, POintT &min_pt, PointT &max_pt) 2、设置切片厚度&#xff0c;计算某一轴方向上的切片数量&a…

【智慧工地源码】物联网和传感器技术在智慧工地的应用

物联网&#xff08;IoT&#xff09;和传感器技术在智慧工地中扮演着至关重要的角色。这些技术的应用&#xff0c;使得智慧工地能够实现对施工过程的精确监控、数据收集和分析&#xff0c;以及设备互联&#xff0c;从而提高工程效率、减少成本并改善工人的工作环境。 一、物联网…

ThreadLocal

ThreadLocal 参考&#xff1a;https://blog.csdn.net/u010445301/article/details/111322569 ThreadLocal简介 作用&#xff1a;实现线程范围内的局部变量&#xff0c;即ThreadLocal在一个线程中是共享的&#xff0c;在不同线程之间是隔离的。 原理&#xff1a;ThreadLocal存…

如何使用CSS画一个三角形

原理&#xff1a;其实就是规定元素的四个边框颜色及边框宽度&#xff0c;将元素宽高设置为0。如果要哪个方向的三角形&#xff0c;将对应其他三个方向的边框宽和颜色设置为0和透明transparent即可 1.元素设置边框&#xff0c;宽高&#xff0c;背景色 <style>.border {w…

单月打造8个10w+,情感类视频号如何爆火?

上月&#xff0c;腾讯公布了2023年Q2财报&#xff0c;其中&#xff0c;较为亮眼的是微信视频号的广告收入。据财报显示&#xff0c;二季度视频号用户使用时长与去年同期相比几乎翻倍&#xff0c;广告收入超过30亿元。作为微信生态的核心组件&#xff0c;视频号的内容生态呈现出…