本發(fā)明公開(kāi)了一種基于D?LinkNet的低質(zhì)量文檔圖像二值化方法,首先將彩色文檔圖像降維處理為灰度圖像;然后對(duì)步驟1中獲得的灰色圖像,進(jìn)行數(shù)據(jù)裁剪與擴(kuò)增,獲得統(tǒng)一大小的文檔圖像;接著將步驟2中獲得的文檔圖像輸入D?LinkNet模型中,訓(xùn)練D?LinkNet模型;通過(guò)反向傳播優(yōu)化損失函數(shù);最后對(duì)圖像進(jìn)行測(cè)試得到二值化圖像;本發(fā)明可以有效提取圖像文本特征,忽略不重要信息,從而有效分割文本與背景;轉(zhuǎn)移學(xué)習(xí)可以加速網(wǎng)絡(luò)收斂,而且可以毫無(wú)損失的提升性能;采用擴(kuò)張卷積可以在增加特征點(diǎn)感受野的同時(shí)保持細(xì)節(jié)信息。
聲明:
“基于D-LinkNet的低質(zhì)量文檔圖像二值化方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請(qǐng)聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)