新聞中心
keras如何實現(xiàn)圖像風格轉(zhuǎn)換 -,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設,南澳企業(yè)網(wǎng)站建設,南澳品牌網(wǎng)站建設,網(wǎng)站定制,南澳網(wǎng)站建設報價,網(wǎng)絡營銷,網(wǎng)絡優(yōu)化,南澳網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。
前言
說到深度學習的應用,第一個想到的就是Prisma App的圖像風格轉(zhuǎn)換。既然感興趣就直接開始干,讀了論文,一知半解;看了別人的源碼,才算大概了解的具體的實現(xiàn),也驚嘆別人的奇思妙想。
論文可以參考【A Neural Algorithm of Artistic Style】,網(wǎng)上也有中文的版本。
http://arxiv.org/abs/1508.06576
使用的工具:py34、keras1.1.2、theano0.8.2、GeForce GT 740M (CNMeM is disabled, cuDNN not available)。
實現(xiàn)原理
1. 總流程
實現(xiàn)流程如下,可以看到這里總共分為5層,本次實驗使用vgg16模型實現(xiàn)的。
如上,a有個別名是
conv1_1
,b是conv2_1
,依次類推,c,d,e對應conv3_1
,conv4_1
,conv5_1
;輸入圖片有風格圖片style image
和內(nèi)容圖片content image
,輸出的是就是合成圖片,然后用合成圖片為指導訓練,但是訓練的對象不像是普通的神經(jīng)網(wǎng)絡那樣訓練權(quán)值w
和偏置項b
,而是訓練合成圖片上的像素點,以達到損失函數(shù)不斷減少的效果。論文使用的是隨機的噪聲像素圖為初始合成圖,但是使用原始圖片會快一點。
2. 內(nèi)容損失函數(shù) - Content Loss
下面是content loss函數(shù)的定義。
l
代表第l層的特征表示,p
是原始圖片,x
是生成圖片。公式的含義就是對于每一層,原始圖片生成特征圖和生成圖片的特征圖的一一對應做平方差。
3. 風格損失函數(shù) - style loss
在定義風格損失函數(shù)之前首先定義一個Gram矩陣。
F
是生成圖片的特征圖。上面式子的含義:Gram第i行,第j列的數(shù)值等于把生成圖在第l
層的第i
個特征圖與第j
個特征圖分別拉成一維后相乘求和。
上面是風格損失函數(shù),
Nl
是指生成圖的特征圖數(shù)量,Ml
是圖片寬乘高。a
是指風格圖片,x
是指生成圖片。G
是生成圖的Gram矩陣,A
是風格圖的Gram矩陣,wl
是權(quán)重。
4. 總損失
總損失函數(shù)如下,
alpha
與beta
比例為1*10^-3
或更小。
代碼講解
1. 圖片預處理和還原
2. content loss
3. style loss
結(jié)果
可以看出效果每一代都有進步,因為自己的顯卡渣,跑一代估計要1.5個小時,自己測試的時候總共跑了14個小時,不過這里有個技巧,就是可以把上一代的圖片繼續(xù)做輸入,這樣中途有什么事就可以停止。下次只要把上次輸出的圖片當輸入就可以。
vgg16模型加載原項目的權(quán)值。
具體項目代碼可見githua上的代碼、權(quán)值文件和測試圖片,因為中途修改過,可能有些地方需要改過來,不過代碼比較簡單,估計很快就可以找到問題了。
看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)的支持。
本文名稱:keras如何實現(xiàn)圖像風格轉(zhuǎn)換-
瀏覽地址:http://fisionsoft.com.cn/article/joscce.html