Image ¡Super-‑Resolution ¡Using ¡ Deep ¡Convolutional ¡Networks
Chen ¡Change ¡Loy 吕健勤 Chinese ¡University ¡of ¡Hong ¡Kong
www.ie.cuhk.edu.hk/~ccloy/
Image Super-Resolution Using Deep Convolutional Networks Chen - - PowerPoint PPT Presentation
Image Super-Resolution Using Deep Convolutional Networks Chen Change Loy Chinese University of Hong Kong www.ie.cuhk.edu.hk/~ccloy/ Waifu2x http://waifu2x.udp.jp/ 2 Waifu2x 3
Chen ¡Change ¡Loy 吕健勤 Chinese ¡University ¡of ¡Hong ¡Kong
www.ie.cuhk.edu.hk/~ccloy/
http://waifu2x.udp.jp/
2
3
Original 2x ¡upscaling
4
5
http://ejohn.org/blog/using-‑waifu2x-‑to-‑upscale-‑japanese-‑prints/
6
7
https://github.com/nagadomi/waifu2x
8
IEEE ¡Transactions ¡on ¡Pattern ¡Analysis ¡and ¡Machine ¡Intelligence, ¡2015
in ¡Proceedings ¡of ¡European ¡Conference ¡on ¡Computer ¡Vision, ¡pp ¡184-‑199, ¡2014
Technical ¡report, ¡arXiv:1506.02211, ¡2015
Technical ¡report, ¡arXiv:1504.06993, ¡2015
9
IEEE ¡Transactions ¡on ¡Pattern ¡Analysis ¡and ¡Machine ¡Intelligence, ¡2015 European ¡Conference ¡on ¡Computer ¡Vision, ¡2014
2x ¡upscaling Low ¡resolution ¡(LR) High ¡resolution ¡(HR)
Reconstruct ¡a ¡high-‑resolution ¡image ¡ from ¡a ¡given ¡low-‑resolution ¡image
11
to ¡HDTV
12
2x ¡upscaling Low ¡resolution ¡(LR) High ¡resolution ¡(HR)
external databases
Example-‑based ¡ SR
13
same ¡image ¡
Glasner, D., Bagon, S., Irani, M.: Super-resolution from a single image. In: IEEE International Conference on Computer
14
exemplar ¡pairs ¡
[1] ¡J. ¡Yang ¡et ¡al., ¡T .: ¡Coupled ¡dictionary ¡ training ¡for ¡image ¡super-‑resolution. ¡TIP ¡21(8), ¡3467-‑3478 ¡(2012) [2] ¡J. ¡Yang ¡et ¡al., ¡Image ¡super-‑resolution ¡via ¡sparse ¡representation. ¡ TIP ¡19(11), ¡2861-‑2873 ¡(2010)
resolution patches
15
resolution ¡images, ¡with ¡no ¡extra ¡pre/post-‑processing ¡beyond ¡the ¡
viewed ¡as ¡deep ¡convolutional ¡neural ¡network.
vision ¡problemof ¡super-‑resolution, ¡and ¡can ¡achieve ¡good ¡quality ¡and ¡
16
Source: ¡Dong ¡et ¡al., ¡Image ¡Super-‑Resolution ¡Using ¡Deep ¡Convolutional ¡Networks, ¡TPAMI ¡2015
17
18
Patch ¡extraction ¡and ¡representation F1(Y) = max (0, W1 ∗ Y + B1)
f1 × f1 × n1 n1 -‑dimensional ¡biases
filters
19
Laplacian/Gaussian ¡ filters Edge ¡detectors Texture ¡extractor ¡ Dead ¡filters ¡similar ¡to ¡those ¡observed ¡in ¡Zeiler ECCV ¡2014 Patterns ¡may ¡emerge ¡given ¡long ¡enough ¡training ¡time
Zeiler, ¡M.D., ¡Fergus, ¡R.: ¡Visualizing ¡and ¡understanding ¡convolutional ¡neural ¡networks. ¡ECCV ¡(2014)
20
Non-‑linear ¡mapping
filters F2(Y) = max (0, W2 ∗ F1(Y) + B2) n2 n1 × 1 × 1 × n2
21
Reconstruction 1-‑dimensional ¡biases filters F(Y) = W3 ∗ F2(Y) + B3 n2 × f3 × f3
22
responses
neighbouring patches Patch extraction and representation Non-linear mapping Reconstruction
Sparse ¡coding SRCNN Extract f1 × f1 low-‑ resolution ¡ patch Mean ¡subtraction Projected ¡onto a ¡(low-‑resolution) ¡dictionary, ¡ size ¡n1 Equivalent ¡to ¡applying ¡n1 linear ¡filters ¡(f1 × f1) ¡on ¡the ¡input ¡ image ¡ Mean ¡subtraction ¡is absorbed ¡
23
responses
neighbouring patches Patch extraction and representation Non-linear mapping Reconstruction
Sparse ¡coding SRCNN Apply ¡sparse ¡coding ¡solver ¡on ¡the ¡projected ¡n1 coefficients ¡ The ¡outputs ¡are ¡n2 coefficients representing ¡ the the ¡high-‑ resolution ¡patch. Iterative ¡algorithm Equivalent ¡to ¡non-‑linear ¡mapping Feed-‑forward
24
responses
neighbouring patches Patch extraction and representation Non-linear mapping Reconstruction
Sparse ¡coding SRCNN n2 coefficients ¡are ¡then ¡projected ¡onto ¡another ¡(high-‑ resolution) ¡dictionary ¡ to ¡produce ¡a ¡high-‑resolution ¡ The ¡over-‑lapping ¡high-‑resolution ¡patches ¡are ¡then ¡ averaged Equivalent ¡to ¡to ¡linear ¡ convolutions ¡on ¡the ¡n2 feature ¡maps
25
corresponding ¡ground ¡truth ¡high-‑resolution ¡images ¡X
backpropagation ¡
Θ = {W1, W2, W3, B1, B2, B3} L(Θ) = 1 n
n
X
i=1
||F(Yi; Θ) − Xi||2
26
detection ¡training ¡partition ¡
[1] ¡J. ¡Yang, ¡et ¡al., ¡"Image ¡super-‑resolution ¡as ¡sparse ¡representation ¡of ¡raw ¡image ¡patches." CVPR ¡2008. ¡
27
28
network ¡width, ¡i.e., ¡adding ¡more ¡filters, ¡at ¡the ¡cost ¡of ¡running ¡time.
29
information, ¡which ¡in ¡turn ¡lead ¡to ¡better ¡results ¡
30
31
Yang, C.Y., Ma, C., Yang, M.H.: Single-image super-resolution: A benchmark. ECCV 2014
32
SC – Sparse ¡coding by ¡Yang ¡et ¡al. ¡TIP ¡2010 NE+LLE – Neighbour embedding ¡+ ¡non-‑negative ¡least ¡squares by ¡Chang ¡CVPR ¡2004 KK – Sparse ¡regression ¡and ¡natural ¡image ¡prior ¡by ¡Kim ¡and ¡Kwon ¡TPAMI ¡2010 ANR – Anchored ¡Neighbourhood ¡Regression by ¡Timofte et ¡al. ¡ICCV ¡2013 A+ – Adjusted ¡Anchored ¡Neighbourhood Regression by ¡Timofte et ¡al. ¡ACCV ¡2014 Set5
33
SC / 25.58 dB ANR / 25.90 dB SRCNN / 27.58 dB
Dong ¡et ¡al., ¡Learning ¡a ¡Deep ¡Convolutional ¡Network ¡for ¡Image ¡Super-‑Resolution, ¡ECCV ¡2014
34
/ SRCNN / 34.91 dB ANR / 34.60 dB SC / 34.11 dB
Dong ¡et ¡al., ¡Learning ¡a ¡Deep ¡Convolutional ¡Network ¡for ¡Image ¡Super-‑Resolution, ¡ECCV ¡2014
35
SC / 33.32 dB ANR / 33.82 dB SRCNN / 34.35 dB
Dong ¡et ¡al., ¡Learning ¡a ¡Deep ¡Convolutional ¡Network ¡for ¡Image ¡Super-‑Resolution, ¡ECCV ¡2014
36
SC – Sparse ¡coding by ¡Yang ¡et ¡al. ¡TIP ¡2010 NE+LLE – Neighbour embedding ¡+ ¡non-‑negative ¡least ¡squares by ¡Chang ¡CVPR ¡2004 KK – Sparse ¡regression ¡and ¡natural ¡image ¡prior ¡by ¡Kim ¡and ¡Kwon ¡TPAMI ¡2010 ANR – Anchored ¡Neighbourhood ¡Regression by ¡Timofte et ¡al. ¡ICCV ¡2013 A+ – Adjusted ¡Anchored ¡Neighbourhood Regression by ¡Timofte et ¡al. ¡ACCV ¡2014
37
38
time ¡
39
40
Technical ¡report, ¡arXiv:1506.02211, ¡ 2015 Winning ¡approach ¡in ¡ICDAR ¡Competition ¡on ¡Text ¡Image ¡Super-‑Resolution
ICDAR2015 ¡Competition ¡on ¡Text ¡Image ¡Super-‑Resolution
Low ¡resolution High ¡resolution
42
ICDAR2015 ¡Competition ¡on ¡Text ¡Image ¡Super-‑Resolution
ICDAR2015-‑SR-‑dataset
43
Method RMSE PSNR SSIM OCR Bicubic 19.04 23.50 0.879 60.64 Lanczos3 16.97 24.65 0.902 64.36 Zeyde et ¡al. 13.05 27.21 0.941 69.72 ASRS ¡[IJDAR ¡2015] 12.86 26.98 0.950 71.25 A+ ¡[ACCV ¡2014] 10.03 29.50 0.966 73.10 ¡ Orange ¡Labs ¡[VISAPP2015] 11.27 28.25 0.953 74.12 SRCNN ¡(Favour PSNR) 7.24 31.99 0.981 76.10 SRCNN ¡(Favour ¡OCR) 7.52 31.75 0.980 77.19
44
45
Technical ¡report, ¡arXiv:1504.06993, ¡ 2015
Before After
47
48
49
SA-DCT: A. Foi, V. Katkovnik, and K. Egiazarian. Pointwise shape- adaptive DCT for high-quality denoising and deblocking of grayscale and color images. TIP, 16(5):1395–1411, 2007 PSNR-B: C. Yim and A. C. Bovik. Quality assessment of deblocked images. TIP, 20(1):88–98, 2011
50
3264 ¡x ¡2448 600 ¡x ¡450 ¡
51
Before After
52
Before After
53
Before After
54
Before After
55
Before After
56
DENG, Yubin 邓煜 煜彬 彬 Dong Chao 董超 超
59
60
61