シーンの大域的かつ局所的な整合性を考慮した画像補完
本研究では,畳み込みニューラルネットワークを用いて,シーンの大域的かつ局所的な整合性を考慮した画像補完を行う手法を提案する。提案する補完ネットワークは全層が畳み込み層で構成され,任意のサイズの画像における自由な形状の「穴」を補完できる。この補完ネットワークに,シーンの整合性を考慮した画像補完を学習させるため,本物の画像と補完された画像を識別するための大域識別ネットワークと局所識別ネットワークを構築する。大域識別ネットワークは画像全体が自然な画像になっているかを評価し,局所識別ネットワークは補完領域周辺のより詳細な整合性によって画像を評価する。この2つの識別ネットワーク両方を「だます」ように補完ネットワークを学習させることで,シーン全体で整合性が取れており,かつ局所的にも自然な補完画像を出力することができる。提案手法により,様々なシーンにおいて自然な画像補完が可能となり,さらに従来のパッチベースの手法ではできなかった,入力画像に写っていないテクスチャや物体を新たに生成することもできる。これにより,人間の顔の一部を補完するような,複雑な画像補完を実現した。
論文
2017年
We present a novel approach for image completion that results in images that
are both locally and globally consistent. With a fully-convolutional neural
network, we can complete images of arbitrary resolutions by filling-in missing
regions of any shape. To train this image completion network to be consistent,
we use global and local context discriminators that are trained to distinguish
real images from completed ones. The global discriminator looks at the entire
image to assess if it is coherent as a whole, while the local discriminator
looks only at a small area centered at the completed region to ensure the local
consistency of the generated patches. The image completion network is then
trained to fool the both context discriminator networks, which requires it to
generate images that are indistinguishable from real ones with regard to
overall consistency as well as in details. We show that our approach can be
used to complete a wide variety of scenes. Furthermore, in contrast with the
patch-based approaches such as PatchMatch, our approach can generate fragments
that do not appear elsewhere in the image, which allows us to naturally
complete the images of objects with familiar and highly specific structures,
such as faces.
@Article{IizukaSIGGRAPH2017, author = {Satoshi Iizuka and Edgar Simo-Serra and Hiroshi Ishikawa}, title = {{Globally and Locally Consistent Image Completion}}, journal = "ACM Transactions on Graphics (SIGGRAPH)", year = 2017, volume = 36, number = 4, }