前言
最近看到一个开源项目(Barbershop),可以将照片中的发型更换成另一个,很神奇。先给大家看看项目给出的效果图。
先说说我在安装使用该项目的感受,因为作者给的安装说明太少,我边看代码边安装环境花了整整8个小时,顺便还在等安装的过程中,追了10集电视剧《输赢》。看在我坚持弄了这么长时间,并把踩过的坑,安装这么长时间的份上,我觉着还是给个赞的。
下面开始我的安装使用记录。
先提供一下Barbershop项目地址:github仓库
环境部署
下面进入最坑的部分,首先我们看一下项目给出的安装说明。
其实只有两条,conda导入environment/environment.yaml环境,下载II2S图片。就这两句话让我装了一晚上,天知道我经历了啥。坑踩了一边,可以按照我的流程装,应该问题不大。
1、导入environment/environment.yaml环境
先创建conda虚拟环境,使用一下命令:
conda env create -f environment/environment.yaml
2、安装pytorch
这里有不会的话,可以看我另一篇文章,有详细的搭建方法:
机器学习基础环境部署 | 机器学习系列_阿良的博客-CSDN博客_机器学习环境搭建
前言本文主要是分享一下机器学习初期,基本的环境搭建。也适用于其他python工程化项目环境搭建。都差不多。Anaconda安装anaconda官方链接:Anaconda | The World's Most Popular Data Science Platform点击Get Started点击Download Anaconda installers根据自己的操作系统,下载对应的安装包。安装anaconda一路点下去..
https://huyi-aliang.blog.csdn.net/article/details/121064139
3、依赖库安装
我就不提我踩了多少坑了,下面我把需要的项目没提供的依赖,总结发在下面。
dlib
Ninja
gdown
scikit-image
IPython
opencv-python
版本可以选择最新的,因为我用最新的跑起来了。
4、 cl.exe环境变量配置
需要安装一下Microsoft Visual Studio,我选择的版本是2019版本。
提供一下下载地址:下载 Visual Studio Tools - 免费安装 Windows、Mac、Linux
这里需要注意安装的时候需要把C++选上。
按照自己的机器位数,选择路径添加到环境变量路径里。下面是我的路径。
添加环境变量
5、模型下载
项目在运行的时候其实是会自己下载模型的,但是从google云盘经常失败,而且该项目要的模型特别多,我放在百度云盘上分享出来,大家可以下我的。
模型文件链接:https://pan.baidu.com/s/1OwPshnDLcMGNT6B4atGLHw
提取码:tuan
首先人脸68特征数据放到项目的cache目录内。其次另外的6个pt文件放到项目的pretrained_models目录内。
6、发型数据下载
按照项目给出的地址从云盘下载到input/face目录内。这边我还是提供百度云盘的分享链接,下不下来可以用我的。
链接:https://pan.baidu.com/s/1a8lX7g7Wz8R-CpW9GTANvg
提取码:TUAN
7、代码调整
项目align_face.py文件中,不会检查模型是否存在,还是会下载,需要调整一下。如下图:
项目验证
OK,环境如果你按照我上面说的部署成功了,恭喜。下面我来验证一下效果。
先看看我准备的照片。
把照片放到unprocessed目录下,注意编号需要和input/face内的文件编号不同。
1、预处理照片
首先我们执行命令预处理unprocessed目录内的照片。命令如下:
python align_face.py
(Barbershop) C:\Users\yi\PycharmProjects\Barbershop>python align_face.py
Downloading Shape Predictor
126.jpg: Number of faces detected: 1
可以看到input/face目录多了一个文件,预处理把原照片的人脸处理出来了。
2、换发型
下面看一下我准备换的发型是哪张。
换个短发。执行命令如下:
python main.py --im_path1 126.png --im_path2 94.png --im_path3 94.png --sign realistic --smooth 5
看下执行结果
(Barbershop) C:\Users\yi\PycharmProjects\Barbershop>python main.py --im_path1 126.png --im_path2 94.png --im_path3 94.png --sign realistic --smooth 5
Loading StyleGAN2 from checkpoint: pretrained_models/ffhq.pt
Setting up Perceptual loss...
Loading model from: C:\Users\yi\PycharmProjects\Barbershop\losses\lpips\weights\v0.1\vgg.pth
...[net-lin [vgg]] initialized
...Done
Number of images: 2
Images: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [10:39<00:00, 319.74s/it]
Number of images: 2
Images: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [02:08<00:00, 64.04s/it]
Loading StyleGAN2 from checkpoint: pretrained_models/ffhq.pt
C:\Users\yi\PycharmProjects\Barbershop\models\Alignment.py:97: UserWarning: where received a uint8 condition tensor. This behavior is deprecated and will be removed in a
future version of PyTorch. Use a boolean condition instead. (Triggered internally at ..\aten\src\ATen\native\TensorCompare.cpp:328.)
new_target_final = torch.where(OB_region, torch.from_numpy(new_target_inpainted), new_target)
Align Step 2: 0%| | 0/100 [00:00<?, ?it/s]E
:\ProgramData\Anaconda3\envs\Barbershop\lib\site-packages\torch\nn\functional.py:3680: UserWarning: The default behavior for interpolate/upsample with float scale_factor
changed in 1.6.0 to align with other frameworks/libraries, and now uses scale_factor directly, instead of relying on the computed output size. If you wish to restore th
e old behavior, please set recompute_scale_factor=True. See the documentation of nn.Upsample for details.
"The default behavior for interpolate/upsample with float scale_factor changed "
E:\ProgramData\Anaconda3\envs\Barbershop\lib\site-packages\torch\nn\functional.py:3635: UserWarning: Default upsampling behavior when mode=bicubic is changed to align_co
rners=False since 0.4.0. Please specify align_corners=True if the old behavior is desired. See the documentation of nn.Upsample for details.
"See the documentation of nn.Upsample for details.".format(mode)
Loading StyleGAN2 from checkpoint: pretrained_models/ffhq.pt
Setting up Perceptual loss...
Loading model from: C:\Users\yi\PycharmProjects\Barbershop\losses\masked_lpips\weights\v0.1\vgg.pth
...[net-lin [vgg]] initialized
...Done
Setting up Perceptual loss...
Loading model from: C:\Users\yi\PycharmProjects\Barbershop\losses\masked_lpips\weights\v0.1\vgg.pth
...[net-lin [vgg]] initialized
...Done
等了很长时间,结果出来了。最后的效果图如下
对比一下看看,还是很不错的吧,我这么长的安装时间没有白费。
总结
该项目最终的效果是非常好的,只是安装的过程比较繁琐。而且在我跑最终融合的效果时,我似乎都快闻到显卡的焦味了。花费了很多时间,解决了很多问题,也有了很多收获,成长不外如此。
还有补充一下,最近博主在参加评选博客之星活动。如果你喜欢我的文章的话,不妨给我点个五星,投投票吧,谢谢大家的支持!!链接地址:https://bbs.csdn.net/topics/603956455
分享:
生活不能等待别人来安排,要自己去争取和奋斗;而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这世界上活了一场。有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。——《平凡的世界》
如果本文对你有用的话,点个赞吧,谢谢!!!