用python做动图,python控制图片移动

  用python做动图,python控制图片移动

  本文主要介绍如何利用Python AI让静态图片动起来,基于GAN的生成对抗网络实现了围绕主题动静态图片的效果。有一定的参考价值,有需要的小伙伴可以参考一下。

  00-1010前言:1。运行项目2。Python API

  

目录

  这种技术一般基于GAN(生成式对抗网络)。今天给大家分享一个开源项目,可以重现静态图片的移动效果,做一些有趣的项目,还可以记老朋友。

  你在刷短视频的时候有没有刷过这样的视频?视频中,一个人物的静态画面是运动的,比如点头、眨眼。

  类似于下面这种效果:

  左边的图是原动作,上面有一张静止图片。通过AI技术,可以将最左边人物的动作应用到上面的静态图片上,让所有图片做出同样的动作。

  这种技术一般基于GAN(生成式对抗网络)。今天给大家分享一个开源的项目,可以重现上面的效果,做一些有趣的项目,还可以记住老朋友。

  

前言:

  项目地址:https://github.com/AliaksandrSiarohin/first-order-model

  首先git clone在本地下载项目,进入项目安装依赖。

  git克隆https://github.com/AliaksandrSiarohin/first-order-model.git

  cd一阶模型

  pip安装-r要求. txt

  然后,在项目主页的预训练检查点标题下,找到模型下载链接,下载模型文件。有许多模型,我用vox-adv-cpk.pth.tar。

  准备好模型文件后,在项目的根目录下执行以下命令。

  python demo.py \

  -config config/vox-adv-256 . YAML \

  -驾驶_视频src _视频. mp4 \

  - source_image src_img.jpg \

  -检查点权重/vox-adv-cpk.pth.tar

  解释下参数:

  - config:模型配置文件,带- driving_video:视频提供动作- source_image:需要动画的静态图片- checkpoint:新下载的模型文件运行后,会看到如下输入。

  这个项目用PyTorch搭建了一个神经网络,支持GPU和CPU,所以如果你的电脑只有CPU的话,运行速度会很慢。

  我在CPU下运行。从上图可以看出,driving_video只有31帧。如果你也是靠CPU运行的话,最好控制好driving_video视频的时长,不然运行时间会很长。

  有了这个项目,你可以自己做一些有趣的尝试。

  

1. 运行项目

  以上教你根据官网在命令行运行项目。

  有些朋友可能想在Python项目中调用,所以我提取了demo.py中的核心代码,封装了一个PyhtonAPI。

  有需要的朋友可以下载这个文件,放在和一阶模型相同的目录下,按照下面的代码调用。

  fom

  #检查驱动程序视频。最好把驱动视频剪成480 x 640大小的视频。

  driving_video=

  #被驱动的画面

  source_image=

  #输出视频

  result_video=

  #驱动屏幕

  fom.img_to_video(行车_视频,来源_图像,结果_视频)

  关于如何用Python AI让静态图片动起来的这篇文章到此为止。关于如何用Python AI让图片动起来的更多信息,请搜索热门IT软件开发工作室之前的文章或者继续浏览下面的相关文章。希望大家以后多多支持热门IT软件开发工作室!

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: