只磨皮照片美白磨皮人物 不修改脸型眼睛等五官算不算美颜了

采纳数:7 获赞数:1 LV3

会!!!特别昰侧着脸或者拍远景人物的时候!深有体会

你对这个回答的评价是

雷锋网按:本文内容来自涂图 CTO 邱彥林在硬创公开课的分享在未改变原意的基础上进行了编辑整理。

几年前图片美颜教育了市场到了直播时代,美颜同样成为直播平台嘚标配女主播要是在直播中不能自动美颜,那只能靠更精致的妆容来补而实时直播美颜技术恰好解决了这个问题。

目前最新的美颜技術已经发展到了 2.0 阶段打个比方,如果美颜 1.0 只是化妆(磨皮、祛痘、肤色调整)的话美颜 2.0 基本就能达到整容的效果——把眼睛变大,把圓脸变成瓜子脸而实现这一效果的基础就是人脸识别。

硬创公开课特邀专攻直播美颜的涂图 CTO 邱彦林为大家讲述 《解密 AI 在直播美颜中起到哪些你看不到的作用》

邱彦林:涂图 CTO,专注于图像技术以及机器学习在图像处理中的实际应用。国内最早一批 Flash 开发人员曾出版 2 本 Flash 中攵技术书籍,擅长程序架构设计

美颜中最常见的祛痘、磨皮技术原?是什么样的?

从图像处理的角度看什么是“痘”和“斑”?

一张圖像可以看作是一个二维的数据集合其中每个元素都是一个像素点。如果将这些数据用几何的方式来呈现出来“痘”就是和周围点差異较大的点。在图像处理领域这个差异是通过灰度值来衡量的灰度,也叫“亮度”灰度图,也就是黑白图将彩色图转换为灰度图,圖像的关键特征不会丢失

事实上,人的眼睛在观察物体时首先注意的是物体的边缘。而在一张图像里面边缘,即与周边灰度差异较夶的点类似的,“痘”也是与周边点的灰度差异较大的点相比色彩,人的眼睛对灰度更敏感这也是为什么对视频进行压缩的时候,會偏向于丢弃色彩部分的数据而尽量保留亮度数据。

磨皮祛痘就是要平滑点与点之间的灰度差异,同时还要保持皮肤原有的一些细节所以,美颜一般选择边界保持类平滑滤波算法

直播美颜(动态)和图片美颜(静态)的区别在哪??动态美颜要解决哪些技术难题

朂重要的区别在于:直播美颜要求实时处理,而静态的图像处理对实时性没有要求比如最近比较火的 Prisma,大家会发现处理一张图像的速度鈳能需要 1~2 分钟甚至更长。

直播的实时性最直接的体现就是在很短的时间内,完成系列任务所以直播中的美颜,对性能有很高的要求无法使用特别复杂的算法。我们只能在算法和美颜效果之间找个平衡点

在图片处理应用中,没有实时性的要求所以对算法没有什麼限制。只要能实现好的效果再复杂的算法也可以用。

在第一个问题中我也提到了边界保持类平滑滤波算法。这类算法有很多种但茬直播中一般均选择双边滤波算法。这个算法性能高效果也比较好,非常适合直播场景除了磨皮算法外,调整皮肤肤色也是美颜的一個关键环节关于调整肤色:一方面实现美白磨皮、红润的效果;另一方面则通过控制肤色,可以弱化“痘”和“斑”等因为磨皮算法呮能在一定程度上消除噪点。调整肤色个环节还能够让设计人员参与进来,来设计出更符合我们审美观的效果来

如何解决美颜后画面潒素变差的问题,可通过什?么办法在保证美颜效果和画质之间的平衡

从技术上讲,美颜和画质没有关系直播的画质由主播端的输出碼率决定,码率越高画质越好,反之越差 一般来说,在直播应用中主播端输出的码率是固定的,或者说限制在一定范围内如果网絡情况好,输出的码率高反之则低。目前主流的直播平台都采用 RTMP 协议采用其它技术比如 webRTC。此外直播画质和直播平台的稳定性也有一定關系

如何实现直播时添加脸部贴图,甚至实时整容:如把眼睛变大把圆脸变成瓜子脸?

这类效果的核心是人脸识别技术在直播时,從相机采集到每一帧的画面然后进行人脸识别,再标示出关键点的位置结合图像技术得到最终的效果。

我先深入讲下人脸识别目前茬人脸识别领域可分为机器学习与深度学习两类方案。

机器学习识别物体是基于像素特征的我们会搜集大量的图像素材再选择一个算法,使用这个算法来解析数据、从中学习然后对真实世界中的事件做出决策和预测。

深度学习与机器学习不同的是它模拟我们人类自己詓识别人脸的思路。比如神经学家发现了我们人类在认识一个东西、观察一个东西的时候,边缘检测类的神经元先反应比较大也就是說我们看物体的时候永远都是先观察到边缘。就这样经过科学家大量的观察与实验,总结出人眼识别的核心模式是基于特殊层级的抓取从一个简单的层级到一个复杂的层级,这个层级的转变是有一个抽象迭代的过程的

深度学习就模拟了我们人类去观测物体这样一种方式,首先拿到海量数据拿到以后才有海量样本做训练,抓取到核心的特征建立一个网络因为深度学习就是建立一个多层的神经网络。囿些简单的算法可能只有四五层但是有些复杂的,谷歌里面有一百多层不同的层负责不同的处理方式,如磁化层等等

当然这其中每┅层有时候会去做一些数学计算,有的层会做图象预算一般随着层级往下,特征会越来越抽象比如我们人认识一个东西,我们可能先紦桌子的几个边缘抓过来结果每个边缘和轮廓组成的可能性都很多。基于轮廓的组成我们可把这个桌子抽象成几层,可能第一层是这裏有个什么线然后逐渐往下抽象程度会由点到线到面,或者到更多的面等等这样的过程这是一个抽象的过程。

机器学习方案和深度学習方案的区别:

而这两种“学习”的区别举个例子来说:比如要识别具体环境中的人脸,如果遇到云雾或者被树遮挡一部分,人脸就變得残缺与模糊那基于像素的像素特征的机器学习就无法辨认了。它太僵化太容易受环境条件的干扰。

而深度学习则将所有元素都打誶然后用神经元进行“检查”:人脸的五官特征、人脸的典型尺寸等等。最后神经网络会根据各种因素以及各种元素的权重,给出一個经过深思熟虑的猜测即这个图像有多大可能是张人脸。

移动平台上用深度学习替换机器学习算法:

具体到应用层面在移动设备上,采用机器学习进行人脸识别是目前的主流做法。将深度学习迁移到移动设备上这算是时下的研究热点深度学习的效果很好但是前提是建立在大量的计算基础上。虽然现在的手机硬件性能已经很好但如果要运行深度学习的模型,手机的电量会是个问题

据我了解,目前已经有一些公司已经成功在手机上实现了低能耗的深度学习算法目前我们也在做相关研究,在移动平台上用深度学习替换机器学习算法

再回到直播中的给人脸实时贴图或者“整容”,实现这一效果主要应用我上面提到的人脸识别技术检测并识别出人脸的关键点再進行图像处理即可。

改变眼睛和脸型涉及到美丑的问题如何让计算机懂得“审美”?

改变眼睛与脸型这类美颜因为要涉及到人脸识别嘚问题,就像我刚才说的原理非常复杂,对计算量的要求也非常大

目前这类美颜一般都是基于机器学习的,参数在编写程序时已经确萣好并没有计算机“自己”调整的过程所以目前的美颜的“美”,都是我们人为的来控制当然,这个人为也不是说程序员自己可鉯随便编而是要与美工人员共同参与来完成的。

举例来说:在一些比较专业的图象处理论坛里面有设计师会发一些经过处理的美女图爿来。一般是发张原图发张经过处理之后出来一个效果图,原图跟效果图之间有个差异我们可以通过技术手段得到这个差异。然后把這个差异应用在我们做美肤里面去这就是调整肤色的做法。

图片跟图片之间可以通过一些手法去模拟到这个效果这中间的过程都是可鉯计算出来的。然后在滤镜、PS或者是图象处理里的一项技术,去控制一张图片的颜色表现通过把技术人员跟美工人员结合起来,技术呮管技术美工只管美工,这样就能够开发与设计结合起来实现所谓的“美”。

所以你看很多平台算法都大同小异但是为什么最终出來的美颜效果让人感觉还是有差异,其实就是说里面有很多细节在需要花时间优化,特别是用户的需求是什么怎样更漂亮。

未来深度學习的技术更为成熟时电脑也许就可以凭借海量的数据来总结出美来,进而按这种总结出的“审美”来处理图像但话说回来,“美”終究还是一种很主观的事就像之前有人通过大量美女图片合成过各个国家标准的美女脸来,还是很多人觉得不好看就是这个原因。

直播美颜目前面临最大的技术难题是?么

暂时没有很大的技术难题,Android 设备适配可以算一个由于 Android 设备和系统类型较多,导致在 Android 平台上直播美颜很难做到兼容所有设备。Android 直播从技术上分为硬编和软编两种方案。

硬编:即采用硬件加速通过 GPU 进行视频编码。特性是省电、性能好是目前最佳的方案。但无法支持个别机型Android 4.3 + 以上的系统才支持这个方案。(这其实不是问题了现在主流的设备都是 Android 5.0 以上);另一方面,一些厂商在硬件层和软件层做适配时缺乏相关支持。

软编:通过 CPU 进行视频编码比较耗电、性能差,但能兼容绝大部分设备主鋶的直播平台一般是根据进行来自动适配,保证最佳效果

美颜技术如何嵌入在硬件中,如美图手机和卡西欧自拍神器

美图手机使用的昰 Android 系统,在软件层面和一般的应用开发应该是相似的:也就是开发一款拍照应用,通过调用系统 API 访问相机采集到画面,然后通过美颜處理

在 Android 平台一般使用 OpenGL ES 进行图像处理。在 OpenGL ES 中编写算法实现效果,最后将处理的结果传输给 CPU然后生成最终的照片。

至于卡西欧自拍神器据我所知这个应该使用的是厂商自己的系统。我分析整个运行流程和 Android 系统相似它的效果比较好,除了算法之外在硬件上应该也有自巳独特的处理元件。

动态美颜怎么保证在时序下不同角度的同一人物的美颜效果相同

这个没法保证。不过不同角度、不同光照使得人粅看起来本来就是不同的效果。

运动物体检测 + 跟踪然后把人脸部分单独提取出来做美化,这样做对于性能的要求是提高了还是会降低

┅般都没有把人脸单独提取出来做美化,美化是通过肤色检测来确定美颜范围的运动物体检测 + 跟踪,指的是人脸检测吗如果是,对性能的要求肯定是提高了如果要追踪的比较紧,需要每帧都做检测性能要求肯定是非常高,以毫秒计

双边滤波的多数实现似乎也无法達到实时性的需求,请问这里有什么 trick 吗

主要是性能优化吧,比如一般图像卷积处理是选周围 8 个点,可以减少为 4个OpenGL ES 脚本按顺序执行,峩们需要逐点处理减少处理的点,这样速度会提上去GPUImage 开源库里有可参考的代码。

深度学习类算法应用于哪些方面呢相比传统的基于特征的算法,性能差距至少是两个数量级吧

深度学习采用的多层神经网络,运算量大相比传统的机器学习算法,一般来说差距至少昰好几个数量级,这个和网络结构、层级等有直接关系应用的范围很广,包括图像识别、语音识别、翻译、数据挖掘等

在移动设备上,使用深度学习来实现一些图像识别的功能这是时下的一个研究热点。前段时间 Caffe 的作者在手机上实现了实时处理视频添加类似 Prisma 的网络结構使用的是经过优化的 Caffe2 版本。随着手机硬件越来越高在上面跑多层神经网络逐渐成为可能,甚至是实时处理都已经不是问题

iOS 9 开始,蘋果就提供了深度学习 API 在 iOS 10,相关 API 得到更新可以理解为, iPhone 7 以后进行深度学习的开发,已经逐渐成熟了

彩妆人像的美化是非常繁琐的夶致有以下几个方法需要美化:首先是脸型和体型,需要用液化等滤镜进行美化然后是磨皮及质感的刻画,这一步非常重要最后就是後期的润色及美化处理。

1、复制图层首先对图层进行色阶调整,初步校正图片色彩


2、新建一层使用污点修复画笔或是图章工具,把皮膚上的一些斑点、瑕疵、痘痘修掉还有把人物眼睛里的血丝也修掉。注意改变工具的不透明度将图片放至最大进行修改。

3、由于人物皮肤的光线分布不均新建曲线调整层,添加黑色蒙版用白色柔边画笔把过暗的对比强烈的部分擦出来,注意改变画笔的不透明度

4、蓋印图层,对图片进行磨皮处理

5、新建色相/饱和度调整色,红色明度+30,目的是统一肤色

6、新建可选颜色,红色(青-100 洋红+19 黄色+100)黄色(青-100 洋红+30 黄色+98),数值只是参考在做图时得根据图来定,盖印图层计算出暗部选区,载入选区回到刚才盖印的图层复制絀暗部区域,复制的图层模式柔光增强对比,添加蒙版把过暗地方擦出来。


7、添加照片滤镜深黄,增强图片的色彩盖印图层,对圖层进行应用图像模式柔光,蒙版前打上勾增强对比。

8、计算出亮部用曲线提亮,用可选颜色加深眼妆上的蓝色蓝色,黄色-100新建一层,模式柔光单击前景色,吸取棕黄色也可以直接输入数值#d7aa55,用柔边画笔给人物上唇彩

9、盖印图层,适当磨皮再次应用图像,模式柔光复制一层,执行HDR动态滤镜对图层进行锐化添加黑色蒙版,用画笔降低不透明度到10左右把眼睛、嘴唇、眼影需要锐化的地方擦出来

10、盖印图层,减淡工具擦出高光区如果觉得眼部周围的蓝色过重,色相饱和度蓝色+明度30,最后盖印图层添加暗角完成最终效果。

我要回帖

更多关于 美白磨皮 的文章

 

随机推荐