DeepFaceLab特別版是一款使用起來非常簡單的智能AI換臉軟件,我們在編輯視頻的時候,可以直接通過Deepfacelab中文版將視頻中其他人的臉進行更換,加入自己想要的人臉圖片,并且這款軟件還可以讓人臉的契合度達到最高程度,看不出任何修改的痕跡哦!

Deepfacelab2.0中文版是一款非常簡單實用的AI換臉軟件,用戶通過這款軟件可以將自己的臉更換到自己愛豆的視頻或圖片上去,這樣一來仿佛使得用戶與愛豆一起參演電影以及共同合影一般,非常有意思。該軟件采用了傻瓜式的操作方法,相信用戶可以輕松上手。
Deepfacelab最新版是一款非常有意思的AI智能換臉軟件,用戶無需掌握任何編程知識便可以對視頻、圖片進行一鍵換臉操作并且契合度非常高,看不出任何一點瑕疵。另外,該軟件的配置略高需要搭配GTX1080以上顯卡,所以用戶在使用之前注意升級自己電腦配置。

1、可單獨使用,具有零依賴性,可與所有Windows版本的預備二進制文件(CUDA,OpenCL,ffmpeg等)一起使用。
2、新型號(H64,H128,DF,LIAEF128,SAE,惡棍)從原始的facewap模型擴展而來。
3、新架構,易于模型試驗。
4、適用于2GB舊卡,如GT730。在18小時內使用2GB gtx850m筆記本電腦進行深度訓練的示例
5、面部數據嵌入在png文件中(不再需要對齊文件)。
6、通過選擇最佳GPU自動管理GPU。
7、新預覽窗口
8、提取器和轉換器并行。
9、為所有階段添加了調試選項。
10、多種面部提取模式,包括S3FD,MTCNN,dlib或手動提取。
11、以16的增量訓練任何分辨率。由于優化設置,使用NVIDIA卡輕松訓練256。
1、安裝方便,環境依賴幾乎為零,下載打包 app 解壓即可運行(最大優勢)
2、添加了很多新的模型
3、新架構,易于模型實驗
4、人臉圖片使用 JPG 保存,節省空間提高效率
5、CPU 模式,第 8 代 Intel 核心能夠在 2 天內完成 H64 模型的訓練。
6、全新的預覽窗口,便于觀察。
7、并行提取
8、并行轉換
9、所有階段都可以使用 DEBUG 選項
10、支持 MTCNN,DLIBCNN,S3FD 等多種提取器
11、支持手動提取,更精確的臉部區域,更好的結果。
workspace目錄下的文件,先了解下

1. 我們看到下面目錄,可以看到都是批處理,這里我已經翻譯成中文啦,非常好理解。我們雙擊它1)批處理,輸入y之后,就會清理了,不需要清理就不用執行了。

2. 第二步,我們提取data_src視頻,這里我們按照原視頻幀數進行分解(如果要指定幀數,可以右擊編輯)

分解完之后,我們打開workspace/data_src目錄,可以看到分解出的圖片

3. 同樣的,我們將data_dst視頻分解出圖片,執行批處理

4. 分解出圖片知道后,我們要圖片中的人臉提取出來,先從data_src開始,我們用DLIB庫提取人臉,雙擊 4) 單顯卡DLIB庫提取data_src人臉

提取好data_src的人臉之后,我們看到下面的批處理是排序,有興趣的同學可以自己逐個執行看效果,這里我們跳過。

5.同樣的,我們需要提取data_dst的人臉,這里我們也用DLIB來提取人臉,執行批處理開始

一、人臉素材需要多少?
DST:盡量不要少,因為它是有限的且需要被替換的素材
SRC:根據各軟件的臉圖篩選規則和網上大神的建議,總體來說,SRC臉圖最好是大概700~3999的數量,像Deepfacelab的作者,他就認為1500張夠了。對于SRC,各種角度、各種表情、各種光照下的內容越多越好,很接近的素材沒有用,會增加訓練負擔。
二、 手動對齊識別人臉模式如何使用?
回車鍵:應用當前選擇區域并跳轉到下一個未識別到人臉的幀
空格鍵:跳轉到下一個未識別到人臉的幀
鼠標滾輪:識別區域框,上滾放大下滾縮小
逗號和句號(要把輸入法切換到英文):上一幀下一幀
Q:跳過該模式
老實說,這個功能極其難用,畫面還放得死大……
三、MODEL是個什么東西?
MODEL是根據各種線條或其他奇怪的數據經過人工智能呈現的隨機產生的假數據,就像PS填充里的“智能識別”
你可以從https://affinelayer.com/pixsrv/ 這個網站里體驗一下什么叫MODEL造假
四、MODEL使用哪種算法好?
各有千秋,一般Deepfacelab使用H128就好了,其他算法可以看官方在GitHub上寫的介紹:https://github.com/iperov/DeepFaceLab
五、Batch Size是什么?要設置多大?
Batch Size的意思大概就是一批訓練多少個圖片素材,一般設置為2的倍數。數字越大越需要更多顯存,但是由于處理內容更多,迭代頻率會降低。一般情況在Deepfacelab中,不需要手動設置,它會默認設置顯卡適配的最大值。
根據網上的內容和本人實際測試,在我們這種64和128尺寸換臉的操作中,越大越好,因為最合理的值目前遠超所有民用顯卡可承受的范圍。
六、MODEL訓練過,還可以再次換素材使用嗎?
換DST素材:
可以!而且非常建議重復使用。
新建的MODEL大概10小時以上會有較好的結果,之后換其他DST素材,僅需0.5~3小時就會有很好的結果了,前提是SRC素材不能換人。
換SRC素材,那么就需要考慮一下了:
第一種方案:MODEL重復用,不管換DST還是換SRC,就是所有人臉的內容都會被放進MODEL進行訓練,結果是訓練很快,但是越雜亂的訓練后越覺得導出不太像SRC的臉。
第二種方案:新建MODEL重新來(也就是專人專MODEL)這種操作請先把MODEL剪切出去并文件夾分類,這種操作可以合成比較像SRC的情況,但是每次要重新10小時會很累。
第三種方案:結合前兩種,先把MODEL練出輪廓后,再復制出來,每個MODEL每個SRC臉專用就好了。
其、合成圖連接成視頻后發現部分畫面面部顫抖怎么辦?
把DST視頻通過其他軟件放大些尺寸再重新進行操作。因為邏輯上分析,擴大了畫面后,軟件識別偏移的步長比例會小一些。