KDTalker:根據(jù)輸入的音頻信號生成逼真的面部表情和動作視頻
KDTalker是什么?
KDTalker 是一個音頻驅動動態(tài)肖像生成工具,能夠根據(jù)輸入的音頻信號生成逼真的面部表情和動作。KDTalker 具有隱式關鍵點技術、時空擴散模型和姿勢多樣性等特點。適用于虛擬現(xiàn)實、社交媒體、視頻會議等多種場景。通過簡單的環(huán)境準備和命令行操作,用戶可以快速生成高質量的動態(tài)肖像視頻。
KDTalker 功能特征
隱式關鍵點技術:
利用隱式關鍵點捕捉面部表情和動作的細微變化,能夠更自然地反映音頻與面部動作之間的關系。
與傳統(tǒng)的顯式關鍵點方法相比,隱式關鍵點可以避免顯式標注的復雜性和誤差。
時空擴散模型:
結合時空擴散模型,生成更加平滑和連貫的動態(tài)效果,同時保持圖像質量和穩(wěn)定性。
通過時空擴散模型,能夠更好地處理視頻序列中的時間連續(xù)性。
姿勢多樣性:
支持多種姿勢的生成,能夠根據(jù)音頻內容動態(tài)調整人物的姿態(tài),增加生成結果的多樣性和自然性。
用戶可以指定不同的姿勢風格,生成更具個性化的動態(tài)肖像。
高效性:
優(yōu)化的模型設計和高效的計算流程,使得該技術能夠在單個RTX4090或RTX3090顯卡上運行,具有較高的實用性和可擴展性。
適合在資源有限的設備上使用,同時保持較高的生成速度。
高質量生成:
生成的動態(tài)肖像具有較高的分辨率和逼真度,能夠滿足高質量視頻生成的需求。
通過預訓練模型和優(yōu)化的推理流程,確保生成結果的穩(wěn)定性和一致性。
KDTalker 應用場景
虛擬現(xiàn)實(VR)和增強現(xiàn)實(AR):
在VR和AR應用中,KDTalker可以生成逼真的虛擬角色動態(tài)肖像,提升用戶體驗。
例如,在虛擬會議中,用戶可以通過音頻驅動生成自己的動態(tài)肖像,使遠程交流更加自然。
社交媒體和視頻內容創(chuàng)作:
用戶可以將自己的照片和音頻輸入KDTalker,生成個性化的動態(tài)肖像視頻,用于社交媒體分享。
內容創(chuàng)作者可以利用該技術生成有趣的視頻內容,增加視頻的吸引力。
視頻會議:
在視頻會議中,網(wǎng)絡不穩(wěn)定可能導致視頻卡頓或模糊。KDTalker可以通過音頻驅動生成流暢的動態(tài)肖像,即使在低帶寬環(huán)境下也能保持良好的視覺效果。
娛樂和游戲:
在游戲和娛樂應用中,KDTalker可以生成虛擬角色的動態(tài)表情和動作,增強游戲的沉浸感。
例如,在角色扮演游戲中,玩家可以通過音頻驅動生成自己的角色動態(tài)肖像。
教育和培訓:
在教育和培訓場景中,KDTalker可以生成教師或培訓師的動態(tài)肖像,用于在線課程或培訓視頻。
通過音頻驅動生成的動態(tài)肖像可以使教學內容更加生動,提高學習效果。
KDTalker 使用方法
1. 環(huán)境準備
硬件要求:推薦使用RTX4090或RTX3090顯卡。
軟件依賴:
安裝git、conda和FFmpeg。
克隆代碼并創(chuàng)建Python環(huán)境:
git clone https://github.com/chaolongy/KDTalker cd KDTalker # 創(chuàng)建并激活conda環(huán)境 conda create -n KDTalker python=3.9 conda activate KDTalker # 安裝PyTorch和其他依賴 conda install pytorch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 pytorch-cuda=11.8 -c pytorch -c nvidia pip install -r requirements.txt
2. 下載預訓練權重
從Google Drive或Hugging Face下載預訓練權重文件,并放置到./pretrained_weights和./ckpts目錄中。
確保目錄結構如下:
pretrained_weights ├── insightface │ └── models │ └── buffalo_l │ ├── 2d106det.onnx │ └── det_10g.onnx └── liveportrait ├── base_models │ ├── appearance_feature_extractor.pth │ ├── motion_extractor.pth │ ├── spade_generator.pth │ └── warping_module.pth ├── landmark.onnx └── retargeting_models └── stitching_retargeting_module.pth
3. 運行推理
使用以下命令運行推理腳本,生成動態(tài)肖像視頻:
python inference.py -source_image ./example/source_image/WDA_BenCardin1_000.png -driven_audio ./example/driven_audio/WDA_BenCardin1_000.wav -output ./results/output.mp4
-source_image:指定輸入的源圖像路徑。
-driven_audio:指定輸入的驅動音頻路徑。
-output:指定輸出視頻的保存路徑。
項目地址:https://github.com/chaolongy/KDTalker
DEMO:https://kdtalker.com/