🎉 Gate.io動態 #创作者成长激励计划# 火熱進行中!您報名參與發帖了嗎?
趕緊報名參與發帖,茶具套裝、Gate.io紀念章、合約體驗券等價值 $2,000 豐厚大獎等你來拿!
參與方式:
1.點擊活動表單完成報名獲取獲獎資格 👉️ https://www.gate.io/questionnaire/6550
2.隨後在動態發布帖子,發布帖子越多越優質獲獎機會越大!
📌 任何與加密相關內容均可參與,創作者們請盡情發帖!
🎁活動獎勵:
🔹榜單 Top40 及新人 Top10 可贏茶具套裝、國際米蘭保溫杯、Gate.io紀念章、合約體驗券等超$2,000好禮!
🔹上榜創作者還將解鎖AMA訪談、榮譽海報、V5標識、精選推薦、動態大使等流量扶持,助你提升社區影響力!
活動截止至:5月6日00:00 (UTC+8)
詳情:https://www.gate.io/announcements/article/44513
創作者們,請盡情發帖,爭奪創作榜單,贏取豐厚創作大獎及流量曝光!
Meta 發佈了 audio2photoreal AI 框架,可以通過輸入配音檔生成角色對話場景
Bit News Meta 最近宣佈了一個名為 audio2photoreal 的 AI 框架,它能夠生成一系列逼真的 NPC 角色模型,並藉助現有的畫外音檔自動“對口型同步”和“擺姿勢”角色模型。
官方研報指出,Audio2寫實框架收到配音檔后,會先生成一系列NPC模型,然後利用量化技術和擴散演演演算法生成模型動作,其中量化技術為框架提供動作樣本參考,擴散演演演算法用於提升幀生成的人物動作效果。
對照實驗中有43%的評估者對幀生成的人物對話場景“非常滿意”,因此研究人員認為Audio2逼真框架能夠產生比業內競爭產品“更具活力和表現力”的動作。 據悉,研究團隊現已在 GitHub 上公開了相關代碼和數據集。