• <button id="rrgjj"></button>

    <button id="rrgjj"><tr id="rrgjj"><kbd id="rrgjj"></kbd></tr></button>
    <em id="rrgjj"><acronym id="rrgjj"><input id="rrgjj"></input></acronym></em>

    應用

    技術

    物聯網世界 >> 物聯網新聞 >> 物聯網熱點新聞
    企業注冊個人注冊登錄

    自從被AI換了身體,做一個女裝大佬無壓力

    2019-10-21 09:00 網易智能公眾號;CSDN
    關鍵詞:AI人工智能

    導讀:看臉時代已過,AI“邀”你來看身體。

    “我眼瞅自己跳著芭蕾的視頻,看到那一抹妖嬈嫵媚,驚嘆自己還有這樣一面?!?/span>

    聽著王大柱的自述,哥幾個張大了嘴巴。要知道,面前這位,可是身高199,體重210,胸肌、腹肌全套配的鐵血男兒。

    自從被AI換了身體,做一個女裝大佬無壓力

    猜猜看,壯漢咋習得的這一身絕技?

    A:芭蕾舞女神附體。

    B:路遇絕世高人,拜師學藝。

    按常人邏輯來看,這答案,顯然是B。不過,像王大柱這么難馴化的“品種”,走尋常路線是不行滴。

    所以,正確答案是A。之所以稱之為“附體”,這其實是人體深度偽造技術呈現的效果。

    “深度偽造”(Deepfake)是英文“deep learning”(深度學習)和“fake”(偽造)的混合詞,即利用深度學習算法,實現音視頻的模擬和偽造。顧名思義,人體深度偽造技術就是指通過AI模型算法將目標人物的整個身體替換成另一個人。

    看臉時代已過,AI“邀”你來看身體

    上帝給了我們張獨一份的面容和一具“量產版”的軀體。

    故事中,上帝捏出的亞當和夏娃是人類的初始形態,接下來就是批量復制。但這并不影響被復制出的小人們性情各異,自然穿著、行為也都有所不同。

    自從被AI換了身體,做一個女裝大佬無壓力

    因此,相比AI換臉,全身深度偽造想要做得好,不光是需要完美復制,更多的是通過算法、數據的分析重構人體,進而將一個人的外在氣質嫁接過去。

    全身深度偽造技術使用生成對抗網絡(GANs)創造深度偽造視頻。這是一種能“教會”計算機勝任人類工作的有趣方法。一個好的對手能讓你成長更快,而GANs背后就是“從競爭中學習”的思路。

    那么,GANs是如何工作的?

    GANs中包含兩個相互競爭的神經網絡模型。一個網絡稱為生成器(generator),能將圖像或視頻作為輸入并生成樣本;另一個網絡稱為鑒別器(discriminator),能接收生成器數據和真實訓練數據,是用于得到能正確區分數據類型的分類器。

    自從被AI換了身體,做一個女裝大佬無壓力

    所謂機器訓練過程,其實是生成器和鑒別器的“交鋒”過程。在這一階段里,前者依靠數據庫不斷創造出基于樣本要求的“高仿制品”,后者充當檢驗真假的“警察”。

    隨著“交戰”進行,鑒別器越來越難以區分生成器給到的“產品”真假,而這個過程也會產生很多不同程度的新合成樣本,它們被用于創建逼真的合成圖像和視頻。

    自從被AI換了身體,做一個女裝大佬無壓力

    2018年8月,美國加州大學伯克利分校的研究人員在網上發布了名為《人人皆為舞王》的視頻,展示了深度學習算法實現動作轉移的方法。

    視頻中,專業舞者的動作被轉移到業余愛好者的身上,瞬間讓普通人get到開掛技能。

    同年,由德國海德堡大學圖像處理合作實驗室(HCI)和科學計算跨學科中心(IWR)的計算機視覺教授比約恩·奧默爾領導的研究小組,發表了一篇關于教授機器以逼真形態渲染人類身體運動的論文。

    2019年4月,日本人工智能(AI)公司Data Grid開發了一種AI應用,它可以自動生成不存在的人的全身模型,并可以將其應用到時尚和服裝行業。

    加州大學伯克利分校的研究人員稱,目前這項技術仍處于早期階段,人體深度偽造還沒有辦法做到像人臉識別那樣呈現真假難辨的拼接效果,這其中涉及到的不光是對身體動作的復刻,更是對步態檢測、慣性捕捉、微姿態記錄等技術的融合使用提出更高要求。

    直到目前,人體深度偽造技術看上去都是一副“人畜無害”得樣子。

    不過,凡事都有其兩面性,在不法分子眼里,人體深度偽造技術在色情業、廣告營銷、網絡欺詐等領域可謂“大有所為”。

    黑化的高科技,騙子的“紅利”

    多了個身體,深度偽造技術的“修為”更上一層樓。在凡事都講求個“眼見為實”的今天,殺傷力反而更大。

    2018年,CNN駐白宮首席記者吉姆·阿科斯塔(Jim Acosta)在Infowars的編輯保羅·約瑟夫·沃森(Paul Joseph Watson)上傳的一段視頻片段中,阿科斯塔似乎在猛推試圖拿走其麥克風的白宮工作人員。

    自從被AI換了身體,做一個女裝大佬無壓力

    實際上,由C-SPAN播放的原始視頻與沃森上傳的視頻內容截然不同。

    沃森堅持認為,自己并沒有篡改視頻內容,由于上傳時視頻的自動壓縮導致與原始視頻相比缺失了幾幀,而就這幾幀恰好造就了上面的那句。

    因此,沃森差點被自己送去吃牢飯(沒錯,這事阿科斯塔曾考慮起訴沃森)。

    Emm~心疼三秒鐘

    這種深度偽造無需什么技術含量,即可扭曲一段視頻的含義,抹黑一個人。這可以是無意間發生的,但做到真的很容易。

    不用多久,傻瓜式操作的人體深度偽造應用便會問世。網絡安全公司Deeptrace通過構建基于計算機視覺和深度學習的工具證實了這一點。

    這個AI工具,像是個基于媒體的“造人神器”,它可以操縱任何類型的合成視頻,隨機合成其中一個或幾個演員的全身、面部圖像和音頻。

    Deeptrace安全人員稱,我可以制作一段杰夫·貝索斯(Jeff Bezos)的深度偽造視頻,他說亞馬遜的股票正在下跌,想想做空亞馬遜股票可以賺到多少錢。當你控制住它傳播的時候,損害已經造成了。

    別有用心的組織利用深度偽造技術對政要、記者等人物進行篡改,在發生重大事件時可能會混淆視聽,影響新聞報道的真實性,造成社會輿論混亂,危害社會穩定。

    若能達到無縫拼接,很難看出破綻......可怕,誰快來收了這妖孽?

    抱歉,目前在科技行業中還沒有找到根除深度偽造的共識方法,許多不同的技術正在研究和測試中。其中包括:

    1、調查各類鏡頭的數字水印,以識別深度偽造內容

    2、使用區塊鏈技術建立信任體系

    3、創造“AI神探夏洛克”,即取樣某些卷積模型,然后在視頻中尋找異常

    4、通過基于API的監控系統看到深度偽造視頻的創建、上傳和共享過程

    盡管這些辦法都可偵測人體深度偽造的內容,但較高的準確度依然聚焦在面部識別,而探測深度偽造技術的下一件大事,是“軟”生物特征簽名。

    無論是面部微表情,還是身體動作、體態,都是獨一無二的。加州大學伯克利分校的研究員舒迪·阿加瓦爾(Shruti Agarwal)使用這類軟生物識別模型,來確定這種微小變化是由視頻人工創建的。

    另一邊,在于短期內,推廣虛假信息和其他有毒、煽動性內容對主要平臺來說是有利可圖的,因此激勵機制也完全不一致。

    網易易盾實驗室告訴雷鋒網,通過深度偽造技術,人體動作行為可以再生成,惡意改造可能會嚴重侵犯個人隱私,引起的傳播效應會對個人造成負面社會影響,并且,這一系列技術給司法鑒定帶來更大挑戰。

    有研究人員獻計:阻止深度偽造的全面法律可能反而會被誤導。在現有涵蓋誹謗和版權的法律情況下,應支持造福社會的合成媒體應用,同時資助研究開發工具來檢測深度偽造內容,并鼓勵初創企業和其他公司也這樣做。

    自從被AI換了身體,做一個女裝大佬無壓力


    支付宝提现捕鱼