埃隆·馬斯克
鳳凰網(wǎng)科技訊 8月16日,據(jù)紐約時報報道,AI生成的埃隆·馬斯克形象已經(jīng)出現(xiàn)在數(shù)千條虛假廣告中并導致數(shù)十億美元的詐騙。
隨著尖端人工智能技術的廣泛普及,以埃隆·馬斯克等公眾人物為焦點的“Deepfake”(深度偽造)風潮逐漸興起,任何人都能輕易復制名人的聲音,甚至以令人難以置信的逼真度篡改視頻內容。這一現(xiàn)象迅速吸引了色情內容創(chuàng)作者、表情包制作者以及日益增多的詐騙犯的注意。
82歲的退休老人蒂夫·博尚普去年年底看到了一段馬斯克支持一項承諾快速回報的激進投資機會的視頻。他聯(lián)系了該廣告背后的公司,并開設了一個248美元的賬戶。在接下來幾周的一系列交易中,博尚普花光了自己的退休賬戶,最終投資了超過69萬美元(約495萬人民幣)。然而,這筆錢卻消失了——被騙子們卷走了。
詐騙犯們編輯了一段馬斯克的真實采訪,使用人工智能工具將他的聲音替換成了復制品。這種人工智能足夠先進,可以調整細微的口型變化,以匹配他們?yōu)閿?shù)字偽造品編寫的新劇本。對于普通觀眾來說,這種操作可能難以察覺。
這些視頻的制作成本僅有幾美元,幾分鐘內即可完成。它們通過社交媒體進行推廣,包括在 Facebook 上投放付費廣告,從而擴大了其影響力。
“這可能是有史以來最大的深度偽造騙局?!?/strong>Sensity 公司的聯(lián)合創(chuàng)始人兼首席威脅情報官弗朗西斯科·卡瓦利說,該公司負責監(jiān)控和檢測Deepfake視頻。
YouTube上的假馬斯克直播
這些視頻往往栩栩如生,捕捉到了馬斯克標志性的僵硬節(jié)奏和南非口音。騙子們通常會從一個真實的視頻開始,如一段由《華爾街日報》編輯托爾德·巴克爾采訪馬斯克的視頻,巴克爾的聲音也出現(xiàn)在剪輯中。騙子們會使用口型同步技術編輯馬斯克的口型,該技術會調整視頻中人物的說話方式。
Deepfake生成的AI馬斯克
然后,他們會使用聲音克隆工具添加一個人工智能聲音,該工具可以從樣本剪輯中復制任何聲音。最終的廣告甚至可能包括相應新聞機構的圖標,對于普通網(wǎng)民來說,這會相當有說服力。
據(jù) Sensity 分析的 2000 多個Deepfake視頻顯示,馬斯克是這些視頻中最常見的代言人,尤其是在加密貨幣投資廣告中,幾乎占據(jù)了90%。一些廣告還以著名投資者沃倫·巴菲特和亞馬遜創(chuàng)始人杰夫·貝索斯等人為主角。
YouTube上“埃隆比特幣會議”的搜索結果顯示了數(shù)十個自稱的“現(xiàn)場視頻”,其中包括一個Deepfake生成的馬斯克兜售加密貨幣騙局。一些視頻被數(shù)十萬人觀看。
這些騙局通常會宣傳虛假的人工智能驅動的軟件,聲稱它們可以產(chǎn)生驚人的投資回報。騙子們會鼓勵目標對象先發(fā)送一小筆錢——大約 250 美元——并隨著他們聲稱的初始投資價值增加,逐漸引誘他們投入更多資金。在一段從特斯拉股東大會上截取的視頻中,AI馬斯克介紹了一款由人工智能驅動的自動交易產(chǎn)品,該產(chǎn)品可以每天將給定的投資翻倍。研究加密貨幣社區(qū)的專家表示,馬斯克的粉絲遍布全球,其中有大量的保守派、反建制派和加密貨幣愛好者,他們常常尋求賺取財富的獨特方式,這使他們成為這些騙局的完美目標。
對此,馬斯克沒有回應置評請求。
此類AI網(wǎng)絡詐騙案件已經(jīng)越發(fā)猖獗。香港證券及期貨事務監(jiān)察委員會 5 月發(fā)布警告,稱有人利用馬斯克進行詐騙。今年早些時候,美國聯(lián)邦貿(mào)易委員會和聯(lián)邦調查局警告稱,人工智能網(wǎng)絡犯罪和Deepfake騙局的數(shù)量正急劇攀升。聯(lián)邦調查局在一封電子郵件聲明中表示,“犯罪分子正在利用人工智能作為強大武器”,以使“網(wǎng)絡攻擊和其他犯罪活動更有效且更難被察覺”。(作者/邢睿)
更多一手新聞,歡迎下載鳳凰新聞客戶端訂閱鳳凰網(wǎng)科技。想看深度報道,請微信搜索“鳳凰網(wǎng)科技”。
發(fā)表評論