上世紀(jì)末的作品《攻殼機(jī)動(dòng)隊(duì)》中,全身義體化的素子,懷疑自己是否仍然存在。身體、記憶和其他人的關(guān)系,當(dāng)這些事物都能夠被復(fù)制,也就無(wú)法成為肉身生命的論據(jù)。
AI 歌手爆火之時(shí),孫燕姿也在回應(yīng)里提出類似的觀點(diǎn),你并不特別,你已經(jīng)是可預(yù)測(cè)的,而且不幸你也是可定制的。
我們可以加上一句,任何人都是可以被 AI 描述和生成的,哪怕你從未做過(guò)某些事情。
魯迅真的說(shuō)過(guò),一見(jiàn)短袖子,立刻想到白臂膊。人類的想象力是共通的,毫不意外,每當(dāng)技術(shù)有新進(jìn)展,某個(gè)垂直賽道會(huì)被開(kāi)發(fā)得越發(fā)成熟:搞黃色。
曾經(jīng)因?yàn)?N 號(hào)房震驚世界的韓國(guó),此時(shí)此刻正在上演 2.0 版本。
普通人對(duì)普通人的暴力
之前的 N 號(hào)房事件,作案人在加密即時(shí)通訊軟件 Telegram 上建立多個(gè)聊天室,發(fā)布性剝削內(nèi)容。這次的事件,也主要發(fā)生在 Telegram。
兩者主要是犯罪手段的區(qū)別:一個(gè)是偷拍,一個(gè)是 Deepfake(深度偽造)。
我們?cè)缫褜?duì) Deepfake 不陌生,它利用 AI 生成看似真實(shí)的視頻、音頻或圖像,模擬實(shí)際沒(méi)有發(fā)生的事情。
Deepfake 常用在娛樂(lè)圈和政治人物,但它也正被普通人所掌控,拿來(lái)傷害其他普通人。
N 號(hào)房 2.0 的加害人們,將魔爪伸向了身邊的家人、同事和同學(xué),很多 Telegram 聊天室按照學(xué)校或者地區(qū)組織,所以群友有共同的熟人、臭味相投的話題。
▲ 按高校區(qū)分的聊天室
除了身邊女性,女明星也是他們圍獵的對(duì)象。有些聊天室甚至細(xì)分到了職業(yè)類型,包括教師、護(hù)士、軍人等。
《韓民族日?qǐng)?bào)》報(bào)道,一個(gè) 22.7 萬(wàn)人參與的 Telegram 聊天室,只需要女性的照片,就能在 5 到 7 秒內(nèi)生成 Deepfake 內(nèi)容。
22 萬(wàn)什么概念?韓國(guó) 2023 年新生兒人數(shù)只有 23 萬(wàn),總?cè)丝跀?shù)只有 5000 多萬(wàn)。
這個(gè)聊天室內(nèi)置一個(gè)將女性照片合成為裸照、并能調(diào)整胸部的機(jī)器人,用戶進(jìn)入聊天室后,聊天窗口會(huì)立即彈出消息:「現(xiàn)在發(fā)送你喜歡的女性照片?!?/p>
▲ 聊天室截圖,說(shuō)明 Deepfake 的使用方法
參與者數(shù)量多到令人發(fā)指,或許和「準(zhǔn)入門檻」不高有關(guān):在 X(原 Twitter)通過(guò)搜索特定關(guān)鍵詞就可以找到鏈接。
這個(gè)聊天室還建立了變現(xiàn)模式。前兩張照片免費(fèi),之后收費(fèi),每張照片收費(fèi) 1 鉆石(0.49 美元,約 3.47 人民幣)。支付只能用虛擬貨幣,以便匿名。如果邀請(qǐng)朋友,也可以拿到一些免費(fèi)額度。
但也有些聊天室需要「投名狀」——想進(jìn)群,先提交 10 張認(rèn)識(shí)的人的照片,并通過(guò)面試。
聊天軟件 KakaoTalk 的頭像、Instagram 的照片,都可以作為「原材料」。
更細(xì)思極恐的是,受害者和加害者里,青少年的比例都不小。
志愿者們做了實(shí)時(shí)更新的地圖,顯示犯罪發(fā)生在哪些學(xué)校。就算是女子學(xué)校也會(huì)有受害者,因?yàn)榧雍φ卟灰欢ㄊ峭瑢W(xué)。
到底有多少學(xué)校受到影響,目前還沒(méi)有定論。有博主稱,這次涉及了超過(guò) 70% 的學(xué)校。
8 月 26 日,《韓國(guó)中央日?qǐng)?bào)》指出,至少包括全國(guó)約 300 所的學(xué)校,其中甚至還有小學(xué)。8 月 28 日,WSJ 的報(bào)道又將數(shù)字?jǐn)U大到了約 500 所。
一位網(wǎng)友在評(píng)論區(qū)感嘆:「這基本上就是整個(gè)韓國(guó)了……」
雖然此次事件還沒(méi)有明確的調(diào)查結(jié)果,但過(guò)去的數(shù)據(jù)也能說(shuō)明情況的嚴(yán)重性。
韓國(guó)婦女人權(quán)研究所統(tǒng)計(jì),從今年 1 月到 8 月,共有 781 名 Deepfake 受害者尋求幫助,其中有 288 名未成年人,占比 36.9%。真實(shí)數(shù)字可能遠(yuǎn)高于此。
另外,韓國(guó)國(guó)家警察廳稱,自 2023 年初,約 300 名被指控制作和分發(fā)虛假裸照的人中,約 70% 是青少年。
不少韓國(guó)女性到微博發(fā)出求助,她們不會(huì)中文,只能機(jī)翻內(nèi)容,傳遞無(wú)助和恐懼,「N 號(hào)房 2.0」一度沖上微博熱搜。
有些網(wǎng)友奇怪為什么韓國(guó)女性跑到中文互聯(lián)網(wǎng)求助,其實(shí)不只是中文,韓國(guó)女性也有用其他語(yǔ)言發(fā)聲,除了韓國(guó)內(nèi)部,新加坡、土耳其等國(guó)的媒體也報(bào)道了這起事件。
她們認(rèn)為,被外國(guó)人關(guān)注和批評(píng)的話,媒體會(huì)更積極地報(bào)道,相關(guān)部門會(huì)更認(rèn)真地調(diào)查,而不是裝聾作啞和息事寧人。
一些犯罪證據(jù)乃至始作俑者的身份,是韓國(guó)女性自己調(diào)查的,類似當(dāng)年的 N 號(hào)房。好在,韓國(guó)總統(tǒng)和在野黨領(lǐng)袖已經(jīng)表態(tài)了,韓國(guó)總統(tǒng)尹錫悅提出:
Deepfake 是一種明確的數(shù)字性犯罪,我們將徹底根除它們。
Deepfake 可能被看作是惡作劇,但它顯然是在匿名掩護(hù)下利用技術(shù)的犯罪行為,任何人都可能成為受害者。
Telegram 的服務(wù)器在海外,其首席執(zhí)行官又被拘留在巴黎,所以調(diào)查起來(lái)有困難。韓國(guó)通信標(biāo)準(zhǔn)委員會(huì)表示已經(jīng)致函,要求法國(guó)政府配合調(diào)查 Telegram。
被輿論關(guān)注之后,相關(guān)行為有所收斂,但《韓民族日?qǐng)?bào)》又跟蹤報(bào)道發(fā)現(xiàn),有些賊心不死的用戶,會(huì)通過(guò)更嚴(yán)格的「身份驗(yàn)證」,在更私密的聊天室繼續(xù) Deepfake。
▲聊天室截圖,用戶討論加入更私密的聊天室
虛假的內(nèi)容,真實(shí)的傷害
Deepfake 不是新鮮事,但它的傷害其實(shí)很少被正視。
韓國(guó)一些女性將自己的社交賬號(hào)設(shè)為私密,或者刪除發(fā)布在網(wǎng)上的照片,嘗試做些補(bǔ)救。
她們既痛苦,又懷疑。一方面,她們不知道,自己的照片被分享到了哪,傳播了多遠(yuǎn)。另一方面,她們不理解,為什么都在要求受害者小心上傳照片,而不是教育加害者。
當(dāng)女學(xué)生在 Instagram 的 Story(快拍)呼吁「把上傳的所有照片都拿下來(lái)吧」,同校男生們卻能說(shuō)出「你們太丑了,根本不會(huì)用在那些東西上」這種荒謬言論。
▲加害者的言論,說(shuō)女性站得太高了
網(wǎng)上還不乏這樣的聲音:「不知道這種犯罪為什么會(huì)造成很大的傷害?!埂溉绻菐讉€(gè)人自己制作的,傷害應(yīng)該很小吧?!?/p>
但受害者們所經(jīng)歷的,不僅是看到自己的臉被 Deepfake。加害者們還會(huì)侮辱她們,散布她們的地址、電話、學(xué)生證等個(gè)人信息,造謠她們的私生活,接近并騷擾她們。
更可怕的是遇上「復(fù)仇色情」——加害者以傳播 Deepfake 材料為威脅,勒索和傷害女性,造成更嚴(yán)重的二次傷害。
▲一個(gè)韓國(guó) YouTuber 說(shuō)女性大驚小怪,但他知道蒙面保護(hù)自己
《韓國(guó)先驅(qū)報(bào)》報(bào)道,17 歲的京畿道高中生 Song,以前經(jīng)常在網(wǎng)上分享一些跳舞的照片和短視頻。一天,她在 Instagram 收到了一條附有三張露骨照片的匿名消息:「你的朋友和父母了解你生活的這一面嗎?」
這些照片都是 Deepfake 的,但幾乎沒(méi)法和真實(shí)圖像區(qū)分。噩夢(mèng)沒(méi)有結(jié)束,她回復(fù)的消息,只會(huì)讓對(duì)方更興奮、提出更多的要求。
▲Song 和加害者的短信截圖,根據(jù) Song 的要求進(jìn)行了修改并翻譯成英文
沒(méi)有誰(shuí)能分擔(dān)痛苦。甚至有受害者表示:「我所知道的世界已經(jīng)崩塌了?!?/p>
這和加害者為此付出的代價(jià)不對(duì)等。
▲聊天室截圖,一些猥瑣發(fā)言,如「可以設(shè)定你想要的姿勢(shì)來(lái)制作照片,超爽」
此次事件尚未塵埃落定,但韓國(guó)之前有對(duì) Deepfake 判決,其中一起在 8 月 28 日進(jìn)行了一審。
從 2020 年 7 月到今年 4 月,樸某盜用大學(xué)校友等女性受害者的臉部照片,制作了 419 個(gè) Deepfake 色情視頻,并傳播了 1735 個(gè),被判處有期徒刑 5 年。
受害者們從 2021 年 7 月開(kāi)始輾轉(zhuǎn)奔走,才成功將加害者推上審判臺(tái),讓樸某在今年 5 月被起訴。
因?yàn)檫@次大型 Deepfake 事件,韓國(guó)相關(guān)部門考慮,將最高刑期從 5 年提高到 7 年。
▲韓國(guó)女性發(fā)聲,抗議性犯罪
又考慮到 Deepfake 的青少年犯罪很常見(jiàn),但法律有漏洞,韓國(guó)正在衡量義務(wù)教育階段作案人的最高懲罰。
時(shí)至今日,Deepfake 在很多地方仍是灰色地帶,保護(hù)力度跟不上威脅速度。
比如在美國(guó),如果受害者是成年人,各州有不同的法律規(guī)定,或定為刑事犯罪,或提起民事訴訟,但目前還沒(méi)有聯(lián)邦層面的法律禁止制作 Deepfake 色情內(nèi)容。
▲聊天室截圖,成員聊共同的熟人
之所以立法困難,一個(gè)原因在于,有些觀點(diǎn)認(rèn)為,Deepfake 圖片里的主體就算長(zhǎng)得像你,實(shí)際并不是你,所以你的隱私并沒(méi)有真正受到侵犯。
然而誰(shuí)都清楚,圖片雖然虛假,傷害是真實(shí)存在的。
法律推進(jìn)緩慢,與此同時(shí),那些未曾露面的加害者,暫時(shí)「偃旗息鼓」,等待「卷土重來(lái)」。
作惡如此簡(jiǎn)單,Deepfake 和所有人有關(guān)
韓國(guó)并非個(gè)例,Deepfake 的發(fā)生不限國(guó)界。
2023 年 9 月,西班牙的小鎮(zhèn)阿爾門德拉萊霍,一群男生將女同學(xué)發(fā)在社交媒體的照片上傳到了一款「一鍵脫衣」AI 工具。小鎮(zhèn)有五所中學(xué),女同學(xué)的「裸照」在至少四所流傳。
這款工具可以通過(guò)手機(jī) app 或者 Telegram 使用,受害者至少有 30 名,主要是 12 歲到 14 歲的女學(xué)生。
始作俑者大多和她們認(rèn)識(shí),也是未成年人,至少有 10 名,部分甚至未滿 14 歲,不能面臨刑事指控。
▲一位母親呼吁更多受害者站出來(lái)
他們?cè)?WhatsApp 和 Telegram 創(chuàng)建群聊傳播這些「裸照」,通過(guò) Instagram 威脅受害者,勒索「贖金」和真人裸照。
美國(guó)新澤西州的一所高中發(fā)生過(guò)類似的情況,受害者也在 30 名左右,她們的男性同學(xué)在暑假制作了「裸照」。
校長(zhǎng)保證,所有圖片已被刪除,不會(huì)再被傳播,始作俑者被停學(xué)了幾天,又像沒(méi)事人一樣回到「案發(fā)地點(diǎn)」。
Deepfake 最早興起于 2017 年的「美版貼吧」Reddit,主要形式是將明星的臉替換到色情視頻的主角身上,或者惡搞政界人物。
從技術(shù)原理來(lái)說(shuō),主要有兩條路徑:一是編碼器-解碼器路徑,通過(guò)將圖像進(jìn)行壓縮和重建,將一張臉替換成另一張臉;二是生成器-鑒別器路徑(即生成對(duì)抗網(wǎng)絡(luò),GAN),通過(guò)對(duì)抗訓(xùn)練生成逼真的圖像。
▲GAN
如今,Deepfake 是一個(gè)更為廣義的概念,不再僅限于最初的面部替換,我們用它來(lái)指代通過(guò)技術(shù)手段偽造現(xiàn)實(shí)的一切行為。
復(fù)雜的技術(shù)原理隱藏幕后,在用戶面前的是一個(gè)個(gè)「開(kāi)箱即用」的界面,青少年們也能隨手制造虛假信息,Deepfake 從一門技術(shù),墮落為幾乎沒(méi)有門檻的工具。
「一鍵脫衣」的 app 們,只需要一張照片、一個(gè)電子郵件地址和幾美元,就可以批量脫掉名人、同學(xué)、陌生人的「衣服」,被用來(lái)「脫衣」的圖片,往往從社交媒體獲取,未經(jīng)發(fā)布者同意,然后也在他們不知情的情況下傳播。
基于接受過(guò)海量圖片訓(xùn)練的開(kāi)源擴(kuò)散模型,用戶可以通過(guò)輸入提示詞的方式,生成名人的虛假露骨照片。
▲好萊塢女星的 AI 模型,已經(jīng)下載上千次
像 Deep-Live-Cam 這樣的開(kāi)源 GitHub 項(xiàng)目,通過(guò)一張照片,就能在視頻聊天中換臉。
騙過(guò)年輕人或許有難度,但是長(zhǎng)輩們就不一定了,現(xiàn)實(shí)的慘痛例子已經(jīng)上演——美國(guó)的一位 82 歲老人,因?yàn)槊ば旁谝曨l里坑蒙拐騙的 AI 馬斯克,損失了 69 萬(wàn)美元的退休金。
▲ AI 馬斯克的直播
2023 年 7 月,德國(guó)電信發(fā)了一條關(guān)于兒童數(shù)據(jù)安全的廣告,呼吁家長(zhǎng)盡量少在互聯(lián)網(wǎng)分享兒童隱私。
圖像、視頻和音頻,都在被 Deepfake,雖然理智明白「眼見(jiàn)為實(shí)」成了過(guò)去時(shí),但我們的心理還沒(méi)有完全接受,也不具備對(duì)應(yīng)的分辨能力,所有人都可能成為受害者。
技術(shù)或許中立,但人用技術(shù)產(chǎn)出的信息不只是信息,也是用來(lái)進(jìn)行羞辱、污名和獲得優(yōu)越感的武器。越低俗和獵奇的內(nèi)容,越容易傳播,自古皆然。
普通人可以做些什么?至少我們可以決定自己如何使用技術(shù),也可以選擇產(chǎn)出和傳播什么信息,對(duì)受害者給予關(guān)注,對(duì)加害者嗤之以鼻,以微末的力量,推動(dòng)法律和社會(huì)觀念的進(jìn)步。
被換臉,為什么是受害者刪除照片?被偷拍,為什么是受害者深感羞恥?這似乎是技術(shù)也沒(méi)法回答的問(wèn)題。
發(fā)表評(píng)論