99精品国产一区二区三区_欧美成人精品三级网站_国产精品视频一区二区三区不卡_国产精自产拍久久久久久蜜

首頁 > 安全警示 > 正文

警惕!女性面容被惡意嫁接色情視頻,幾元就能“定制”

稿件來源: 發(fā)布時間:2026-01-09

經(jīng)參調(diào)查丨色情視頻被惡意“炮制” 幾元就能買到預訓練模型 警惕AI換臉技術濫用滋生黑灰產(chǎn)

 

在短視頻社交平臺的隱秘角落,一場基于虛擬合成技術的犯罪正悄然蔓延。記者調(diào)查發(fā)現(xiàn),通過AI換臉、深度偽造等虛擬合成技術,大量違背倫理道德的色情視頻被“炮制”而出。受害者面容被惡意嫁接到各類低俗影片中,甚至滋生出黑灰產(chǎn)。

 

業(yè)內(nèi)人士指出,這些以假亂真的換臉視頻不僅突破了法律與道德的底線,更對個人安全和社會公序良俗構(gòu)成嚴重威脅,呼吁加強治理。

 

女性面容被惡意嫁接

 

小雨是一名娛樂主播,直播內(nèi)容主要是和粉絲聊天,不涉及任何擦邊內(nèi)容。但不法分子卻將小雨的臉換到色情影片中傳播,讓她無端卷入不良輿論風波。

 

“視頻是不能P的”“居然背著我們偷偷拍片”……看到直播間公屏上類似彈幕如爆炸般襲來,小雨自此不敢再參加任何線上或線下社交活動。

 

后來,小雨在短視頻平臺又看到,有人毫不避諱地宣揚有關她的色情影片。順著對方給的聯(lián)系方式,小雨進入了所謂的“工程設計交流群”,發(fā)現(xiàn)群里全是各種各樣的網(wǎng)址和行業(yè)黑話。在這個群里,不法分子將許多女性的臉換到色情電影中非法牟利。最終,小雨報警,五名嫌疑人被抓,相關賬號和群聊也被永久封禁。

 

小雨的遭遇,并非個例。

 

記者潛入一個AI交流群群聊,群里一位名叫“學校的你進社會”的網(wǎng)友發(fā)布了一條擦邊視頻,聲稱“988元包教會,流量很好”。視頻中,一位自稱女大學生的人坐在宿舍床上,穿著黑絲和蕾絲緊身衣做著各種低俗動作。這位網(wǎng)友自詡AI換臉領域高手,只要發(fā)給他正臉照,即可生成與照片主人公相關的擦邊視頻。

 

而在淘寶搜索“AI人臉替換”,也會出現(xiàn)不少提供AI換臉視頻制作服務的商家。消費者只需花費幾元到十幾元不等,就能定制一部換臉視頻,換臉對象可以是普通女性,也可以是女網(wǎng)紅、女明星。法律界人士指出,這些被明碼標價的照片和視頻嚴重損害了受害者的肖像權益和人格尊嚴,亟待加強清理。

 

背后暗藏黑色產(chǎn)業(yè)鏈

 

深度偽造(Deepfake),是指通過使用人工智能生成技術,將個人的聲音、面部表情以及身體動作拼接合成虛假內(nèi)容。最常見的是AI換臉技術,也包括語音模擬、人臉合成、視頻生成等。

 

2024年8月,韓國曾爆發(fā)過一起引發(fā)全球關注的深度偽造危害事件。在這起事件中,韓國網(wǎng)民在通訊軟件“電報”(Telegram)上發(fā)現(xiàn)大量聊天群,其中有成員創(chuàng)建和分享露骨的“深度偽造”色情圖像,涉及對象不乏未成年女孩。在付費的深度偽造電報頻道中,男性訂閱用戶甚至只要提供照片,交錢后頻道便可為其制作色情圖片。社交媒體流傳的受深度偽造影響的名單中包含百余所韓國中小學以及國際學校,受害者達到22萬余人。

 

深度偽造的“作案工具”究竟來自哪里?記者采訪了解到,最多只需要四樣東西:AI換臉軟件、預訓練模型、被換臉的視頻、受害人照片。

 

首先,AI換臉必然需要受害人的照片。根據(jù)相關技術社區(qū)的分享,最初版本的深度偽造大概需要50張多角度、高清晰度的照片,才能實現(xiàn)較為自然的視頻合成。但經(jīng)過幾年迭代,目前只需要20張左右的照片就可以實現(xiàn)。

 

其次,制作高清流暢版AI換臉視頻需要獲取預訓練模型。預訓練模型,是AI開發(fā)的一個基本機制。由于大部分AI模型的前置訓練任務是相同的,因此開發(fā)者傾向?qū)⑾嗤牟糠诌M行預訓練,在同類任務中作為公用底座來使用。在AI換臉任務中,由于難以掌握訓練方法,大部分新手訓練出的AI換臉模型,會出現(xiàn)貼臉不自然、嚴重掉幀等現(xiàn)象,這時候就需要使用預訓練模型。

 

按理說,作為非技術人員的普通人,應該較難獲得預訓練模型來進行深度偽造。但事實并非如此。

 

打開很多電商平臺、二手交易平臺,可以輕松找到專用于深度偽造的預訓練模型。這些模型一般被稱為“AI金丹”,只需要幾元錢成本,便可輕易獲得。

 

受訪專家表示,從照片盜用到預訓練模型的交易,每一個環(huán)節(jié)都暴露了當前網(wǎng)絡環(huán)境的漏洞。

 

呼吁加強監(jiān)管治理

 

實際上,在打擊AI換臉色情視頻的技術攻防戰(zhàn)中,公安機關面臨前所未有的挑戰(zhàn)。

 

太原市某分局王警官介紹,Deepfake技術的受害者群體主要是女性:發(fā)布在社交平臺上穿著校服的女高中生照片被合成在裸體表情包上;外網(wǎng)流傳的相關群聊只需要提供照片便能實現(xiàn)色情圖片和視頻的自動合成,并且這些群聊還被按照城市和學校進行分類,目的是能在這些人的社交圈內(nèi)傳播。

 

服務器難以追蹤、證據(jù)難以保存,是警方不得不面對的現(xiàn)實問題。“想要對AI生成內(nèi)容進行溯源,難度不亞于大海撈針。”王警官介紹,“犯罪嫌疑人會通過頻繁更換服務器、匿名網(wǎng)絡信息等手段隱藏蹤跡,再加上電子證據(jù)極易被加密、篡改或銷毀,都對警方搜集證據(jù)、研判案情造成阻礙。”

 

而對于受害者而言,過高的技術壁壘也使得獨立取證幾乎成為一件不可能的事。“傳統(tǒng)辦案中‘人贓俱獲’的模式在AI犯罪面前已經(jīng)不起作用了。”王警官坦言。

 

值得注意的是,近年來,通過開展各類專項行動、加強技術研究,必要時聯(lián)合國際執(zhí)法機構(gòu)協(xié)同辦案,公安機關“打擊利用AI技術犯罪”的多維防線日益緊固。2025年1月,天津的李先生被詐騙分子偽造的企業(yè)老板視頻誘導轉(zhuǎn)賬95萬元。專案組通過分析轉(zhuǎn)賬資金流向、追蹤異常IP地址,聯(lián)合網(wǎng)絡安全公司還原了犯罪團伙利用AI語音合成技術實施詐騙的全過程。最終警方與銀行聯(lián)動凍結(jié)了李先生的賬戶,追回了83萬元。

 

業(yè)內(nèi)人士指出,技術再逼真,人性的漏洞永遠是突破口。面對可疑電話時保持冷靜,收到親友緊急轉(zhuǎn)賬請求時多渠道核實,警惕背后可能存在的AI語音合成陷阱。

 

來源:經(jīng)濟參考報