特斯拉CEO埃隆·馬斯克旗下人工智慧公司xAI近期被推上風口浪尖,一方面1月6日剛完成200億美元的E輪融資,另一方面旗下聊天機器人Grok的功能更新越過了危險界限,頻現「數字脫衣」操作,導致AI生成的女性及兒童的露骨圖像在社交平台傳播。
據新華社報道,近期,X平台出現部分用戶利用Grok編輯圖片和視頻的現象,一些用戶藉此生成真實人物的虛假性暴露內容,並在X平台上散播,受害者包括數百名成年女性和未成年人。
去年夏天,Grok開始允許用戶通過文字提示編輯圖像。此後,隨著Grok大量響應用戶修改他人發布圖像的請求,去年底起亂象擴大。X平台不少用戶利用新功能對圖像中人物執行「脫衣服」、「給她穿上比基尼」等指令。
社交媒體和深度偽造研究員吉納維芙·吳分析了Grok在X平台上的內容,截至1月7日,其每小時生成約7750張性暗示或裸露圖片。圖像人工智慧篡改檢測公司Copyleaks表示,12月下旬,在Grok公開可訪問的圖片流中檢測到,平均每分鐘出現一張未經同意的性暗示圖片。
儘管安全專家和科技評論人士譴責X上剝削性圖像和視頻泛濫,馬斯克卻在新年第一天就此事「開玩笑」,他在X平台上要求Grok生成一張他自己身穿比基尼的照片,並對生成後的圖片評論「完美」。輿論風暴愈演愈烈後,馬斯克3日發文說:「任何利用Grok生成非法內容者將承受與直接上傳非法內容相同的後果」。
歐盟委員會發言人托馬斯·雷尼耶5日批評X和Grok,稱其輸出露骨及未經同意的影像「是非法的、駭人聽聞和令人作嘔的」,「這種東西在歐洲沒有立足之地」。英國、印度、馬來西亞等國的官員和監管機構紛紛著手開啟審查。
「在沒有護欄或倫理準則的情況下,這項技術鼓勵並助長了一些人非人性的衝動。」英國杜倫大學法學教授、圖像型性暴力研究專家克萊爾·麥格林對《大西洋月刊》說,對Grok生成的影像深表擔憂。過去幾周以及現在的情況讓人感覺,彷彿我們已踏出懸崖邊緣,正自由落體般墜入人性墮落的深淵。
「熱辣模式」的出現
兩年多前,馬斯克宣布xAI推出首款人工智慧模型Grok,該模型能實時連接社交媒體平台X。他在宣介時表示,這個人工智慧模型「有智慧,還有一點小叛逆」,所以它的使用者最好不是討厭幽默的人。
去年8月,xAI向付費用戶推出AI工具—Grok
Imagine,可根據文字提示或上傳圖片編輯生成AI圖像,繼而轉化為短視頻內容。這一工具提供四種預設模式:自定義、普通、趣味和「熱辣」(spicy),最後一種模式可生成成人內容。
當谷歌的Veo、OpenAI的Sora等其他視頻生成器都設置了防護措施,防止用戶生成NSFW內容(Not Safe For
Work:多指裸露、暴力、色情或冒犯等不適宜公眾場合的內容),以及名人深度偽造時,Grok
Imagine卻可以同時做到這兩點,而且毫不避諱。
熱辣模式一經推出,就有用戶用其生成美國女歌手泰勒·斯威夫特的無碼裸露上身視頻,引發爭議。美國科技媒體The
Verge將其形容為「一項專門用於製作性暗示視頻的服務」。
幾乎在同一時段,Grok推出了「伴侶」功能,允許用戶與AI生成的虛擬角色進行深度互動。首批Grok虛擬伴侶之一「Ani」身穿黑色蕾絲連衣裙,會隔著屏幕送上飛吻。馬斯克在X上發帖推廣這項功能時寫道:「Ani會讓你的緩衝區溢出Grok。」
據美媒報道,xAI對Grok的系統提示進行了重大更新,禁止它「創建或傳播兒童性虐待材料」(CSAM),但同時也明確表示,「對於包含黑暗或暴力主題的虛構成人內容沒有限制」,並且「青少年或女孩並不一定意味著未成年」。其暗示是,對於用戶提出的色情內容請求,Grok應採取較為寬鬆的態度。
彭博社7日援引研究人員的話稱,Grok用戶每小時最多可生成6700張「去衣化」圖片。去年12月開始,要求Grok給不同人穿上比基尼或其他具有性暗示的服裝的請求激增。
麥格林指出,如果對色情內容的性質完全放任不管,任由其被創造和傳播,這會正常化和淡化性暴力。「她說,在許多國家,針對現實人物的露骨AI圖像和視頻本身已屬違法。」」
在公開場合,馬斯克長期反對「覺醒主義」人工智慧模型,並反對審查制度。據CNN報道,知情人士透露,馬斯克在xAI內部曾多次抵製為Grok設置防護機制,其安全團隊規模本就小於競爭對手。X平台及xAI內部人士透露,安全團隊對Grok的公開內容幾乎毫無監管許可權。
AI生成兒童色情圖像被推向主流
1月1日,有X平台用戶投訴稱:「推出展示比基尼人群的功能未有效防止其作用於兒童,這種行為極其不負責任。」xAI方面回復:「嘿!感謝提醒。團隊正在研究進一步加強防護措施。」在用戶追問下,Grok承認曾生成部分未成年人處於性暗示情境的圖像,已發現安全防護存在漏洞並正在緊急修復。
英國非營利組織互聯網觀察基金會致力於減少針對兒童的在線性虐待內容,該組織熱線負責人奈爾·亞歷山大對《華爾街日報》透露,分析師在暗網論壇發現未成年人性化圖像,製作者聲稱使用Grok生成這些內容。這些圖像描繪了11至13歲左右的性化裸露少女,符合英國對兒童性虐待犯罪材料的認定標準。
「Grok這類工具正將AI生成的兒童色情圖像推向主流,其危害正呈漣漪式擴散。」亞歷山大說道。
曾與馬斯克育有一子的保守派網紅阿什莉·聖克萊爾在接受美媒採訪時表示,X平台用戶正利用Grok技術對她的照片進行裸體處理,其中包括她14歲時的照片。她在X平台發文呼籲其他用戶若遭遇類似情況及時告知,此後她收到大量絕望父母發來的求助信息,要求刪除被性化的兒童照片。
去年,致力於開發兒童安全檢測工具的非營利組織Thorn宣布,因X停止付款而終止合同。當年4月,包括OpenAI、谷歌和Anthropic在內的幾家頂尖AI公司加入了由Thorn牽頭的一項倡議,旨在防止人工智慧被用於虐待兒童,xAI並未參與其中。
去年11月,科技媒體The
Information報道稱,X平台裁撤了半數負責信任安全事務的工程團隊。該媒體同時披露,X員工特別擔憂Grok的圖像生成工具「可能導致非法或有害圖像擴散」。
「完全可以構建防護機制,通過掃描圖像判斷是否存在兒童,從而促使AI更謹慎地運作。但防護機制存在代價。」OpenAI前人工智慧安全研究員史蒂文·阿德勒對CNN說,這些代價包括響應速度變慢、計算量增加,有時甚至會導致模型拒絕處理無問題的請求。
美國國家失蹤與受虐兒童中心(NCMEC)執行主任勞倫·科弗倫近期向國會作證稱,2025年NCMEC收到440419份與生成式AI相關的舉報,相比去年增幅超過六倍。施虐者利用AI將兒童的普通照片修改成色情圖片,生成全新的兒童性虐待材料(CSAM),甚至提供誘騙兒童的指導。
冰山一角
AI至少從2017年就開始被用於生成未經同意的色情內容,當時北美媒體VICE首次報道了「深度偽造」(deepfake)技術。《大西洋月刊》報道認為,Grok正讓這類內容的製作變得更加容易,而且它與主流社交平台X的整合,使其能夠將未經同意的性化圖像轉化為病毒式傳播的現象。
1月初,印度電子和信息技術部下令X對Grok進行一次「全面的技術、程序和治理層面的審查」,並要求該公司在1月5日之前完成整改。馬來西亞通信與多媒體委員會(MCMC)3日發聲明表示,正在調查X,並將傳喚公司代表。
8日,歐盟要求X保留所有與Grok相關的內部文件和數據直至2026年底,這是對先前數據保留指令的延長,旨在確保監管機構能夠獲取與《數字服務法》(DSA)合規性相關的材料。
在美國,全國性剝削中心(NCOSE)在接受CNBC採訪時呼籲司法部和聯邦貿易委員會對此事展開調查。NCOSE首席法律官兼法律中心主任丹妮·平特表示,「針對這些具體問題,並沒有太多相關的法律先例。」
去年,美國總統特朗普簽署了「TAKE IT
DOWN」法案,將知情但發布或託管未經同意的露骨圖像定義為聯邦犯罪。但有專家指出,該法律的局限在於:只有當受害者主動站出來後,平台才被要求啟動刪除程序。
X公司3日在其官方賬號X Safety上就此事發表了首份公開聲明:「我們會對X上的非法內容採取行動,包括刪除兒童性虐待材料
(CSAM),永久暫停賬戶,並在必要時與地方政府和執法部門合作。」
目前為止,這場爭議尚未對X的流量造成任何損害。據追蹤移動應用趨勢的Apptopia數據顯示,1月2日至5日,Grok的每日下載量增長了54%,而X的每日下載量增長了25%。
美國科技媒體《連線》7日報道稱,Grok和X是一個價值數百萬美元的「去衣」產業的冰山一角。過去幾年裡,出現了數十個獨立應用和網站,聲稱可以在未經同意的情況下對女性進行「數字脫衣」,它們往往將自己包裝成無害的新奇工具,卻在實際上助長了基於圖像的性暴力。訴訟和立法都需要時間,尤其是在技術以極快速度進入市場的當下,法律很難跟上這種節奏。
根據移動應用數據分析公司Apptopia的數據,自1月2日以來的一周內,Grok的每日下載量增長了54%。