“你的裸照,一鍵生成”,令人害怕的不是算法,是人心

機器學習算法與Python學習2019-09-13 11:04:15

編譯 / 王琪 & 殷睿宣, 編輯 / 昱良
這是2019年6月28日,DeepNude APP在Twitter上的用戶頭像截圖。


6月底,Motherboard發佈了一款名為DeepNude的新應用,該應用承諾,“只需單擊一下”,就可利用機器學習將任何一個穿著衣服的女性照片轉換成完全赤裸的照片。


與這個消息一起傳遍海內外的還有被脫得“欲說還休”的黴黴。



與因快播鋃鐺入獄的王欣一樣,這款軟件的創始人也宣稱“技術無罪”,聲稱他“只是一名技術愛好者”。


這位來自美國加州大學伯克利分校的研究者,用世界上最前沿的對抗生成網絡算法,為男性創造了更為便捷的,以供褻玩和窺探的裸照生成工具。


事發之後,全網罵戰,將deepnude罵至下線。雖然之後一波三折,餘孽未消,但終究還是逃不過全網封殺。這個事件錯就錯在把女性當做公共消費對象,用性行為去定義她們,使她們失去人性,這些對女性和性行為的錯誤觀念,會不斷地給那些厭惡女性的人提供支持,為他們提供色情報復最有利的武器。

這是一個惡性循環,是一個社會關係的圈套。


Samantha Cole在Motherboard上關於DeepNude的最初報告中這樣寫道,“DeepNude還傳播了這樣一種觀點,即除了宣稱對女性身體的所有權外,它可以用於其他任何地方。”


該軟件承諾,只需單擊一下就可以給任何女性脫衣,這使得製造裸照比以往任何時候都要簡單——而且,進一步說,那些假裸照可以用來騷擾、敲詐或者公開羞辱世界各地的女性。


但即便是DeepNude這款應用被下架,在它帶來的技術進步和簡易操作之外,仍然存在一個揮之不去的問題,這個古老且久遠的問題,並不是從互聯網上刪除一段開源代碼就能解決的。


但即便是DeepNude這款應用被下架,在它帶來的技術進步和簡易操作之外,仍然存在一個揮之不去的問題,這個古老且久遠的問題,並不是從互聯網上刪除一段開源代碼就能解決的。


假裸照歷來已久。在DeepNude之前,有Photoshop;在互聯網之前,有Screw。在20世紀70年代,色情雜誌《Screw》用一張裸照來攻擊女權主義者Gloria Steinem,在她照片周圍都是陰莖,並且鼓勵讀者玩“把陰莖釘在女權身上”的遊戲。20年後,《Spy》雜誌脫了時任第一夫人希拉里·克林頓的衣服,1993年2月刊的封面上展示了她穿著緊身衣的形象。


事實上,作為一個長期趨勢的最新版本,DeepNude的地位已經得到了一些擁護者的支持。“你可以用DeepNude做的,也能用Photoshop做得很好。”該程序的創建者在接受Motherboard採訪時表示。


圖片來源:unsplash.com/@spochatun


儘管科技可能會幫助DeepNude中名為Alberto的創造者完成目標,但實際上該應用程序並不是一個關於機器學習和人工智能潛力的項目。Alberto引用了一些小玩意,比如所謂的X光眼鏡——他在20世紀60年代和70年代的雜誌背面看到了這些廣告——作為DeepNude的靈感來源。該應用所表達的慾望,我們已經在流行文化中反覆看過,是對女性身體和性的控制的慾望,想要羞辱那些不合常規、用身體供大眾消費的女性的慾望。


Bitch Media的聯合創始人Andi Zeisler也受到了那些X光眼鏡廣告的影響,不過她與Alberto的做法大相徑庭。“侵犯隱私的想法使我非常不安,”她還指出,並不只是漫畫書背面的廣告讓她感到隱私被侵犯。像《陸軍野戰醫院》《名揚四海》《鬼馬校園》這樣的電影,都有男性在女性不知情或未同意的情況下偷窺女性脫衣或洗澡的鏡頭。“那只是一個比喻,”Zeisler說。這暗示了一個信息,即女性的身體是用於男性消費的。那些抗拒這種“自然”狀態的人,她們能自控的身體以及形象也會被強迫奪走。


“女性不會獨坐在臥室裡製作物化男性的科技產品。” 社交媒體運動PostShame的發起人Adam MacLean說到,該運動鼓勵有抱負的領導者擺脫與個人的輕率行為和性行為有關的恥辱,專注於解決國內面臨的實際問題。男性當眾脫光衣服,很少會像女性的裸體那樣成為人們談論的焦點。


Jennifer Lawrence曝光的裸照已成為她多年來的公眾形象;而Kanye West的裸照幾乎沒有引起人們的注意。社會正在把女性的性行為當做武器來對付她們——與AI或簡單的圖像處理相比,這才是DeepNude及其類似項目更為危險的地方。


DeepNude最可怕的地方可能不是軟件本身:相信人們都不願意看到DeepNude和其他偽造的裸照成為對女性造成大規模騷擾和虐待的“科技先鋒”。強行給女性脫衣或在未經同意的情況下散發裸照,這是令人憎惡的行為,甚至是犯罪行為,但是對於這種新興的人工智能技術,法律還不夠完善。


Brooklyn是一家專門為色情復仇的受害者提供支持的律所,其律師Carrie Goldberg指出,“Deepfakes的最大不同之處在於法律如何處理它們,目前大多數關於色情復仇的法律只將傳播真實圖片定為犯罪行為,而沒有將傳播虛假圖片定為犯罪行為。”對那些完全由人造形象造成騷擾的人而言,專注於個人形象的版權法和所有權的法律能夠提供的幫助十分有限。


如果只是討論誰擁有正在傳播的圖片,或是這些圖片是怎麼被創造出來的,而忽視這些圖片被傳播後對女性所造成的傷害,那麼不管有沒有先進技術和人工智能,對女性的虐待和欺凌都會繼續下去。



今年1月,美國新任國會議員Alexandria Ocasio-Cortez發現自己陷入了裸照的醜聞風波——不是因為有人洩露了私人照片,也不是因為別人費時費力做的虛假照片,甚至不是因為別人利用機器學習和人工智能把穿衣服的圖片變成裸照。她之所以陷入醜聞,僅僅是因為一張別人的裸照,而那上面有她的名字。


值得稱讚的是,Ocasio-Cortez沒有被照片嚇到,相反,她把話題從探究她的身體和性生活,引向了在未經當事人同意的情況下,傳播真假裸照的虐待性質。我們都應該從這種回答中得到啟發。


與其呼籲停止科技進步,或是像打地鼠一樣試圖去超過DeepNude的最新版本,不如充分地去了解:女性也是複雜的人類,她們有權擁有隱私和豐富複雜的性生活——賦予女性與男性相同的同情、尊重和理解,這才是一種更為有效的策略。可惜的是,這還有很長一段路要走。
相關鏈接:
https://onezero.medium.com/the-scariest-thing-about-deepnude-wasnt-the-software-a8df4e7f239b


推薦閱讀

【熱點】印度年輕人跟中國年輕人有什麼不同
【實戰】使用 Python 分析 14 億條數據
【Python】13 個適合『中級開發者』練手的項目
何愷明:從高考狀元到CV領域年輕翹楚,靠“去霧算法”成為“CVPR最佳論文”首位華人得主
【項目】用 Python 一鍵分析你的上網行為, 看是在認真工作還是摸魚
喜歡就點擊“在看”吧!
https://weiwenku.net/d/201374336