一場突如其來的校園監視危機

虎嗅網2019-09-10 18:35:03


題圖 | 視覺中國


開學後, 是時候喚起你的恐怖回憶了。

 

也許《黑鏡》的編劇怎麼也沒想到,這部曾一度被封神,但口碑一路下滑的科幻電視劇,終於迎來了“戲言”一語成讖的時刻。

 

在2018年播出的第四季第二集中,為了更好監護自己的女兒, 一位母親給她的眼睛植入了芯片控制器,自己可以透過一個類似iPad的硬件查看其身體的各項生命體徵,也可以轉播它的視覺信號。

 


換句話說,她可以通過iPad看到任何女兒看到的畫面。假如後臺顯示因為女兒看到恐怖畫面而導致皮質醇上升,她可以按下屏蔽按鈕,用馬賽克抹除掉女兒看到的特定物體,譬如一隻凶猛的大狗。

 


現在,讓我們偷換一下里面的技術細節。

 

把植入的芯片,換成教室裡可以做到十幾個小時連續監控的人臉識別攝像頭。通過人臉識別的實時分析,作為家長和老師,你可以隨時獲得她更加細緻的多達十幾條指標結論:

 


趴桌子2次,玩手機2次,睡覺1次,聽講0次,閱讀0次,舉手0次,笑了0次,厭惡表情出現了10次……


最後機器可能得出一個綜合結論:她是個有問題的孩子。



以上,便是曠視科技在前天晚上引發微博軒然大波的產品圖片以及被截取的視頻內容。

 

而這已經不是一部電影,也不是一個停留在宣傳片層面的demo,因為類似項目,已經進駐部分小學與大學。

 

在微博與知乎上的討伐聲此起彼伏時,曠視科技很快便發佈了一則正式聲明,表示網上出現的圖片僅僅是技術場景概念演示,公司在教育領域的產品專注於保護孩子在校園的安全。

 


這則聲明中,關鍵詞是“安全”。而最具爭議的討論點之一,也恰恰是“安全”。

 

要解決孩子的人身安全, 需要我們去分析他睡了多少次覺,舉了多少次手以及瞟了同桌多少眼的問題嗎?

 

或者反過來說,這些強加的條條框框,是否能夠有效解決校園霸凌?

 

再或者說,我們知道這個孩子或許有幾個表現不達標,那麼我們有沒有準備好對症下藥的解決方法?即便作為一名老師可能很瞭解一個孩子上課有不聽講的毛病,但是對於改變他的毛病卻通常無能為力。

 

我們的關注點從談及“安全”的一開始,就已經本末倒置了。

 

這也是《黑鏡》裡植入芯片與人臉識別分析上課表現與行為的共同點:

 

拿捏不好分寸,將所謂的“保護”轉變為“過度保護”,以保護之名行“監禁”之實,將會在未成年人的心理上留下怎樣的痕跡?最壞的結果,還請參見黑鏡這一集的結局。

 

技術本沒有任何錯誤,根本在於我們的命運掌握在有權使用技術的人手裡。

 

曠視“冤”嗎?

 

當輿論炮火被引到曠視身上時,我們其實需要了解更多真相。

 

2018年在北京舉行的安博會上,除了“人臉識別技術”成為硬件與方案的標配,幾乎現場可提供場景解決方案的安防廠商中,有一半都表示可以做以校園場景為基礎的人臉識別監控。

 

而在百度與天眼查上搜索“校園智慧解決方案”,聲稱可以提供室內人臉識別監控方案的企業不在少數。

 

實際上,在國內各省的平安校園建設持續多年,出發點是預防各類侵害學生權益的事件發生,譬如阻止社會人員滋擾在校師生,再有就是讓人痛恨的校園霸凌。

 

與此同時,2018年教育信息化2.0行動計劃的頒佈,也讓提高教學質量與效率的目標與更多更復雜的技術手段建立了聯繫。

 

然而,在技術應用愈加成熟與便捷的過程中,有些東西正在發生變質。

 

學校與家長的關注點從學生的人身安全,逐漸轉向更加符合個人利益的要素上,譬如如何讓學生更加高效地學習,預防早戀等等,這些在他們看來都與更好的成績,孩子們更好的未來以及學校更好的名聲直接掛鉤。

 

早在2017年,國內就有不少中小學安裝了聯網攝像頭,家長在家裡下個app,就可以通過教室黑板上方那個攝像頭,看自己的孩子到底在教室裡做些什麼。

 

也曾有學生在微博上控訴類似的事情,但並沒有引起多少關注。

 


而在app遠程監控的基礎上,加入更加強大的人臉識別及分析,只不過是一種“變本加厲”,而不是一家技術公司創造的原罪。

 

有行業人士曾告訴虎嗅,校園安防建設與信息化建設的盤子很大,各個階段政府與學校都需要有一定的項目資金投入,這是一個前景很可觀的市場。但至於這樣如此高技術含量的東西能不能用得上,就另當別論了。

 

另一方面也有人認為,作為一家將要IPO,但營收並不好看還存在虧損的人臉識別技術公司之一,業績壓力也讓他們想尋找各個途徑實現技術變現,對於一些產品設計的思考可能欠妥當。

 

“只能說用這種方法去吸引採購方,用各種高大上的語言去包裝,也許有些不會買賬,但也可能有人會被產品提升教育質量與安全都能兼顧的說法給打動。” 據一位不具名的安防人士表示,從這個市場來看,一個巴掌是拍不響的。

 

“但另一方面,企業的技術並沒有那麼好,很有可能忽悠客戶。實際上,你看到的那些分析維度,其實在實際場景中結果並不準確。”

 

技術的侷限性

 

技術創業公司通常都有一個毛病,就是喜歡把宣傳視頻或廣告圖片“修”得趨於完美。

 

除了吸引投資,這些視頻也是向客戶推銷產品的一大“伴手禮”,但實際上,很多時候在上手一試後,就會發現效果大都需要減半。

 

以情緒檢測為例,在一次試用人臉識別公司的表情檢測軟件的過程中,我們發現“快樂”和“開心”更容易被算法定義,只要我咧開大嘴,嘴角朝上,那麼系統就會判定我目前是開心的。

 

而悲傷,厭惡,或者是“面無表情”,根本沒有一個可以被標準化的基礎結構,因此檢測成功率也較低。工程師也承認,除了“笑”,其他表情其實都無法給出非常精準的結果。

 

更何況以上所有情緒,都可以“造假”。譬如強顏歡笑,或者是故意張大嘴表示憤怒,都可能騙過機器。

 

此外,我們也比較好奇像“睡覺”這個維度是如何做到精準分析的。那學生們困了,可能只需要一個曾在日本很流行的上班族必備神器——假眼貼紙,解一時之急。

 

2017年曾經轟動一時的上班族必備神器

 

最有意思的是,與國內對人臉識別大部分的正向宣傳相反,由於人臉識別技術在有色人種、民族、兒童老人等維度的準確率方面存在巨大差異,人臉識別技術應用在國外的推廣略顯艱難。

 

作為國外反人臉識別風潮中最有名的攻擊對象,曾被美國警方使用的亞馬遜計算機視覺平臺 Rekognition被自家股東在今年年初開始持續施壓,他們強制要求亞馬遜停止向執法部門出售人臉識別軟件。

 

而這股風潮也在今年8月初吹到了英國,有房地產商在倫敦國王十字區安裝了人臉識別硬件後遭到強烈反對,因為後者對此毫不知情。

 

在美國,這項技術正面臨著來自立法者越來越大的阻力。

 

加利福尼亞州參議院正在考慮立法禁止在警用隨身攝像機中使用人臉識別軟件,而舊金山監事會(美國中西部及東部各州)也已經開始禁止執法部門使用這項技術。

 

因此,包括亞馬遜、谷歌以及亞馬遜等技術公司雖然很不情願,認為“新技術不應該因為可能被濫用而遭到禁止和譴責”,但卻達成了一個共識:

 

制定相關合乎道德的指導方針,要跑在真正能使用這項技術之前。

 

因為一個明確的監管框架不僅能確保人臉識別只用於完成合法的任務,也能夠幫助消費者理解這項技術的好處。

 

讓人臉識別“走上正路”,一邊是法律的強勢介入,而另一邊則是來自民間個人的智慧。

 

俄羅斯搜索巨頭 Yandex 的技術開發總監Grigory Bakunov發明了一種反面部識別方法。其實這種方法理解起來很簡單,就是在臉上用特殊顏料多添幾筆,干擾系統對人臉特徵的提取。

 


而日本一位名叫 Isao Echizen的教授為了保護隱私,發明了一種利用紅外發光二極管來干擾人臉識別的眼鏡。因為這種人類看不見的紅外光可以在攝像頭的“眼”中呈現出明亮的紫色。

 


當然,還有多種“殺馬特”造型供學生們以及不願意洩露面部數據的成年人們選擇:

 


隱私保護的漫漫長路

 

如何保護隱私?這個問題存在很長時間,但似乎無解。

 

因為所處的環境不同,以及每個人對隱私的定義也不同,導致我們不能做過多解讀。

 

譬如,援引美國獨立研究員Stephanie Hare的話來解釋,人臉識別系統的最大問題之一是涉及到生物特徵數據,換句話說,就是人體信息,這無疑與我們的隱私有關。

 

但這次曠視引發的討論中,有小部分人對“這種做法是否真的侵犯了隱私”提出了質疑。

 

譬如“既然家長可以把學生的情況反映給家長,為什麼機器不能彙集更豐富的信息給家長?”,再譬如“未成年人到底有沒有獨立於成年人的隱私權”?

 

這個時候,只能搬出最“教條”的東西來了:

 

《教師法》賦予了老師管理學生的權利,法律賦予了機器什麼?

 

而第二個問題本身就是有問題的。《未成年人保護法》明確表示未成年人具有隱私權,之所以一直被侵犯,跟成長教育環境有很大關係。

 

從本質來看,這些質疑聲恰恰凸顯出隨著技術發展,法律一定要強勢介入的必要性。

 

但是每次涉及到隱私問題,我們的擔憂都會在一次集中爆發後,又迅速銷聲匿跡。

 

2016年Facebook人臉識別被控侵犯隱私如此,2018年亞馬遜智能音箱等企業被爆偷聽偷錄用戶日常數據也是如此。如今,在換臉視頻app Zao的使用熱度過去,對AI教室監控產品的討伐聲結束,大概對隱私被侵犯的控訴仍然會不了了之。

 

所以我們根本不應該去指責百度CEO李彥宏在去年中國高層發展論壇上發表的“中國大多用戶願用隱私來換取便捷服務”的言論,捫心自問,我們有多少人心裡是這麼想卻不敢說?

 

而回到這個問題上,當學生們即便同意自己的身體信息被收集和分析,那麼參與方有沒有徵求過這些機器直接作用方的意見呢?

 

是的,這就像我們去用計算機視覺去檢測桃子的大小形狀以及腐爛程度,用人臉識別以及多種生物識別方法來監測豬的生長情況與肥壯健康程度,最終我們也把這套固化的標準,用在了我們自己身上。

 

是的,我舉手0次,打瞌睡10次,笑了0次,我就是一個壞學生。

 

而孩子們會不會在這樣隱形的壓力下有了更加符合人性的“特長”,譬如學會裝模作樣,學會接受把這套機器用在下一代身上。

 

因此,在釀成大錯之前,我們更應該著手去做的,是讓隱私保護問題引起更多人的重視和推動相關法律的確立,而不是把口水噴到一家公司的身上。

 

最後,引用知乎上一位回答“如何看待曠視科技新產品監視學生上課?”得到最高讚的匿名人士的一段感概作為結語:

 

“這不是產品經理或者程序員的問題,不是一家公司的問題,甚至不是一個技術問題。這是我們社會的價值觀的問題,是我們怎麼看待自身權益的問題。”


未經允許不得轉載,授權事宜請聯繫hezuo@huxiu.com


End


https://weiwenku.net/d/201337299