立即捐款

當監控天眼遇上人工智能

當監控天眼遇上人工智能

近日哄動的大學校園大字報事件,其中一個受爭議之處是教育大學管理層把閉路電視的錄像截圖傳至管理層通訊群組以辨認貼大字報的人,然後該圖像一傳十、十傳百,而私隱專員認為這是不當處理個人私隱。

臉孔辨析無處可躲

環顧四周,香港不論街頭、交通工具、辦公室、商場、學校……大大小小的監控鏡頭已經無處不在。有否想像過,如果這些鏡頭加入面容辨析技術,以科技辨認人臉,再配合人工智能找出你的身份、知道你的日常行蹤,又從不同途徑推測你的背景、動機甚至政見?當我們的臉孔無處不在地受到監控、辨認和收集,如何能保障私隱、自由和人權?

本周適逢大型私隱國際會議「第39屆國際資料保障及私隱專員研討會」在香港舉辦,應思考如何在發展智慧城市的同時,科技應該如何與法例、道德和人權取得平衡,不會變成政權進行高度監控的工具。

這些科技離香港人並不遙遠,政府計劃在九龍東發展「智慧城市」,針對區內交通擠塞問題,今年底將引入「路旁上落貨區監測系統」,在巧明街和海濱道的特定路段加裝閉路電視,以影像分析技術監察車輛是否上落貨或違例泊車,監察系統設有鏡頭拍攝車牌並通知警方,當局亦有計劃長遠以影片用作執法證據。

九龍東曾經測試「智慧人流管理系統」,監測人流、車流和現場異常情況,日後會要求啟德體育園承辦商提供類似技術,用作疏導人流。

隨着iPhone X推出,面容識別技術勢必如指紋識別一樣更為普及,但要對自己的臉孔保持私隱,卻比指紋難度更高,因為臉孔改變的機會極微。諸如內地有店舖開始使用的「刷臉付款」和澳門提款機的「刷臉提款」技術,能夠為用家提供便捷。

面容識別技術勢必如指紋識別一樣更為普及

不過,當城市布滿監控鏡頭,一舉一動都受監控、分析,那麼,對臉部辨析工具、大數據和人工智能作監控政治敏感人物和示威集會這種「科技維穩」,我們必須提高警惕。

臉部辨析科技的背後,是演算法把無數從其他渠道收集的資料和數據連接,同時用上大量假設,憑着程式設計者預先定出的方式,自動分析和判斷。電影《未來報告》描述警察可預測未來的罪行,然後提前到現場阻止案發的劇情,正逐漸成為現實。

中國政府在監控方面的科技十分「先進」, 《1984》的「老大哥」早已出現。中共十九大舉辦在即, 有報道指中國企業已研發出可以「預防罪案」的監控系統,根據臉孔、步姿、平日出沒的地點和行為,評估他們犯罪的可能性。這些人工智能技術聲稱有助公安從監視錄像中,憑「犯罪風險」預先識別而作出逮捕,相信能用於監控維權人士。

演算法若誤判誰負責

外國有大學研究聲稱,能以近七成準確度辨認出受遮掩的臉孔。香港警方將為警員配備「隨身拍」攝影機用於執勤和處理示威集會,拍攝得來的龐大錄像庫包含市民面貌,日後會否演變成流動監控天眼?

先不論臉孔辨析的準確度,經常出入五金舖等所謂「可疑地點」就等於有可能犯罪嗎?演算法終究是由人編寫,數據收集會有誤差,甚至反映人的觀念和傾向。
令人憂慮的是,日漸密集的天眼網絡用上人工智能,能夠以大數據和演算法為政府作「智慧監控」,會否有人無辜因「點相」而視作疑犯,甚至被捕?

演算法沒有道德標準,它只是把由人提供的數據,利用人為設定的規則或自動學習得出關聯或判斷,不能像人一樣考慮數據以外的環境因素。政府大力推動智慧城市的同時,必須更小心私隱問題,在設計系統時全面評估技術的私隱風險(privacy by design)。

即使沒有獲得當事人的同意,臉孔也可長期成為被追蹤個人的身份。年輕人熱衷使用新科技和分享相片,社交網站例如臉書等已收集大量自動標籤分析的臉孔,若政府引入更多監控鏡頭,收集的資料將如何處理?有否法例避免政府和執法機構濫用大數據?雖然應用科技能夠帶來便捷,公眾也應要求政府對個人資料的新用途必須作風險評估、道德分析、預防歧視和定型(profiling),並有嚴格而透明的制度,確保掌握監控錄像資料庫的機構會適當處理敏感的個人資料。

原文刊於2017年9月27日《信報》專業議政專欄