名家觀點
博客・吳老闆筆記・資本政經

黃文琪:數據私隱和道德


現今各大小公私營機構,都逐漸擴大應用大數據分析、人工智能和機器學習等技術,以作業務上的提升及研究,過程中會使用大量客戶多维度的數據,包括個人資料如年齡、性別,甚至生物識別資料如手指模、語音等,而運用及處理這些個人數據時,便會衍生不同的私隱考慮,例如需要核對客戶有否同意,將私人數據被用作相關用途。

 

人工智能是運用一系列涉及透過電腦程式,以機器模仿人類去解決難題或作出決策的科技,現時使用人工智能的範疇廣泛,包括顏臉識別、聊天機械人、數據分析,以及自動化決策或建議等。而用人工智能作分析決策時的道德考慮,近年在國際間備受關注,特別是涉及使用人工智能及機器學習時,如果產生偏差而做成錯誤决定、偏見及歧視,這不僅影響企業決策及行動,也可能導致法律責任。

 

 

人工智能 影響企業決策

 

舉例而言,亞馬遜開發的人工智能招聘軟件,在2015年被發現,在篩選履歷過程中重男輕女,因而降低了女性應徵者的取錄比率,所以軟件須進行停運修改。造成這問題的原因,是亞馬遜開發這軟件時,投入的數據來自之前10 年來的聘用紀錄。當時大部分獲聘的都是男性,因而造成系統直接反映此情況。在2016年,微軟因為推出的人工智能聊天機器人Tay,在社交網络上發送带有種族主義的言論,而要接受調查,原因是由於Tay在機器學習中,接收了大量偏激資料所致。

 

 

 

因此,一些政府及業界近年已開始定下數據道德倫理框架,而香港個人資料私隱專員公署,也於2018年發表了《開發及使用人工智能道德標準指引》,目的是促進人工智能在香港健康發展及應用,協助各機構在過程中,遵從《個人資料(私隱)條例》(第486章)的規定。而同期發表的《中國香港的道德問責框架》,建議機構在使用數據科技的時候,遵守三個基本的數據管理價值,即是以尊重、互惠和公平的方式,對待個人數據。

 

此外,很多國際機構,例如歐盟委員會、環球私隱議會、經濟合作及發展組織等,亦特別為人工智能制定了重要的原則和實務指引。 其中,英國政府的道德及創新中心(CDEI),在202I年9月發表的人工智能策略中,也包括要監管及確保個人數據使用是安全、公平及可信賴。

 

 

數據道德實踐  加強社會教育

 

正當人工智能技術在各生活層面迅速發展時,數據道德的實踐,將會更為重要,以及應受重視。各政府在幫助企業提升相關內部管理的同時,也應該加强社會教育,尤其可在學校為年青人多作講解,加強大眾對數據私隱及道德有所理解和尊重,這便可令科技化的生活更精彩,更安全。

 

 

 

撰文:黃文琪  香港電腦學會人工智能專家小組執行委員會成員

Related Articles