博客

黃文琪:數據私隱和道德

現今各大小公私營機構,都逐漸擴大應用大數據分析、人工智能和機器學習等技術,以作業務上的提升及研究,過程中會使用大量客戶多维度的數據,包括個人資料如年齡、性別,甚至生物識別資料如手指模、語音等,而運用及處理這些個人數據時,便會衍生不同的私隱考慮,例如需要核對客戶有否同意,將私人數據被用作相關用途。   人工智能是運用一系列涉及透過電腦程式,以機器模仿人類去解決難題或作出決策的科技,現時使用人工智能的範疇廣泛,包括顏臉識別、聊天機械人、數據分析,以及自動化決策或建議等。而用人工智能作分析決策時的道德考慮,近年在國際間備受關注,特別是涉及使用人工智能及機器學習時,如果產生偏差而做成錯誤决定、偏見及歧視,這不僅影響企業決策及行動,也可能導致法律責任。     人工智能 影響企業決策   舉例而言,亞馬遜開發的人工智能招聘軟件,在2015年被發現,在篩選履歷過程中重男輕女,因而降低了女性應徵者的取錄比率,所以軟件須進行停運修改。造成這問題的原因,是亞馬遜開發這軟件時,投入的數據來自之前10 年來的聘用紀錄。當時大部分獲聘的都是男性,因而造成系統直接反映此情況。在2016年,微軟因為推出的人工智能聊天機器人Tay,在社交網络上發送带有種族主義的言論,而要接受調查,原因是由於Tay在機器學習中,接收了大量偏激資料所致。       因此,一些政府及業界近年已開始定下數據道德倫理框架,而香港個人資料私隱專員公署,也於2018年發表了《開發及使用人工智能道德標準指引》,目的是促進人工智能在香港健康發展及應用,協助各機構在過程中,遵從《個人資料(私隱)條例》(第486章)的規定。而同期發表的《中國香港的道德問責框架》,建議機構在使用數據科技的時候,遵守三個基本的數據管理價值,即是以尊重、互惠和公平的方式,對待個人數據。   此外,很多國際機構,例如歐盟委員會、環球私隱議會、經濟合作及發展組織等,亦特別為人工智能制定了重要的原則和實務指引。 其中,英國政府的道德及創新中心(CDEI),在202I年9月發表的人工智能策略中,也包括要監管及確保個人數據使用是安全、公平及可信賴。     數據道德實踐  加強社會教育   正當人工智能技術在各生活層面迅速發展時,數據道德的實踐,將會更為重要,以及應受重視。各政府在幫助企業提升相關內部管理的同時,也應該加强社會教育,尤其可在學校為年青人多作講解,加強大眾對數據私隱及道德有所理解和尊重,這便可令科技化的生活更精彩,更安全。       撰文:黃文琪  香港電腦學會人工智能專家小組執行委員會成員 [...]

名家觀點

個人資料保護與公司管治責任 (上)

歐洲內部審計協會聯合會(ECIIA)和歐洲風險管理協會聯合會(FERMA)於 2019 年合作出版了一份題為「GDPR與公司治理——實施一年後內部審計和風險管理的作用」(註1)的文獻,確認了個人私隱保護與公司管治不容忽視的密切關係。就上市公司而言,倘若就個人資料搜集或管理失當,則不但ESG議題未能達標,還有可能屬違法。執行董事、獨立董事的職責究竟如何界定? 政府正提出《個人資料(私隱)條例》(PDPO)的修訂,加強對個人資料保護, 與國際標準(例如:歐盟的《通用數據保護條例》(GDPR)所設標準)更為接軌。國內的《個人資訊保護法》最近也出台,可見全球對於私隱的議題關注的層次日漸提升。 截至本文定稿為止,《2021年個人資料(私隱)(修訂)條例草案》已經刊憲並進入立法程序。其條文包括訂立在未獲同意下披露個人資料的罪行, 及授予個人資料私隱專員對上述罪行及相關事宜的調查及執法權力。隨著其他修訂預見陸續出台,公司應審視內部政策,做適當的提升或鞏固。 未獲同意的人資料披露 由於個人資料披露的「武器化」對受害者造成巨大傷害, 故網路攻擊和網絡騷擾均受全球熱切關注。社交媒體平台和討論區等的龐大資料庫,成為網路攻擊和網路騷擾的滋長地。 修訂草案規定,任何未經當事人同意而披露其個人資料的行為,如意圖對當事人或其家庭成員造成指明傷害;或罔顧是否會造成指明傷害,即屬違法。假如披露確實對當事人或其家庭成員造成指明傷害,也屬違法。所謂「指明傷害」是指對當事人的滋擾、騷擾、纏擾、威脅或恐嚇,對他身體傷害或心理傷害,導致他合理地擔心自己的安全或福祉的傷害,或對其財產的損害。 私隱專員的權力 修訂草案也給私隱專員授予《私隱條例》中刑事罪行的起訴權力。該權力包括可要求提供材料、回答問題或提供協助。新增權力包括搜查和扣押,取獲電子設備,及截停、搜查和逮捕,和要求有關人士停止披露行為。 與公司管治的關係 公司於營運中,或多或少會取得一些個人資料, [...]