人工智能事故或涉私隱及道德等問題 私隱署籲機構注意風險

2024年06月12日 09:36
東網電視
更多新聞短片
愈來愈多香港機構使用AI,較去年上升約2成。
私隱專員公署昨日(11日)發布《人工智能:個人資料保障模範框架》,為有意採購AI系統處理個人資料的機構提供建議,以減低私隱風險。框架涵蓋4大範疇,包括制定AI策略及管治架構、進行風險評估及人為監督、實行AI模型的定製與AI系統的實施,以及管理和促進與持份者的溝通及交流。私隱專員今日(12日)在電台節目表示,使用人工智能要注意風險,特別是風險高的範疇,應加強人為監督。
例如以人工智能協助診斷病症,便屬於高風險,每個流程都應有醫護人員審核,減低出錯機會,若人工智能系統只提供資料予客戶,風險便相對較低,或可全自動化操作。框架提到涉及人工智能事故應變系統的步驟,先界定是否屬於人工智能系統事故,繼續作出通報,防止擴大,作出調查以及如何復原等。機構亦要注意若如人工智能事故涉及私隱,有機會涉及道德問題。
香港資訊科技商會榮譽會長方保僑就指,近年人工智能應用增加,現時較常見包括生成式AI或客服常用的聊天機械人等,不少程式亦會包涵人工智能系統,導致個人資料外洩風險增加。例如公司為分析客戶群消費模式,將資料庫放入人工智能系統;又或者用家將自己個人資料、履歷上傳至有關系統等行為,亦有機會造成私隱外洩。
方保僑建議,公司在大數據分析或訓練人工智能時,將客戶名字、電話等不影響數據的資料,刪去或轉換另一個模式存放入大數據;而個人用戶加輸入個人資料前,亦應審慎考慮。另一方面,人工智能亦有機會引起版權問題,例如人工智能學習繪圖時用的圖片、製成的圖片版權誰屬,仍然在全球熱烈討論中。
對於新框架,方保僑就認為法例永遠會落後科技。即使訂立出有效的框架,日後亦會需要再修訂。至於執行方面,他提到大型公司以往會有專員負責管理有關私隱情況,擔心小公司規模不足,或會較難執行。