東網電視
更多新聞短片

生成式AI特別是言語模型,需要很大量數據及文字。
個人資料私隱專員公署昨日(3月31日)發表《僱員使用生成式AI的指引清單》,建議機構在制訂僱員使用生成式AI的指示時,應訂明獲准使用生成式AI的範圍,以及僱員不能為進行非法或有害的活動使用生成式AI工具。私隱專員鍾麗玲今日(4月1日)在電台節目表示,生成式AI特別是言語模型,需要很大量數據及文字,有關機構輸入顧客資料,是受私隱條例規管,若涉及改變用途目的,須取得客戶同意。
鍾稱,在2023及2024年曾進行兩次調查,發現使用AI的企業中,接近65%有採用數據安全防護措施,另外,有超過55%企業已制訂或計劃制訂AI安全風險政策。今次發出指引是期望企業跟隨署方的清單,制訂清晰的政策,了解甚麼資料可以輸入。鍾又提到,暫時並不多企業就生成式AI資訊或圖像加上標籤或水印,但其他司法管轄區包括外地及內地已有相關法規。