數字辦推生成式AI應用指引 批改試卷最終結果應由人工審核

2025年04月15日 18:27
東網電視
更多新聞短片
指引提到,教育方面用於批改作業和試卷時應確保最終結果經由人工審核。
為追上人工智能(AI)的發展趨勢,數字政策辦公室參考國際上不同治理模式及結合本港產業特色後公布應用指引,就多個行業包括金融、醫療、教育、新聞等使用生成式AI提出不同建議。而建議中的管治框架建立了4層風險分類系統,制定不同的監管措施,如危害和影響市民安全的用途屬最高層級的「不可接受風險」,相關系統應被禁止,而開發者亦須承擔法律責任。數字政策專員黃志光指,冀透過指引在鼓勵AI技術創新應用的同時減低風險,以促進生成式人工智能在本港的發展。
生成式AI是指利用各種機器學習算法,讓電腦系統能夠根據大量數據,以及複雜的人類意圖和指令,自動生成內容資訊,例如文字、圖像、音訊等,其技術研發至應用的生命周期中,涉及技術開發者、服務提供者、服務使用者這3類重要角色。全份指引共有33頁,數字政策辦公室指,生成式人工智能模型仍然存在諸多技術局限,或最終導致生成有害內容,包括「模型幻覺」會生成與現實世界實際情形不符的信息、「模型偏見」會令生成內容或作出決策時,存在特定偏好及傾向。
指引將使用生成式AI的風險分為4個層級,會根據潛在危害程度制定相應監管措施,如危害和影響市民安全的用途或潛意識操控等對社會構成生存性威脅的應用,屬於最高層級的「不可接受風險」,相關系統應被禁止。醫療診斷或自動駕駛等關鍵基礎設施的系統則屬「高風險」,必須通過合規評估。至於對社會影響屬「有限風險」的系統,例如招聘工具或教育類人工智能,需要履行透明度要求。屬於「低風險」應用的垃圾郵件過濾器或創意工具等,只需進行自我認證。
指引又就各行業使用生成式AI方面找提出不同重點建議,其中醫療方面,使用生成式AI輔助診斷時應非常慎重,生成內容應不能直接作為診斷報告,應由執業人員審核後作為參考。教育方面則不建議普遍禁止學生使用生成式AI,但在課業中使用應取得教師的同意,同時確保生成內容應能明確被識別,避免用於有違學術誠信的用途,用於批改作業和試卷時應確保最終結果經由人工審核。
指引提到使用生成式AI時在「防範潛在風險」與「保障言論自由」之間取得平衡,認為在維護基本法保障的言論權利同時,當AI技術被用於非法活動時,例如生成「製造爆炸裝置或施襲手法」內容、猥褻內容及擾亂公眾秩序等行為應被禁止。黃志光稱,指引是活文件,除了今次第1個版本推出可以讓市民和業界採用,亦會定期收集意見和更新,促進業界與公眾以安全及負責任的方式,發展及應用生成式AI技術,在鼓勵人工智能技術創新應用的同時,減低風險,以促進生成式人工智能在香港的普及發展。