香港電腦學會:AI治理守護科技發展
2025年01月08日 07:00
東網電視
更多新聞短片
隨着人工智能(AI)技術的迅速發展,它逐漸成為日常生活一部分,應用無所不在,有AI概念的上市公司近年備受投資者垂青。然而,AI技術不斷擴展也令人們面臨諸多挑戰和風險,因此AI治理變得尤為重要。
甚麼是AI治理?AI治理是指針對AI技術的開發、部署和使用制訂一系列規範、政策和標準,以確保AI帶來的影響是積極的。治理措施旨在保障數據隱私、安全、公平和透明,同時促進AI技術的負責任創新。簡而言之,AI治理是確保AI技術在發展過程中,不僅滿足技術需求,還能符合道德和社會標準。
保障個人隱私數據安全
為甚麼需要AI治理?第一個原因是保障個人隱私和數據安全。AI技術通常需大量數據進行訓練和運行,因此,保護個人隱私和數據安全變得至關重要。有效的AI治理可確保數據在使用過程中得到充分保護,避免數據濫用和隱私洩露。例如,在醫療領域,患者的數據被用來訓練AI系統以提高診斷和治療的精確性,但同時也需確保這些數據不會被不當使用。
第二是確保公平和無偏見。通過建立公平性的標準和機制,可減少AI系統中的偏見,確保決策過程更加公正。這包括從數據收集到算法設計的各個環節,例如在招聘系統中,確保AI不會基於性別或種族的偏見做出決策。
第三是促進透明度和問責制。透明的AI系統運作和決策過程可增強公眾對AI技術的信任感。問責制是指在AI系統出現問題時,能追溯責任到個人或組織,以防止和減少不良後果。例如自動駕駛汽車一旦發生事故,需能清楚了解系統哪部分出現問題,並確定責任所在。
必須制訂相關政策法律
要實現AI治理,首先政府必須制訂和執行相關政策和法律,規範AI技術的開發和應用,確保符合道德和社會標準。例如歐盟的《人工智能法案》被認為是全球首部綜合性AI治理立法。該法案對AI系統進行了分類,並根據風險等級制訂了相應的監管要求,設定了普適、全面的AI監管方法,包括數據管理、透明度、可解釋性、人類監督等。內地網信辦今年也發布了《全球人工智能治理倡議》,具體倡議圍繞發展、安全及治理3方面。核心內容包括發展AI應堅持「以人為本」、「智能向善」宗旨,要遵守適用的國際法及民主自由等全人類共同價值。
其次,是推動多方合作。AI治理需要政府、企業、學術界和公眾共同參與和合作,以確保治理措施的全面性和有效性。另一方面,要加強教育和培訓,提高公眾對AI技術的認識和理解,有助於消除誤解和恐慌,同時培養更多AI專業人才。
再者,應推動透明度和公開性,以建立公眾信任。企業和研究機構應公開他們的AI系統運作方式、數據來源和算法設計,並接受來自各方面的審查和監督。此外,亦須實施技術監督和風險管理,建立有效機制,以預防和應對AI技術可能帶來的風險。
AI治理是保障AI技術安全、負責任發展的重要環節,可以最大程度地發揮AI技術的潛力,同時減少可能帶來的風險和負面影響。此舉不僅關乎當前技術應用,更為未來的科技發展打下堅實的基礎。
香港電腦學會網絡安全專家小組執行委員會成員 余法昌