【名家筆陣】電腦學會:企業如何管理人工智能?

20190617
東網電視
更多新聞短片
如果社會對「AI『應該』做甚麼」有廣泛共識,則長遠有利於該技術的健康發展。
憑藉雲端平台和機器學習的高速發展,人工智能(AI)正被應用到日常生活的各個層面。你可以使用語音搜索駕駛路線、用臉部識別解鎖手機和電腦、數碼助理可以幫忙安排日程;有些企業也開始使用聊天機械人為客戶提供服務。
現在的人工智能已經可以看、可以聽、可以講,在某些特定情況下甚至可以媲美人類。現在我們可以用很低的成本,有時甚至免費,就已經可以享用人工智能帶來的方便和營運效率。可是,我們也都應該意識到人工智能的可擴展性,其廣泛應用,是可以對社會產生重大影響的。
筆者並不是在擔心如科幻小說中具備意識的「強人工智能」(Strong AI),因為它離現實還是太遠了。只是現今的人工智能,就好像幼兒一樣,它們能從數據中學習各種的人類技能,同時也繼承了其中的特性,不論是好是壞。而且它們還未有人類的價值觀或良知,可以分辨善惡。因此,我們現在不僅要問人工智「能」做甚麼,還要問人工智能「應該」做甚麼。
社會和企業應該建立相關的管理架構,來確保人工智能的發展及應用,能符合法例和道德要求,防止人工智能技術應用在錯誤的領域上。
筆者認為企業架構師正可以把人工智能的開發和應用原則,加入到現有的企業架構框架中,令到相關的規範能得以實現。而參考一些業界已經發布的人工智能原則,可以是一個很好的開始。
以下是一些已經公開發表過的原則例子:「公平」──人工智能系統應該公平對待所有人,避免製造或加強不公平的偏見;「包容」──人工智能系統的設計應該讓所有人都可以使用得到及受惠;「透明度」──人工智能應該可以被理解,讓人類了解這些技術如何看待和分析世界;「私隱」──人工智能設計必須考慮私隱,要採取措施保護人們與組織的私隱;「負責」──人工智能應具有演算法上的責任制度,人們可以撤銷無意的傷害。
但值得留意的是,不同背景文化都可能對以上看似「阿媽是女人」的大原則,有不同的理解和優先排序。麻省理工學院在2014年設計了一個叫道德機器的網上實驗,假設無人自動駕駛汽車面臨生死抉擇的道德困境,收集到來自233個國家和地區的數百萬人,做出的4,000萬項決定,發現人群的道德偏好,會因文化和經濟差異而有所不同。而這些不同的道德偏好,亦正在影響着我們對人工智能的應用發展。
以保安監視的應用為例,有些城市正大量部署具有臉部辨識技術的智能系統,以協助管理城市,大至反恐小至票控亂過馬路,全面覆蓋。而另一方面,美國三藩市議會,卻在上月剛通過禁制當地警方及市政府其他部門,採購及使用臉容辨識技術,以保障公眾私隱及民權。可見不同社會對人工智能的應用原則,是可以有相當的差異。
確保資訊科技應用,能符合機構核心價值,正是企業架構師其中一個的主要任務。筆者認為架構師應該開始借用業界原則為藍本,積極帶領機構討論及發展出一套更符合機構環境的人工智能應用原則和指引。如果我們有更多機構公開其人工智能守則,社會就可以有更堅實的基礎,來討論相關的立法規管,長遠有利人工智能的健康發展。
陳紹鴻
香港電腦學會企業架構專家小組執行委員、微軟資深雲端架構師,中文大學哲學系文學碩士
------
《骰寶坊》誠邀各地【賭王】【賭后】挑戰神人境界,每日更有百萬籌碼等你領取!立即免費下載,體驗《骰寶坊》最真實、刺激的多人在線骰寶遊戲!
遊戲下載:
想睇更多一、二手樓精彩故事,即click以下連結:
新盤置啱睇
二手置啱Feel
------
立即參加「賞您睇」:http://bit.ly/2JWKULh
Click下面粒掣,儲on.cc coins!機票、家電、超市禮券、過萬份獎品等緊你。