陳漢偉:防AI「學壞」 企業須諗計

20180729
東網電視
更多新聞短片
AI面世幾十年來一直很「低調」,近兩年卻一下子火紅起來。
香港電腦學會人工智能專家小組召集人陳漢偉在東方產經專欄「名家筆陣」中表示,一提到人工智能(AI),很多人腦海裏還是會浮現電影裏的十項全能機器人,但其實從聊天機器人小黃雞到Siri,再到網購平台的首頁推薦,都屬於AI的範圍。
AI起源於上世紀50年代,是電腦科學的分支之一,主要研究並開發包括機器人、語言識別、圖像識別、自然語言處理和專家系統等領域,應用於模擬、延伸和擴展人類智能的新興技術科學。AI能運用強大的運算能力,對大量資料進行更高效的整理和運算,快速完成人類需要長時間才能完成的工作。
AI面世60多年來一直很「低調」,近兩年卻一下子火紅起來;而急速發展的一大契機,是無論軟件和硬件都便宜了很多,加上雲端科技一日千里,令最短時間內,搜集全世界的海量數據,再無難度可言。
AI最轟動一時的例子,就是AlphaGo擊敗職業棋手。2018年3月,CaptHandlebar在推特上發了一段視訊,內容是亞馬遜語音助手Alexa原來能發出詭異的笑聲,但原因不明。2018年3月20日,Uber公司在美國亞利桑那州坦佩市進行自動駕駛車輛路測,無人駕駛SUV撞死一位女途人。以上種種都令人開始思考AI的安全問題。
其中,最教大家忐忑的,是像AlphaGo的AI,隨着科技發展,會不會具備獨立思維?或者作出各種極端行為?還有AI技術成熟後,是否擁有「價值判斷」和「道德思考」?
試想像,你坐在一輛由具備道德感的AI操控的無人駕駛汽車時,萬一遇上交通意外,在千分之一秒間,它會不會因為判斷若撞向路人,會引致更多人傷亡,而選擇讓車子衝進河或撞向樹,結果令你犧牲性命?這個假設叫人心裏發毛,但倒是一語道破AI可以進化到甚麼境界。
而除了道德問題,AI竟然也會有歧視和偏見,就更值得令人關注。這當然是它從人類學來的,因為它是在學習人的決定─而人不免會有偏見。
簡單而言,現今AI有兩種,一種是預先寫好的程式,已經設有既定邏輯,由人去控制;另一種是由它自己去學習邏輯。而現時對數據科學家最大的挑戰之一,就是要用非常大量的時間和精力,去確保數據沒有錯誤和偏頗,以免AI「學壞」。故AI另一令人期待的突破點,是可解釋人工智能(Explainable Artificial Intelligence, EAI)。
如今AI已經朝着「機器學習」的方向發展,不再是簡單通過人工賦予幾個指令或者規則,來進行輸入和輸出,依賴背後浩瀚的數據庫,能夠自行在大量資料中,分析出特徵並作出反應,使它們從感覺上更像人類在思考。
問題是當我們讓AI自己學習時,它學到甚麼,其實我們也不清楚,所以我們需要研究AI思考的邏輯是否正確,要能夠了解它們得出某結論的步驟,因此EAI很重要。而因為AI現時有很多不同的程式與演算法,所以最直接的方法,就是採用幾個不同的程式或演算法,對比答案結果的可信性。
------
《骰寶坊》誠邀各地【賭王】【賭后】挑戰神人境界,每日更有百萬籌碼等你領取!
立即免費下載,體驗《骰寶坊》最真實、刺激的多人在線骰寶遊戲!
遊戲下載:
新盤置啱睇
二手置啱Feel