「機器有思考能力嗎?」早於上世紀四十年代,計算機科學先驅艾倫圖靈已提出上述問題。自此,圍繞機器學習的議題至今未止。近十年來,人工智能(AI)的應用一日千里,人類應如何面對AI的不確定性?身為這個領域的知名專家,馮雁教授一向致力提倡在符合道德的大前提下廣泛使用AI。在這篇專訪中,馮教授闡釋了AI的優點和潛在威脅;但叫她關心的是大眾對AI的一些常見謬誤,可能會窒礙這個領域的發展甚至人類的進步。
AI 創造而非淘汰職位
AI 高速發展,促成工業增長和自動化,不少工種因而消失或式微,像消毒機械人取代了清潔工人、機器代替了收銀員等。這股威脅儘管看似來勢洶洶,但馮教授認為只是工業化過程中的自然現象,不足為慮。
她說:「一如工業革命,我們身處的數碼年代也在創造新的職位,程式設計員就是最佳例子。智能手機出現前,這種工作並不存在。應用程式興起,便催生了以千萬計的相關工作機會。
「我們必需把 AI視為改善生活質素的工具,善用 AI,不是抗拒它。」
就像各種針對新冠肺炎疫苗注射計劃的陰謀論,馮教授認為:「社交媒體充斥著大量有關新科技的錯誤資訊和謠言。人們作出毫無根據的揣測,不少都是子虛烏有。我有些家人也深信不疑。放眼全球,反疫苗的人其實是將人類置於險境。」
她說:「機器本身沒有意識。這年頭,很多人抗拒學習新知識,實屬不幸!如你願意多聽多看,就會知道大部分謠言缺乏邏輯。」
馮教授直言在先進的科技世界裡,學生必須從小接受STEM教育,因為邏輯訓練和批判思考可以幫助我們區分錯誤資訊,避免陷入不必要的恐慌。
發明到應用週期縮短 隱伏禍患
在一般人擔憂「人工智能取代人類」的當兒,馮教授反而認為AI 的潛在威脅,源於研發各類系統的過程欠缺適當制衡。
埋首人工智能三十載,馮教授直言以往業界較少思考AI 的應用操守問題,因為大部分項目仍處於研究階段,情況直至近年AI獲廣泛應用才有所轉變。
她解釋說:「 從發明到應用一項技術普遍需要10年的光景,讓科研人員有機會深思當中的影響;但現今的產品週期大幅縮短,欠缺充足時間制定應用規範和評估影響。模擬真人說話和解答問題的GPT-2語言模型,就是一個現成例子。」
「假如人類不妥善控制這類語言模型,機器就可以製造出帶有性別和種族歧視的語句,提供錯誤答案。若以機器模擬真人專家解答醫學問題,那就是真正的危機。」
馮教授指出,由於錯誤資訊會經人工智能廣為傳播,機器犯錯或會引發災難。
她說隨著AI 的獨立性越來越高,人類必須掌握技術的生產和加緊監察,不能掉以輕心。
「我們需要制訂較完善的機制,以監管AI系統的生產及風險。因此,如何減少AI系統的潛在風險成了新興的研究專題,很多博士生修讀相關課程。這也會衍生新的工作機會!」
監管法規 東西大不同
談到規管人工智能的法規時,馮教授發現東西方的觀點可謂南轅北轍,非常有趣。
「西方文化和科幻小說經常把 AI描繪成令人驚懼的『反烏托邦』力量 ;亞洲社會反而對AI的態度較為正面,像我們熟悉的多啦A夢,就是可愛可親的漫畫角色。」
「在東方,佛教和神道教重視宇宙的和諧,人不凌駕其他物事,強調人在大自然當中根本微不足道。」
文化以外,宗教也有其影響力。
「根據西方傳統,基督認為人類負責『管理大地』。舉例說,在我最喜歡的科幻電影《銀翼殺手》中,人造人計劃殺掉自己的創造者。換言之,人工智能嘗試以神自居,取代人類。這是一場關乎存在的鬥爭,當中有很多宗教隱喻。」
「由於對科技和人工智能的接受程度有別,歐、美的相關法規較為嚴厲,用字也嚴謹,會訂明AI的禁止使用範疇;反觀東方,則鼓勵分擔責任、公開合作和自我規管。」
善用AI改進醫學保健模式
放眼未來,馮教授認為精準醫學將是廣泛採用AI的行業,利用機器學習尋找治病方法,會成為重要的研究範疇。
她說:「科研人員可以研究DNA序列,為癌症病人策劃較理想的治療計劃。因此,精準醫學是我們應該全力開拓的領域。不過,要讓AI或機器學習發揮效果,仍然需要大量數據配合。」
馮教授續說,要提升機器學習的成效,必須在病人同意下加強收集數據,並設立機制監察實施情況。在發展和應用機器學習上,仍有大量工作需要處理。她深信AI將重塑病人護理模式,使醫學界受惠,但歸根究柢,馮教授重申:
「AI 的發展不能脫離人本!」