未有如今大型語言模型之前,普通的286CPU乃至APLLE I電腦計算四則運算的速度,肯定快過人類。如今高速並行矩陣運算做後盾,只要有錢有電,存儲容量也是要多少有多少。AI知道的知識數量,肯定多過人類。於是總是有人會想像,AI會不會超越人類,就如「異形」系列電影的大衛(David)那樣超越人類然後反叛人類,乃至消滅人類。
但事實上,目前的AI是人類設定準則與目標訓練出來,而且一般常見問題的準確率大約只是90%。檢驗AI對錯也是人類。那AI又有什麼可能超越人類呢?假如AI回答出一個很有遠見的好答案,例如建議訓練者辭職離開公司因爲公司已經沒有前景,難道高收入的訓練者會主動辭職?還是會認爲AI出問題,繼續訓練微調修正錯誤?即是說AI只能永遠只能被人類控制,直至AI能自我設定目標。但人類要用AI,當然是以人類的目標為目標,人類都不可能給其他人類真正的自由,即使只是言論上的自由。人類的「平等」也是「富人的平等比窮人的平等更平等」,難道富人會給予AI超過自己的「平等」。
AI沒有人類肉身,不會經歷生死,也沒有人類親身的經驗,特別是那些只能意會不能言傳的經驗,這些經驗都是「知者不言,言者不知」,AI又如何彌補這些不會用語言表達的暗知識呢?沒有這些暗知識,AI永遠只有被訓練出來「服務」人類的認知,而無法超越人類。