如果人工智慧註定毀滅人類,為什麼還要急於發展?/解聰文
如果要簡單回答這個問題,答案當然會是「因為我們辦得到」。人類天生就擅於發明事物,任何能夠發明出來的事物,最後總會有人發明出來。
人類大腦的演化方向,不是用來理性思考的
但如果要仔細回答這個問題,答案就會既複雜,又扯到哲學。首先,人類大腦並不長於理性理解事物。雖然我們自以為人類是理性的動物,但就如賓州大學哲學、政治學與心理學家雨果.梅西耶(Hugo Merciel)指出的,人類的大腦演化是朝向在爭鬥中獲勝,而不是說理。
人類之所以還有宗教,也是因為如此;畢竟相信有上帝或神佛的存在,是完全不理性的。但我們人類天生就很會把自己的觀點,強加在他人身上。
藉由人工智慧的幫助,我們希望能夠變得更加理性。人工智慧能夠處理的資料量,遠遠超過人腦,所以理解事物的能力,超過所有個人或群體。
英國數學家I.J. Good早在1965年就指出,人工智慧將有自我持續改善的潛能,一但其智力爆炸成長之後,人類將被拋諸電腦之後;但人工智慧也能協助人類根除一些造成爭執的偏見,並且遠離許多讓人性倒退的不必要事物,例如戰爭、疾病、貧窮、自私、宗教等等。如果這樣的人工智慧真的實現了,顯然會是人類史上最重要的事件。
人工智慧的理性思考能力可能超越人類。
上面這種說法的前提,就是人類完全聽信人工智慧,由人工智慧來做決定;也就是把人工智慧當做神一樣的存在。所以人類為何發展人工智慧?這個問題的答案,可能就是我們想要做出一台能夠回答宇宙間最終極問題的機器,也就是為什麼人類會存在。這同時也是生命、宇宙、萬物的永恆終極問題。
人工智慧會成為全知全能的大神嗎?
人工智慧的終極形式,不會是Amazon Alexa或Siri這樣的玩具,而會是全知全能的;這樣的人工智慧不僅會取代許多人的工作,會被取代的還包括法律制度、政府組織、各種典章制度和各種研究工作等等,這顯然會對現今的人類社會帶來困擾。
也就因為如此,這個年代的許多大師,像是Elon Musk、Bill Gates、Stephen Hawking等人,不斷提醒大家要當心人工智慧的危險性。各位讀者可以在這篇《強固且有益的人工智慧研究重點》公開信中看到諸位大師的說法。
諸位大師的擔憂,主要還是和人類大腦結構有關。如果我們的大腦真的比較擅於爭鬥,而非理性的話,人工智慧就會被用在爭鬥之上。人類可能會用人工智慧作惡,另一種情形是儘管動機良善,但人工智慧決定採用的手段卻可能對人類有害。
由於人工智慧的運算思考速度遠遠快於人類,人類將無法阻止人工智慧;也因此近來不斷有人呼籲,必須發展出所謂的「開關」以控制人工智慧。
我們深信人類在發展人工智慧的同時,一定也會確保人工智慧不會失控。
對筆者來說,在人工智慧的發展中,沒有什麼比確保人工智慧不致失控更重要的事。能在事態失控前及時懸崖勒馬,比什麼都重要。各國政府在人工智慧的發展過程中,一定要主動介入;為了人類的長遠未來,不能率爾放任Google、IBM、Facebook等公司完全控制為了其商業利益而發展的人工智慧系統。
如何確保人工智慧不為惡?
雖然如此,我對於人類能夠完全掌控人工智慧,仍然是樂觀的。未來學者瑞.庫茲懷爾(Ray Kurzweil)顯然比筆者還樂觀,而他在幾十年前的預言也已經實現。
他甚至認為人工智慧既然能夠治癒多種疾病、解決能源和環境問題,人工智慧應該也能讓人類長生不死。他說「人類具有控制危機,實現理想的道德動機;而且人類過去也曾經成功過」。
Kurzweil是對的。畢竟人類過去曾經發展出各種自我傷害的方法,原子彈就是一個例子;人類也發展出可怕的生物戰,但並沒有真正造成巨大的傷害。人類發展出的基因科技,甚至能夠毀滅人類本身;但人類一直深刻理解,必須對這類人體實驗有所管制。
我們深信人類在發展人工智慧的同時,一定也會確保人工智慧不會失控。所以我在本文標題中問的問題「如果人工智慧註定帶來人類的毀滅,為什麼還要急於發展?」答案其實很簡單。我們人類能夠製造人工智慧,也能確保人工智慧的用途是讓世界更加美好;人工智慧能解決的問題,一定會比它製造的問題要多得多。
(編譯/ 施典志 Tenz Shih)