首頁 人工智能三部曲(全三冊)

15 我們應該創建AGI嗎

假設我們創建了一個AGI,並且假設它真的可以通過遞歸(Recursion)[9]的方式來改進自己,從而使它很快變得比人類聰明得多,這對人類來說會是一個好消息嗎?人們在這個問題上意見不一。史蒂芬·霍金解釋了原因:

我們無法預測,當人工智能提供的工具放大了我們的智能,我們有可能取得什麽成就,但消除戰爭、疾病和貧困將是所有人的頭等大事。人工智能的成功創建將是人類曆史上最偉大的事件。很遺憾,這可能也是最後一次。

從科技行業人士的公開評論中,我們很容易看到關於“AGI對人類意味著什麽”的各種不同觀點。例如,埃隆·馬斯克在推特上寫道:“希望我們人類不僅僅是數字超級智能的生物引導加載程序。”不幸的是,馬斯克所說的這種可能性越來越大。還有一次,他的評論甚至更令人毛骨悚然:“我們正在用AI召喚惡魔。”就如你所知的所有類似故事中所講的那樣,有一個拿著五芒星和聖水的人,他確信他能控製惡魔,但並沒有奏效。

比爾·蓋茨站在了擔憂者一邊,他說:“我同意埃隆·馬斯克和其他一些人的看法,我不明白為什麽有些人對此漠不關心。”Skype聯合創始人之一揚·塔裏安(Jaan Tallinn)將AI稱為“存在的諸多潛在風險之一”。但他接著又樂觀地補充道:“如果我們可以正確地使用AI,那麽基本上我們就能解決所有其他存在的風險。”蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)是這樣看待這個問題的:“如果一台計算機比我們的大腦優越100倍,它會讓世界變得完美嗎?很可能不會,它最終可能會像人類一樣打作一團。”最後,牛津大學的哲學家尼克·博斯特羅姆(Nick Bostrom)把目前建造AGI的努力比作“玩炸彈的孩子”。

業內其他人則認為,這種對世界末日的擔憂是被誤導的。世界上最受尊敬的AI專家之一吳恩達說:“也有很多大肆渲染說AI將創造具有超級智能的邪惡機器人,這是一種不必要的幹擾。”羅德尼·布魯克斯直接回答了上述一些擔憂,他表示,那些對AI技術沒有深刻了解的人對AI的概括是“有點危險”。他接著補充道:“最近我們確實看到了埃隆·馬斯克、比爾·蓋茨、斯蒂芬·霍金都說AI剛剛起步,它將很快占領世界。”以上這些人的共同之處是他們都不在這個技術領域工作,隻是門外漢。