當人工智能達到了與人類同樣聰明的水準時,世界將會永遠的改變。人類想要進一步進化可能需要幾百甚至上千萬年,而人工智能一旦達到了那樣的水準,可能分分鐘就能出現(xiàn)大的飛躍。


雖然技術的變革本身是中性的,既不能說好也不能說不好,但人工智能對整個社會的影響將會十分強烈。

一些未來主義者認為這些變化即將來臨。

這其中也包括了Ray Kurzweil——這名作者寫了五本關于人工智能方面的書,在這些書中包括了最近十分暢銷的書《How to Create a Mind》,他還是未來主義機構奇點大學的創(chuàng)始人。他目前正在與Google展開合作,將更多的機器智能融入到他們的產(chǎn)品中。

人工智能就要來了

在一篇他寫給《時代周刊》的文章中,Kurzweil表示,盡管大部分人在該領域的人都認為我們還需要幾十年的時間才能創(chuàng)造出具有人類智力水平的人工智能,但是他則將日期提前至了2029年,距今只有不到15年的時間了。

Kurzweil提出,我們已經(jīng)有了人類—機械的文明。我們已經(jīng)在使用較低水平的人工智能技術來診斷疾病、提供教育,并開發(fā)新的技術。

人工智能技術的不斷發(fā)展可以更好地給這個星球上每一個單獨的個體提供信息和解決方案。

因此而害怕?

雖然Kurzweil認為人類水平的人工智能的發(fā)展可以安全的開發(fā),畢竟到目前為止,這個更明智、更智慧的世界并沒有因此而攻擊我們,但并不是每個人都那么肯定。

•特斯拉 CEO Elon Musk在最近一次麻省理工學院的研討會上表示,人工智能可能是人類最大的生存威脅,隨著人工智能的發(fā)展,我們正在召喚惡魔。


•英國著名科學家斯蒂芬·霍金認為,人工智能的發(fā)展可能會給人類文明造成終結。


而且?guī)资陙?,不少科幻的文學作品和影視作品都描述了,一旦我們創(chuàng)造的東西比我們?nèi)祟惛斆?,我們將無法再控制這個世界上發(fā)生的事情了,因此人們對人工智能都感到了恐懼。

他們認為如果新的人工智能不喜歡我們?nèi)祟?,或者認為我們充滿著威脅,它們可以決定是否要清除我們。當然,未來不一定就是這種情況,但是,如果它真的這么做了,我們?nèi)祟惪赡芤矡o法阻止它。

但Kurzweil認為,我們已經(jīng)創(chuàng)造了有潛力摧毀人類文明的核能和生物技術,但如今我們不僅仍然還生活在這里,我們實際上是生活在人類歷史上最和平的時期。

他認為,我們應該改變以往所認為的創(chuàng)造人工智能就有可能產(chǎn)生人類與邪惡的人工智能之間的戰(zhàn)斗,我們應該把它看成是提升人類力量的一種方式,而這會以多種形式存在,不只是一個強大的實體。

機器人啟示錄

Kurzweil認為我們有時間來制定保障措施,并繼續(xù)建立一個更加和平和進步型的社會,這可以讓我們在開發(fā)人工智能時擁有相同的目標,而不是一個具有軍國主義的人工智能。

我們可以做的最重要的事情來避免未來的危險,就是把重點放在我們自己的社會理想和人類進步上。

這和Elon Musk和霍金所認為的潛在世界末日的擔憂相比,帶給了我們更多的安慰。但即使是Kurzweil也表示,“技術一直是一把雙刃劍,因為火使我們溫暖,也因為火而燒毀了我們的村莊”。

我們不知道,Kurzweil預測的人類級別的人工智能在2029年是否會應驗,想知道的是,到時候它能幫我們自動翻墻嗎?
 

智能界是中國首家專注于報道智能科技前沿的綜合垂直門戶,秉承“引領未來智能生活”的理念,持續(xù)關注智能家居、可穿戴設備、智能醫(yī)療、機器人、3D打印、智駕等諸多科技前沿領域,提供最前沿、最時尚、最實用、最專業(yè)的硬件產(chǎn)品介紹、硬件評測、服務定制、最新資訊、圈子交流等服務,致力于成為最具價值的智能科技信息互動平臺。
智能界【微信公眾號ID:znjchina】【新浪/騰訊微博:@智能界】
 
 
二維碼-02.png
 
 
 
 
人已收藏

相關文章

評論列表(已有條評論)

最新評論