如今,人工智能已經(jīng)潛移默化地深入到人類生活的各個角落,在越來越多的領(lǐng)域發(fā)揮著難以想象的作用。行業(yè)和企業(yè)中的早期人工智能先行者正基于數(shù)據(jù)內(nèi)的深層信息發(fā)掘重大突破,它正為解決高度復(fù)雜的醫(yī)學(xué)難題、推動科學(xué)研究以及更好地預(yù)測行動和人類行為鋪平道路。人工智能改變的不僅是我們做生意的方式,還涉及到社會運作的方方面面。
人工智能無疑會給全人類帶來時間概念和過程感覺的沖擊,但同時也伴隨著潛在的威脅。
比爾·蓋茨曾說:“我正在關(guān)注超級智能。首先,在開始的時候機(jī)器會為我們做很多工作,這些機(jī)器并不是超級智能。如果我們處理得很好的話,這應(yīng)該是具有積極意義的。那之后的幾十年,人工智能會強(qiáng)大到足以引起人們的關(guān)注。我同意伊隆·馬斯克和其他一些人的說法(人工智能可能比核武器更危險),不明白為什么有些人并不關(guān)心。”
英國理論物理學(xué)家史蒂芬·霍金警告說人工智能的發(fā)展可能意味著人類的滅亡。在接受英國廣播公司的采訪時霍金說:“這種技術(shù)會迅速演變并超過人類,那時將會出現(xiàn)電影《終結(jié)者》中想象的一幕。我們已經(jīng)擁有原始形式的人工智能,而且已經(jīng)證明非常有用。但我認(rèn)為人工智能的完全發(fā)展會導(dǎo)致人類的終結(jié)。一旦經(jīng)過人類的開發(fā),人工智能將會自行發(fā)展,以加速度重新設(shè)計自己。由于受到緩慢的生物演化的限制,人類不能與之競爭,最終將會被代替。為了對付這種威脅,互聯(lián)網(wǎng)企業(yè)必須做出更多行動,但困難的是在消除威脅的同時避免犧牲自由和隱私。”
馬斯克警告人工智能存在的巨大威脅,呼吁對人工智能加強(qiáng)監(jiān)管,以確保“我們不會做蠢事”。他參加麻省理工學(xué)院航空與航天學(xué)院百年研討會時表示:“如果讓我猜人類最大生存威脅,我認(rèn)為可能是人工智能。因此我們需要對人工智能保持萬分警惕,研究人工智能如同在召喚惡魔。”之后他又說道:”我們需要萬分警惕人工智能,它們比核武器更加危險!”
為什么有這么多名人讓人們警惕人工智能,這讓我們不得不深思。當(dāng)然,人工智能會隨著時代的發(fā)展愈演愈烈,沒人能夠阻止人工智能前進(jìn)的腳步。我們所要做的,就是順應(yīng)時代的發(fā)展,“知己知彼,百戰(zhàn)不殆”,在深入了解的同時,保持萬分的警惕!