機器人不只有三定律,人工智能引發(fā)了九大問(wèn)題
隨著(zhù)人工智能越來(lái)越強大,智能機械正改善我們的生活,然而不僅是技術(shù)的快速發(fā)展,人類(lèi)的想象早已延伸至更遠之處,著(zhù)名科幻小說(shuō)家艾薩克. 艾西莫夫(Isaac Asimov)早在 1942 年就針對機器人技術(shù)的發(fā)展提出了三大定律,以探討未來(lái)人類(lèi)對人工智能(AI,Artificial Intelligence)的應用以及所面對的倫理道德問(wèn)題。 如今隨著(zhù)想像越來(lái)越逼近現實(shí),人工智能所引發(fā)的問(wèn)題已不止如此而已。
失業(yè)與貧富差距
機器人技術(shù)的發(fā)展,首要面對的問(wèn)題其實(shí)早已被廣泛認知,就算不是科學(xué)家或是哲學(xué)家,現代民眾也能清楚的理解此一問(wèn)題必然會(huì )發(fā)生,那就是—失業(yè)。 勞動(dòng)的層次與自動(dòng)化的程度有關(guān),在自動(dòng)化作業(yè)之下,人類(lèi)會(huì )逐漸轉往負責更復雜的戰略及認知活動(dòng)。 例如卡車(chē)司機,目前有數千萬(wàn)人在從事這樣的工作,但如果正如特斯拉(Tesla)所承諾,未來(lái)十年內自動(dòng)駕駛車(chē)輛將會(huì )被廣泛使用,那么這些人將會(huì )如何? 但從另外一個(gè)角度來(lái)看,自駕車(chē)的普及將會(huì )大幅減少交通事故傷亡率,那么自駕技術(shù)的應用就變成了一個(gè)道德的選擇,人命或者是失業(yè)?
或許有一天我們回頭看看現在的經(jīng)濟型態(tài)會(huì )認為,讓人類(lèi)出售自己的時(shí)間僅為了活下去是一種很野蠻的行為。 目前人類(lèi)的工資大部分仰賴(lài)于時(shí)薪,然而通過(guò)使用人工智能將大幅減少所需的勞動(dòng)力,這也意味著(zhù)失業(yè),但除了失業(yè)以外,還有另一個(gè)問(wèn)題,機器人的勞動(dòng)所得該由誰(shuí)分享? 在現今自動(dòng)化還沒(méi)有真的那么普及時(shí),貧富差距就已經(jīng)非常的大,當機器人取代人類(lèi)勞工之后,相信貧富差距將會(huì )更加嚴重,該如何建立一個(gè)公平的經(jīng)濟社會(huì )就是第二個(gè)問(wèn)題。
互動(dòng)、錯誤及偏見(jiàn)
人工智能引發(fā)的另一個(gè)層面問(wèn)題出自于人類(lèi)的社會(huì )性。 在 2015 年,一架機器人名為 Eugene Goostman 成功通過(guò)了圖靈測試(Turing Test)。 在這個(gè)測試中,測試人員必須分別跟真人與機器人對話(huà),若機器人能成功瞞騙過(guò)測試人員,讓他們誤以為是真人便成功了,而 Eugene Goostman 成功的欺騙了一半以上的測試元。 這是一個(gè)時(shí)代的里程碑,機器人可以開(kāi)始與人類(lèi)互動(dòng)并建立關(guān)系,甚至比人類(lèi)更有效率去維持人際關(guān)系,因為其注意力并沒(méi)有限制,人工智能未來(lái)將成為人際關(guān)系中不可或缺的一部分,該如何與機器互動(dòng)這是人類(lèi)必須面臨的問(wèn)題。
機器人在未來(lái)是如此重要,但實(shí)際上就算再怎么高效仍然會(huì )存在盲點(diǎn),有可能會(huì )被有心人士愚弄甚至是利用,如何讓機器能夠發(fā)揮其應有的功能,而不是遭受或引發(fā)不必要的破壞便是重要的問(wèn)題。 例如機器其實(shí)并沒(méi)有想象中的那么中立,因為人工智能也是通過(guò)學(xué)習而建立起來(lái)的,所以人類(lèi)一樣能夠帶給機器偏見(jiàn)并使其產(chǎn)生錯誤的判斷,例如 Google 曾發(fā)展一項技術(shù),將影像識別用于預測未來(lái)罪犯時(shí),卻發(fā)現其擁有對于黑人的偏見(jiàn),這就是一個(gè)嚴重的問(wèn)題。
安全、威脅與控制
人工智能產(chǎn)生了錯誤與偏見(jiàn)時(shí),可能會(huì )對人類(lèi)造成安全上的威脅,如同電影一般。 所以接下來(lái)的三個(gè)問(wèn)題是有關(guān)于如何維持人工智能的信息安全,以及若人工智能得出具有威脅人類(lèi)安全的偏見(jiàn)時(shí),該如何應對? 又如何能保證繼續控制這些機器人? 或許在技術(shù)上可以設計讓人工智能無(wú)法直接去威脅人類(lèi)安全,如同機器人三定律,但盡管如此,這些科幻情節發(fā)生的機率可能比想象中還高,例如當人工智能在思考如何消滅癌癥時(shí),經(jīng)過(guò)大量的計算后它可能會(huì )得到這樣的結論—盡可能減少地球人口。 這可能真的是最有效的方法,但沒(méi)有人會(huì )期待,雖然聽(tīng)起來(lái)像是一個(gè)玩笑,但如果未來(lái)人類(lèi)真的必須仰賴(lài)機器人來(lái)維持社會(huì )的運作,那么這個(gè)玩笑就一點(diǎn)也不好笑。 在《機械公敵》(I,Robot)電影中,盡管出于善意,但機器人的確還是殺人了。
機器人權
當神經(jīng)科學(xué)家努力的工作后,令機器人也能擁有好惡的基本機制,就像人類(lèi)對動(dòng)物的訓練一樣,雖然目前的技術(shù)還不夠成熟,但正變得更加復雜,也使機器人更加栩栩如生,使其成為感知和行為的實(shí)體。 當這項技術(shù)更加的先進(jìn)以至于機器人也擁有情緒之后,人類(lèi)是否應該要去考慮其感受,機器人是否也應受到法律的保障,擁有機器人的基本人權。
無(wú)庸置疑的,發(fā)展高度先進(jìn)的人工智能將會(huì )有很大的風(fēng)險,但是也必須要記得這將會(huì )是使人類(lèi)能夠繼續前進(jìn)的動(dòng)力,讓生活更加美好的途徑。 人工智能的潛力與威脅,其實(shí)一直都取決于人類(lèi)自己。