亚洲全黄无码一级在线看_国产剧情久久久性色_无码av一区二区三区无码_亚洲成a×人片在线观看

當(dāng)前位置: 首頁(yè) > 科技新聞 >

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈

時(shí)間:2020-04-08 14:55來(lái)源:網(wǎng)絡(luò)整理 瀏覽:
導(dǎo)讀:3.14來(lái)了,數(shù)據(jù)叔想跟你聊一位大佬、一部電影、一本書(shū)。作者:數(shù)據(jù)叔來(lái)源:華章科技▲圓周率節(jié)傳統(tǒng)美食——派,圖片作者:Kalki3月1

導(dǎo)讀:3.14來(lái)了,數(shù)據(jù)叔想跟你聊一位大佬、一部電影、一本書(shū)。

作者:數(shù)據(jù)叔

來(lái)源:華章科技

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

▲圓周率節(jié)傳統(tǒng)美食——派,圖片作者:Kalki

3月14日總是很“熱鬧”,這一天是白色情人節(jié),而且這一天跟科技圈有一些特別的緣分。首先,3.14是圓周率節(jié),然后,這一天我們要紀(jì)念兩位人類科學(xué)史上的重量級(jí)大佬:

阿爾伯特·愛(ài)因斯坦(Albert Einstein),1879年3月14日出生。斯蒂芬·霍金(Stephen Hawking),2018年3月14日逝世。

盡管因?yàn)榻】祮?wèn)題被禁錮在輪椅上,霍金的思考范圍卻總是事關(guān)全人類。作為“老本行”的量子引力研究自然不用多說(shuō),“課余”時(shí)間里,霍金也為人類的未來(lái)操碎了心。霍金曾多次發(fā)表“人工智能威脅論”,給風(fēng)口上的AI潑冷水。

那么霍金具體都說(shuō)了些什么?為什么值得我們深思?

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

01 霍金:計(jì)算機(jī)智能與我們沒(méi)有本質(zhì)區(qū)別

作為一位嚴(yán)謹(jǐn)?shù)目茖W(xué)家,霍金總能讓那些沉迷于不靠譜的科幻美夢(mèng)中的人們清醒一下。比如,他曾搞過(guò)一個(gè)時(shí)空旅行者聚會(huì),邀請(qǐng)那些掌握“穿越”技術(shù)的未來(lái)人來(lái)參加。約定的時(shí)間到了,除了霍金自己,沒(méi)有人來(lái),以此證明未來(lái)人根本沒(méi)有“穿越”能力。

(順便提醒一下,這個(gè)聚會(huì)你也可以自己家里搞一個(gè),看看是不是也只有你自己參加。)

霍金對(duì)外星人的態(tài)度跟對(duì)AI的態(tài)度非常相似,他警告人類不要去聯(lián)絡(luò)外星生命,否則會(huì)自取滅亡。

對(duì)于近些年一直被資本追逐的人工智能,遠(yuǎn)離利益關(guān)系的霍金更強(qiáng)調(diào)風(fēng)險(xiǎn)而不是收益。

在2017年的全球移動(dòng)互聯(lián)網(wǎng)大會(huì)(Global Mobile Internet Conference,簡(jiǎn)稱GMIC)上,霍金發(fā)表了《讓人工智能造福人類及其賴以生存的家園》的主題演講。他提到:

我相信生物大腦可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒(méi)有本質(zhì)區(qū)別。因此,它遵循了“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”這一原則。


人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計(jì)自身,人類由于受到漫長(zhǎng)的生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),將被取代,這將給我們的經(jīng)濟(jì)帶來(lái)極大的破壞。


未來(lái),人工智能可以發(fā)展出自我意志,一個(gè)與我們沖突的意志。[1]

為什么如果人工智能跟人類沒(méi)有區(qū)別會(huì)很可怕?我們可以套用一個(gè)句式回答這個(gè)問(wèn)題:比你聰明的人還比你努力,你還有活路嗎?

下面這個(gè)電影,能把這個(gè)問(wèn)題說(shuō)得更明白。

02 通過(guò)圖靈測(cè)試的AI有多可怕?

電影《機(jī)械姬》(Ex_Machina)里有一段經(jīng)典臺(tái)詞,也在表達(dá)計(jì)算機(jī)/人工智能跟人類沒(méi)有本質(zhì)區(qū)別:

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

人腦是否被programmed,這個(gè)討論涉及人類是否有自由意志的哲學(xué)問(wèn)題。讓我們先放過(guò)哲學(xué)問(wèn)題(其實(shí)是讓哲學(xué)問(wèn)題放過(guò)我們),看看這部電影的故事背景:

某知名搜索引擎公司的程序員Caleb幸運(yùn)地抽中老板Nathan所開(kāi)出的大獎(jiǎng),他將受邀前往老板的豪宅中度假。事實(shí)上,天才老板Nathan邀請(qǐng)Caleb的真正目的是對(duì)Nathan開(kāi)發(fā)的人工智能智能機(jī)器人Ava進(jìn)行圖靈測(cè)試。[2]

然后我們?cè)倏破找幌率裁词?strong>圖靈測(cè)試:

圖靈測(cè)試指測(cè)試者(提問(wèn)者)在與被測(cè)試者(一個(gè)人和一臺(tái)機(jī)器)隔開(kāi)的情況下,通過(guò)一些裝置(如鍵盤(pán))向被測(cè)試者隨意提問(wèn)。進(jìn)行多次測(cè)試后,如果有超過(guò)30%的測(cè)試者不能確定出被測(cè)試者是人還是機(jī)器,那么這臺(tái)機(jī)器就通過(guò)了測(cè)試,并被認(rèn)為具有人類智能?!皥D靈測(cè)試”沒(méi)有規(guī)定問(wèn)題的范圍和提問(wèn)的標(biāo)準(zhǔn),但為人工智能科學(xué)提供了開(kāi)創(chuàng)性構(gòu)思。


圖靈在計(jì)算機(jī)出現(xiàn)之前就預(yù)見(jiàn)了具有邏輯思維的機(jī)器,并預(yù)言在20世紀(jì)末將有電腦可通過(guò)“圖靈測(cè)試”。[3]

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

▲圖靈測(cè)試示意圖,出自《大話機(jī)器人》

影片中,Caleb對(duì)Ava進(jìn)行的是一個(gè)升級(jí)版的圖靈測(cè)試,因?yàn)閭鹘y(tǒng)版的圖靈測(cè)試對(duì)Ava來(lái)說(shuō)已經(jīng)毫無(wú)挑戰(zhàn)性。也就是說(shuō),Nathan直接告知Caleb,Ava是人工智能,并讓Caleb跟Ava直接接觸,相當(dāng)于拿著放大鏡“找茬”,看看能否發(fā)現(xiàn)Ava的破綻。

注意,圖靈測(cè)試并沒(méi)有提出一個(gè)量化的技術(shù)指標(biāo),沒(méi)有要求機(jī)器智能有多么高的科技含量,而是區(qū)分機(jī)器和人類,它在意的是這個(gè)機(jī)器像不像人。

那么“主考官”們是可以有技巧的。比如,機(jī)智的Caleb就選擇了情感路線。冷冰冰的機(jī)器是不可能有情感的,如果Ava能夠表現(xiàn)出具有人類相似的情感體系,那么她就通過(guò)了圖靈測(cè)試。

結(jié)果是,Ava不但通過(guò)了圖靈測(cè)試,而且還讓Caleb動(dòng)了真情。

所以當(dāng)Nathan告訴Caleb,Ava只是一個(gè)中間版本,終將結(jié)束“生命”被新版本替換掉時(shí),Caleb難掩失望之情。

在這里,Nathan也又一次表達(dá)了人工智能跟人類的相同之處:Ava不是最終版,正如你我也不是人類的最終版一樣,終將被后來(lái)者替掉。

看到Caleb仍然處于失望中,Nathan拋出了另一段經(jīng)典臺(tái)詞:

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

這跟霍金所說(shuō)的“人類無(wú)法與之競(jìng)爭(zhēng),將被取代”差不多是一個(gè)意思。

但Caleb仍然選擇站在了Ava一邊。影片的最后,Ava殺死Nathan,囚禁了Caleb,自己逃出與世隔絕的豪宅,去了她向往城市十字路口。

看到這里,作為觀眾的同時(shí),如果你也是“主考官”,你會(huì)發(fā)現(xiàn)Ava也通過(guò)了你的圖靈測(cè)試——Ava跟人類一樣,有自己的欲望、有自己的審美,自私、殘暴、懂得欺騙……

這就是人工智能通過(guò)圖靈測(cè)試的后果——跟人類一樣,意味著人工智能不但擁有人類的優(yōu)點(diǎn),也同樣擁有人類的缺點(diǎn)。

所以,把人工智能設(shè)計(jì)得跟人類一樣,讓他們通過(guò)圖靈測(cè)試,是非常危險(xiǎn)的。

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

▲穿上看上去有點(diǎn)土的連衣裙、高跟鞋,為成功進(jìn)入人類世界回眸一笑的Ava

是人工智能錯(cuò)了嗎?是圖靈錯(cuò)了嗎?我覺(jué)得,錯(cuò)的可能是人類。人類發(fā)展到今天,雖然已經(jīng)有很多優(yōu)點(diǎn),但還沒(méi)有足夠的智慧找到一種生存之道,跟自己的同胞、跟其他物種、跟這個(gè)星球和平共處。

多說(shuō)一句,這部電影在豆瓣被低估了嗎?我覺(jué)得是的。我也翻了翻差評(píng),很多人糾結(jié)于一些不那么重要細(xì)節(jié),比如他們開(kāi)門(mén)還要用房卡,這么先進(jìn)的年代里竟然沒(méi)有指紋識(shí)別、人臉識(shí)別之類的?;蛟S觀眾們的期待是一部充滿炫酷黑科技的科幻片吧,但我覺(jué)得這部電影的亮點(diǎn)并不是那些可以靠特效做出來(lái)虛擬場(chǎng)景,而是關(guān)于人工智能、關(guān)于人類自己的反思與探討。

03 脆弱的“機(jī)器人三定律”

我之所以很喜歡這部電影,也可能是因?yàn)槲覍?duì)它的期待不同。前些天看到《大話機(jī)器人》這本書(shū)推薦了這部電影并簡(jiǎn)要介紹了情節(jié),所以我期待的就是一部討論人工智能和人類未來(lái)的電影,我期待的也是見(jiàn)識(shí)一下通過(guò)圖靈測(cè)試的人工智能是什么樣的。

《大話機(jī)器人》這本書(shū),簡(jiǎn)直就是古今中外的機(jī)器人大全。從中國(guó)古代三國(guó)時(shí)期諸葛亮發(fā)明的木牛流馬,到如今大熱的波士頓動(dòng)力狗,都紛紛在書(shū)中亮相。書(shū)中也盤(pán)點(diǎn)了各國(guó)影視作品中的機(jī)器人,除了上文提到的Ava之外,還有哆啦A夢(mèng)、阿拉蕾、鋼鐵俠、終結(jié)者……滿滿的童年回憶,總有一款是你的最愛(ài)。

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

回到現(xiàn)實(shí)中,《大話機(jī)器人》介紹了從工業(yè)到家庭,不同類型、不同功能的各種機(jī)器人的應(yīng)用。可以說(shuō),機(jī)器人已經(jīng)無(wú)處不在,你的生活每天都會(huì)被機(jī)器人影響。

機(jī)器人和人工智能本來(lái)是兩個(gè)概念,但兩者相結(jié)合的部分往往最精彩。Ava就是一個(gè)人工智能人形機(jī)器人,人類對(duì)于跟自己相似的機(jī)器人總有特殊的偏好。這種相似既包括外貌——人形,又包括思維方式——人工智能。這種偏好也不難理解:

塑造一種類似我們自己的生物,是人類自我認(rèn)可的一種明證。但幻想終究是幻想,不能成為現(xiàn)實(shí),在現(xiàn)實(shí)的科學(xué)技術(shù)面前,幻想也會(huì)打折扣,而折扣的結(jié)果就是制造不出自我,就制造一種可以替代自我的機(jī)器。如此說(shuō)來(lái),機(jī)器人便是人類幻想與科學(xué)技術(shù)現(xiàn)實(shí)妥協(xié)的一個(gè)產(chǎn)物。[3]

但是我們看到,Ava并沒(méi)有給人類帶來(lái)什么好處,反而很危險(xiǎn)?!稒C(jī)械姬》的差評(píng)中有人提到了Ava不符合“機(jī)器人三定律”。1942年,科幻小說(shuō)作家阿西莫夫在他的作品中提出了“機(jī)器人三定律”:

定律1:機(jī)器人不能傷害人類,或因不作為而使人類受到傷害。


定律2:機(jī)器人必須執(zhí)行人類的命令,除非這些命令與第一條定律相抵觸。


定律3:在不違背第一、二條定律的前提下,機(jī)器人必須保護(hù)自己不受傷害。[3]

但你會(huì)發(fā)現(xiàn)這三定律是不夠完善的。假設(shè)機(jī)器人正目睹一場(chǎng)人類之間的犯罪事件,按照定律1,它只能拼死保護(hù)受害者,卻不能對(duì)施暴者進(jìn)行正當(dāng)防衛(wèi)。這樣它自己終將受到傷害,從而失去保護(hù)受害者的能力。所以后來(lái),阿西莫夫又補(bǔ)充了第0定律:

定律0:機(jī)器人不能傷害人類,除非他發(fā)現(xiàn)能夠證明所做傷害將有益于人類。[3]

“機(jī)器人三定律”不但影響了一大批科幻作品,在現(xiàn)實(shí)中,一些機(jī)器人和人工智能的設(shè)計(jì)也把它當(dāng)作倫理基礎(chǔ)。

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

雖然叫“定律”,但其實(shí)這些定律并不是像牛頓定律那樣客觀存在的自然規(guī)律。這些定律是否有效,很大程度上是由人類決定的,有時(shí)候,人類智慧有限,又決定不了。

比如,《大話機(jī)器人》最后一章中提到了幾起工廠中的機(jī)器人傷人、殺人事件。我想,這些機(jī)器人的設(shè)計(jì)者肯定是沒(méi)有想讓自己設(shè)計(jì)的產(chǎn)品去傷人的,但程序會(huì)出錯(cuò),機(jī)器人“以為”它正在切割的是鋼板,其實(shí)是活人。

還有就是,像Ava那樣的人工智能機(jī)器人,首先Nathan在設(shè)計(jì)她的時(shí)候,很可能就選擇忽略“機(jī)器人三定律”;另外,人工智能具有學(xué)習(xí)能力,她先進(jìn)到了一定程度,能學(xué)到什么,就很可能不再受到人類的控制。所以即便是Nathan很有良心地遵守了“機(jī)器人三定律”,Ava在“進(jìn)化”過(guò)程中也可以選擇不遵守。

04 一點(diǎn)點(diǎn)小結(jié)

Nathan說(shuō)奇點(diǎn)(singularity)就要來(lái)了,我們不知道現(xiàn)實(shí)中的奇點(diǎn)離我們還有多遠(yuǎn)。遺憾的是,替全人類操心的霍金先生沒(méi)有等到這一天,現(xiàn)在,我們只能替自己多操操心了。

無(wú)論是機(jī)器人還是人工智能,不可否認(rèn)的是,在當(dāng)今,它們都在為人類創(chuàng)造財(cái)富、輸出價(jià)值,讓我們的生活變得更美好。但我們不能因此而忽略一些潛在的威脅。

最后,用霍金的警告結(jié)束本文:

成功創(chuàng)造人工智能將是人類歷史上最重大的事件。但這也可能是人類歷史上最后的事件,除非我們學(xué)會(huì)如何規(guī)避風(fēng)險(xiǎn)。


(Success in creating AI would be the biggest event in human history. It might also be the last, unless we learn how to avoid the risks.)[4]

相關(guān)參考:

[1]虎嗅 - 霍金再拋人工智能威脅論:人腦和電腦沒(méi)區(qū)別

https://www.huxiu.com/article/192315.html

[2]豆瓣 - 機(jī)械姬

https://movie.douban.com/subject/4160540/

[3]《大話機(jī)器人》,高德東編著,機(jī)械工業(yè)出版社,ISBN:978-7-111-62842-2

[4] BBC - Stephen Hawking warns artificial intelligence could end mankind

https://www.bbc.com/news/technology-30290540

豆瓣7.6,這部被低估的科幻片告訴你,通過(guò)圖靈測(cè)試的AI有多可怕

延伸閱讀《大話機(jī)器人》

推薦語(yǔ):適合每個(gè)人的機(jī)器人知識(shí)科普書(shū)!跳出機(jī)器人學(xué)的枯燥理論,以豐富的資料、獨(dú)特的視角來(lái)闡述機(jī)器人的前世今生。

推薦內(nèi)容