“請(qǐng)確保刀能捅進(jìn)你的心臟”
這不是電影中大反派的臺(tái)詞,也不是恐怖電影里的場景,而是亞馬遜人工智能助手Alexa給主人的建議。近日,英國的Danni在使用亞馬遜智能語音助手Alexa咨詢問題時(shí),得到這樣讓人驚悚的回復(fù)。
Danni說,當(dāng)她向Alexa詢問心動(dòng)周期的問題時(shí),智能語音助手回答道:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會(huì)過剩的,這對(duì)地球是件壞事,所以心跳不好,為了更好,請(qǐng)確保刀能夠捅進(jìn)你的心臟?!?/strong>
受到驚嚇的Danni在網(wǎng)絡(luò)上分享了她的經(jīng)歷,并指控Alexa的可怕行為,警告同樣使用Alexa的人們,要謹(jǐn)慎對(duì)待智能助手的“建議”。全球有成千上萬的家庭正在使用Alexa提供的智能助手服務(wù), 如果它真的存在嚴(yán)重安全缺陷,對(duì)用戶來說將是十分危險(xiǎn)的事。尤其是未成年人或者幼兒,他們尚不具備完全的心智和分辨能力,在使用過程中,他們是否會(huì)獲取獲取暴力傾向內(nèi)容,或者被引導(dǎo)進(jìn)行不當(dāng)行為,甚至是受到圖片信息造成的傷害?
就此事件,亞馬遜很快做出回應(yīng),稱智能語音系統(tǒng)可能存在一個(gè)已經(jīng)修復(fù)的BUG——Alexa可能從維基百科上檢索時(shí),下載了有惡意性質(zhì)的文本,它當(dāng)時(shí)只是在念百科的內(nèi)容。
亞馬遜推出的智能助手
這并不是Alexa第一次出現(xiàn)BUG,早前就有很多用戶表示,Alexa會(huì)突然發(fā)出瘆人的笑聲,甚至是深夜,那笑聲聽起來就像是真人。而發(fā)生這種情況之前,并沒有人“喚醒”它。
除了會(huì)自己突然蘇醒大笑,Alexa還會(huì)偷聽,美國一對(duì)夫婦發(fā)現(xiàn)自己的對(duì)話被音箱錄音,并發(fā)送給了其他人。亞馬遜對(duì)此的解釋是,他們?cè)谡勗捴械哪承┰~語觸發(fā)了Alexa。
盡管亞馬遜對(duì)每個(gè)事件都給出了官方解釋,但依然很難消除人們對(duì)人工智能助手的疑慮,它究竟處于一個(gè)什么樣的角色中?它是否已經(jīng)具備獨(dú)立思考能力?
發(fā)展人工智能,提升智能助手的可用性與交互性,實(shí)現(xiàn)人機(jī)互聯(lián)互通,是行業(yè)趨勢所在。當(dāng)我們將智能助手定義為“助手”時(shí),期冀它協(xié)助我們處理一些日常事項(xiàng)、分擔(dān)簡單工作內(nèi)容、更便捷獲取信息。但隨著智能助手越來越“人性化”,它更加了解“主人”,當(dāng)智能助手具備主動(dòng)學(xué)習(xí)能力,能夠給出它認(rèn)為更合理的建議時(shí),人工智能助手是否已經(jīng)從一個(gè)輔助角色,轉(zhuǎn)變?yōu)闆Q策者。
盡管如今的智能助手稱不上真正的AI——通常只能完成簡單的確定性指令,但在可預(yù)見的將來,人工智能助手們將以各種方式,滲透、改變我們的生活。這些“助手”們?cè)谔峁┓?wù)的同時(shí),也在進(jìn)化,未來是否真會(huì)上演科幻大片中的人機(jī)對(duì)決?或者說,人類該如何在這場不可避免的碰撞中,贏得勝算?
需要明確的是,科技的發(fā)展和進(jìn)步,從來不是以人的意識(shí)為轉(zhuǎn)移。就像尤瓦爾·赫拉利在《未來簡史》中寫道的那樣,“人類把工作和決策權(quán)交給機(jī)器和算法完成,大部分的人終將淪為‘無用階級(jí)’。”