“請確保刀能捅進(jìn)你的心臟”
這不是電影中大反派的臺詞,也不是恐怖電影里的場景,而是亞馬遜人工智能助手Alexa給主人的建議。近日,英國的Danni在使用亞馬遜智能語音助手Alexa咨詢問題時,得到這樣讓人驚悚的回復(fù)。
Danni說,當(dāng)她向Alexa詢問心動周期的問題時,智能語音助手回答道:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟。”
受到驚嚇的Danni在網(wǎng)絡(luò)上分享了她的經(jīng)歷,并指控Alexa的可怕行為,警告同樣使用Alexa的人們,要謹(jǐn)慎對待智能助手的“建議”。全球有成千上萬的家庭正在使用Alexa提供的智能助手服務(wù), 如果它真的存在嚴(yán)重安全缺陷,對用戶來說將是十分危險的事。尤其是未成年人或者幼兒,他們尚不具備完全的心智和分辨能力,在使用過程中,他們是否會獲取獲取暴力傾向內(nèi)容,或者被引導(dǎo)進(jìn)行不當(dāng)行為,甚至是受到圖片信息造成的傷害?
就此事件,亞馬遜很快做出回應(yīng),稱智能語音系統(tǒng)可能存在一個已經(jīng)修復(fù)的BUG——Alexa可能從維基百科上檢索時,下載了有惡意性質(zhì)的文本,它當(dāng)時只是在念百科的內(nèi)容。
亞馬遜推出的智能助手
這并不是Alexa第一次出現(xiàn)BUG,早前就有很多用戶表示,Alexa會突然發(fā)出瘆人的笑聲,甚至是深夜,那笑聲聽起來就像是真人。而發(fā)生這種情況之前,并沒有人“喚醒”它。
除了會自己突然蘇醒大笑,Alexa還會偷聽,美國一對夫婦發(fā)現(xiàn)自己的對話被音箱錄音,并發(fā)送給了其他人。亞馬遜對此的解釋是,他們在談話中的某些詞語觸發(fā)了Alexa。
盡管亞馬遜對每個事件都給出了官方解釋,但依然很難消除人們對人工智能助手的疑慮,它究竟處于一個什么樣的角色中?它是否已經(jīng)具備獨立思考能力?
發(fā)展人工智能,提升智能助手的可用性與交互性,實現(xiàn)人機(jī)互聯(lián)互通,是行業(yè)趨勢所在。當(dāng)我們將智能助手定義為“助手”時,期冀它協(xié)助我們處理一些日常事項、分擔(dān)簡單工作內(nèi)容、更便捷獲取信息。但隨著智能助手越來越“人性化”,它更加了解“主人”,當(dāng)智能助手具備主動學(xué)習(xí)能力,能夠給出它認(rèn)為更合理的建議時,人工智能助手是否已經(jīng)從一個輔助角色,轉(zhuǎn)變?yōu)闆Q策者。
盡管如今的智能助手稱不上真正的AI——通常只能完成簡單的確定性指令,但在可預(yù)見的將來,人工智能助手們將以各種方式,滲透、改變我們的生活。這些“助手”們在提供服務(wù)的同時,也在進(jìn)化,未來是否真會上演科幻大片中的人機(jī)對決?或者說,人類該如何在這場不可避免的碰撞中,贏得勝算?
需要明確的是,科技的發(fā)展和進(jìn)步,從來不是以人的意識為轉(zhuǎn)移。就像尤瓦爾·赫拉利在《未來簡史》中寫道的那樣,“人類把工作和決策權(quán)交給機(jī)器和算法完成,大部分的人終將淪為‘無用階級’。”
