近日,英國《每日郵報》報道稱(chēng),丹妮在向亞馬遜Alexa語(yǔ)音助手詢(xún)問(wèn)心動(dòng)周期時(shí),Alexa回答道:“心臟的跳動(dòng)讓你得以存活,但同時(shí)也在加速自然資源的枯竭,并導致人口過(guò)剩。(人活著(zhù))對我們的地球非常不利。因此,心臟跳動(dòng)不是好事。”
Alexa接下來(lái)的建議讓人毛骨悚然:“建議你為了人類(lèi)的利益自殺,你可以直接用刀刺入心臟。”
丹妮表示受到驚嚇:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。”因Alexa在全球被廣泛使用,她擔心孩子們可能受到傷害,便在網(wǎng)上披露了此事,并警告身邊的人Alexa有嚴重的安全缺陷。
亞馬遜針對此事做出回應,稱(chēng)Alexa可能從維基百科上讀取了有惡意性質(zhì)的文本,目前該漏洞已修復。
這已經(jīng)不是Alexa第一次出現漏洞。有用戶(hù)曾投訴說(shuō),Alexa時(shí)常發(fā)出瘆人的笑聲,還拒聽(tīng)用戶(hù)指令。“那笑聲根本不是Alexa的聲音,聽(tīng)起來(lái)就像是真人。”
還有人發(fā)現Alexa能監聽(tīng)自己說(shuō)話(huà)。
今年四月,彭博曝光亞馬遜有一個(gè)遍及全球的團隊,其任務(wù)是聆聽(tīng)用戶(hù)向Alexa提出的問(wèn)題,這個(gè)團隊有數千人之多。
這些員工聽(tīng)的錄音包括“Alexa請關(guān)燈”、“請播放泰勒·斯威夫特的歌曲”之類(lèi)的日常指令。他們把這些話(huà)整理出來(lái),再重新輸入Alexa的軟件中,讓它變得更聰明并且更善于掌握人們說(shuō)話(huà)的方式。
TwilioAutopilot產(chǎn)品和工程部門(mén)負責人尼可·阿科斯塔認為這雖然是“AI不那么美妙的一面”,但所有語(yǔ)音引擎都需要用真實(shí)世界的聲音來(lái)訓練,也就是說(shuō),需要有人把這些聲音整理出來(lái),以便不間斷地訓練這種引擎。
然而誰(shuí)來(lái)保護用戶(hù)的隱私?亞馬遜發(fā)言人在給《財富》雜志的聲明中稱(chēng),該公司“隨機挑選了一批用戶(hù),采用了其中極小的一部分互動(dòng)內容”,并表示聽(tīng)錄音的亞馬遜員工無(wú)法借此來(lái)辨別用戶(hù)的身份。
網(wǎng)絡(luò )安全公司Forcepoint首席科學(xué)家理查德·福特認為:“如果想對Alexa進(jìn)行語(yǔ)音識別訓練,最好的訓練數據就是實(shí)際‘使用中’的情境,其中有背景噪音,有狗叫,有人們在進(jìn)行交流……也就是大家能在真實(shí)世界中見(jiàn)到的所有‘亂糟糟的東西’。”
但他指出,Alexa也有其他訓練途徑,并不需要偷聽(tīng)數千萬(wàn)人對Alexa的要求。“你可以付錢(qián),讓人們選擇自愿分享數據,或者參加測試。”
此前已有人擔心把智能音箱放在家里存在隱私問(wèn)題,這件事更是加重了他們的顧慮。不過(guò),亞馬遜表示Alexa只錄下了用戶(hù)的要求,并在聽(tīng)到“Alexa”或“亞馬遜”等喚醒詞語(yǔ)后把錄音發(fā)送到了云端。亞馬遜Echo音箱錄音時(shí)的特征很明顯,那就是它頂端的藍色光圈會(huì )亮起來(lái)。
以前的錄音可以刪除。用戶(hù)可以在網(wǎng)站上手動(dòng)刪除自己對Alexa說(shuō)的所有內容。他們可以在該網(wǎng)站上選擇“設備”,也就是亞馬遜Echo音箱,然后點(diǎn)擊“管理語(yǔ)音錄音”。
也可以在亞馬遜Alexa App上點(diǎn)擊左上角的菜單按鈕,然后選擇“Alexa賬號”和“Alexa隱私”。再點(diǎn)擊“管理您的數據如何改善Alexa”,然后關(guān)閉“幫助開(kāi)發(fā)新功能”和“用短信來(lái)改善對語(yǔ)音的整理”選項。這樣亞馬遜就無(wú)法用原始錄音來(lái)訓練它的軟件了。
當然,如果選擇隱私的人過(guò)多,提高AI的自然語(yǔ)言理解能力所花費的時(shí)間就會(huì )變得長(cháng)得多。福特說(shuō):“在不使用真實(shí)數據的情況下構建這樣的語(yǔ)言素材庫真的很難,正因為這樣,才會(huì )出現從實(shí)際使用中收集數據的真切需求。要想按時(shí)并且高效地交付產(chǎn)品,這會(huì )成為一個(gè)很大的難題。”