CTI論壇(ctiforum.com) (編譯/老秦): 機器人允許我們從菜單中選擇他們的聲音已經(jīng)很常見(jiàn)了。為什么不更進(jìn)一步,讓我們選擇更多類(lèi)似人類(lèi)的聲音呢?

人工智能 (AI) 正在改變有關(guān)客戶(hù)體驗的一切。在聯(lián)絡(luò )中心或勞動(dòng)力敬業(yè)度管理 (WEM) 對話(huà)中很快就會(huì )出現 AI 的話(huà)題。它正在改變我們處理和管理客戶(hù)互動(dòng)的方式。
用例廣泛多樣,包括智能虛擬座席 (IVA)、聊天機器人、增強座席服務(wù)、質(zhì)量指標、分析、噪聲抑制等。現代聯(lián)絡(luò )中心的任何方面都沒(méi)有被人工智能重新構想。
人工智能是一個(gè)應用廣泛的技術(shù)分支,而不是一個(gè)特定的產(chǎn)品。各種用例通常涉及完全不同的人工智能技術(shù)和供應商。例如,噪音抑制技術(shù)和聊天機器人彼此之間幾乎沒(méi)有共同之處。
對話(huà)式人工智能可能是影響聯(lián)絡(luò )中心的最大人工智能技術(shù)。它用于為聊天機器人、情緒評分、座席指導等提供動(dòng)力。
不久前,對話(huà)式人工智能只存在于科幻小說(shuō)中。 《星際迷航》提供了一個(gè)語(yǔ)音 UI 的精彩示例。想一想星際迷航的船長(cháng)們如何自然地與"計算機"對話(huà)并獲得他們期望的有用響應。 "計算機"絕不會(huì )因為錯誤觸發(fā)而僅僅提供答案,它總是準確地理解意圖和請求。
我們還沒(méi)有完全趕上那個(gè) UI 模型,但我們越來(lái)越接近了。對話(huà)式人工智能的進(jìn)步速度是驚人的。我們已經(jīng)征服的對話(huà)式人工智能的一個(gè)方面是讓我們的機器人發(fā)出聲音。 Trek"計算機"聽(tīng)起來(lái)很悅耳,但它顯然不是人類(lèi)。這是一種聽(tīng)起來(lái)很自然的機器聲音--不管它是什么。
讓計算機聽(tīng)起來(lái)像人類(lèi)可能會(huì )引起爭議。 2018 年,谷歌對其 Duplex 技術(shù)進(jìn)行了一次臭名昭著(zhù)的演示,該技術(shù)讓個(gè)人助理機器人致電當地企業(yè)進(jìn)行預約或預訂。演示令人印象深刻,但最突出的是它欺騙了真人的類(lèi)似人類(lèi)的聲音。機器人會(huì )說(shuō)"嗯"和其他我們不希望機器人發(fā)出的人類(lèi)聲音。反應(或憤怒)令人驚訝。人們對被愚弄感到不安,谷歌同意讓 Duplex 更像機器。
機器人應該是 botish 嗎?
自 2018 年以來(lái)發(fā)生了很多變化,如今機器人更為普遍。沒(méi)有人真正喜歡與機器交談,所以也許我們應該重新審視機器人應該如何發(fā)聲。我們已經(jīng)學(xué)會(huì )了喊"操作員"或"代表"來(lái)接近人類(lèi),但這更多是關(guān)于解決問(wèn)題。隨著(zhù)機器人變得越來(lái)越有用,也許它們聽(tīng)起來(lái)應該更有幫助,這意味著(zhù)更人性化。
幾家 CCaaS 供應商都在談?wù)撏硇牡闹匾浴@纾鰪娦妥妥笇脚_在對話(huà)中向座席提供建議以傳達同理心。不幸的是,同理心是我們尚未解決的 AI 難題的一部分,但我們可以通過(guò)簡(jiǎn)單地調整機器人聲音中的性別、音調和沙啞來(lái)創(chuàng )造更人性化的互動(dòng)。
這真是聲音的力量,它傳達的個(gè)性,遠勝于文字。例如,在新的"壯志凌云:特立獨行"電影中,Val Kilmer 重新扮演了冰的角色。氣管切開(kāi)術(shù)和化療的結合使 Val Kilmer(和他的角色)無(wú)法說(shuō)話(huà)。在電影中,他確實(shí)通過(guò) Sonatic 合成的聲音說(shuō)話(huà)。它吸收了他數小時(shí)的錄音來(lái)制作 Val Kilmer 語(yǔ)音模型。在軟件中鍵入行,Val(或 Ice)會(huì )說(shuō)話(huà)。 Five9 提供了一項類(lèi)似的服務(wù),稱(chēng)為虛擬配音。
Sonatic 可以重現我們在其他電影中聽(tīng)到的自然可識別的聲音,但電影的創(chuàng )作者想要"投射"一種更適合年長(cháng)、虛弱角色的聲音。這部電影欺騙我們相信我們聽(tīng)到的是人類(lèi),但這是一種合成的聲音--沒(méi)有任何反響。
賦予機器人個(gè)性可能會(huì )適得其反。我想到了《銀河系漫游指南》中的機器人 Marvin。Marvin 是作為一個(gè)失敗的真正人物性格原型而建立的。這個(gè)想法是賦予機器人真實(shí)的人性。因此,Marvin 深受抑郁和無(wú)聊的折磨。讓 Marvin 護送某人到橋上,他會(huì )回答:"我在這里,大腦有一個(gè)星球那么大,他們讓我帶你到橋上。稱(chēng)之為工作滿(mǎn)意度? '因為我沒(méi)有。'"
就個(gè)人而言,我喜歡機器人聽(tīng)起來(lái)更人性化的想法,但顯然有很多來(lái)自科幻小說(shuō)的警告。在電影《她》中,一個(gè)內向的角色與他的"AI-OS"結合在一起。在電影"Ex Machina"中,一個(gè)機器人欺騙了我們的人類(lèi)英雄,讓它/她自由。
這些想法離現實(shí)并不遙遠。 Blake Lemoine 最近在發(fā)布與 LaMDA 聊天機器人的對話(huà)記錄后被谷歌解雇。人工智能工程師 Lemoine 認為 LaMDA 變得有感知力。谷歌和許多其他工程師駁斥了他的結論。顯然愚弄 Lemoine 的是機器人害怕被關(guān)閉。
作者和未來(lái)學(xué)家大衛布林寫(xiě)過(guò)關(guān)于"機器人情感危機"的文章。他預測人們會(huì )認為人工智能是有感知的,因為機器會(huì )激起我們人類(lèi)的同情觀(guān)念。因此,我們可能希望將這些個(gè)性帶入多遠是有限度的,但在機器人方程中添加更多的人可能是一個(gè)好主意。
機器人允許我們從菜單中選擇他們的聲音已經(jīng)很常見(jiàn)了。為什么不更進(jìn)一步,讓我們選擇更多的人類(lèi)特征呢?我敢肯定,它們成為主流只是時(shí)間問(wèn)題。
聲明:版權所有 非合作媒體謝絕轉載
作者:Dave Michels
原文網(wǎng)址:https://www.nojitter.com/ai-speech-technologies/its-time-make-bots-sound-less-bot