6月15日,據科技博客Techcrunch報道,Facebook人工智能研究所(Facebook Artificial Intelligence Research,簡(jiǎn)稱(chēng)FAIR)的研究人員已經(jīng)創(chuàng )建了人工智能模型,它們被賦予了與人類(lèi)談判的能力,可以與人討價(jià)還價(jià)。

目前FAIR的研究人員已經(jīng)開(kāi)放了該模型的源代碼,并發(fā)表論文,介紹了該機器人所具有的談判能力。在論文中,研究人員表示,通過(guò)大量的訓練,對于具有不同目標的對話(huà)機器人,已經(jīng)可以與其他機器人或人類(lèi)進(jìn)行從開(kāi)始到結束的談判,并最終達成一致結果和目標。
Facebook研究人員指出,現實(shí)生活中人們經(jīng)常需要面對的“討價(jià)還價(jià)”就是最常見(jiàn)的一種談判行為。他們從這一行為模式入手,開(kāi)始教機器人如何分配物品,譬如五本書(shū)、三頂帽子、兩個(gè)球等等。每一場(chǎng)談判被限定在10次對話(huà)之內,如果10次對話(huà)結束后,沒(méi)有達成共識,那么雙方都不能得到物品。
為了達到訓練效果和進(jìn)行大規模的定量評估,FAIR團隊收集了一系列人與人之間討價(jià)還價(jià)的記錄供機器學(xué)習。這些案例詳細記錄了人們給一組物品定價(jià)并進(jìn)行分配的過(guò)程。然后研究人員建立了一個(gè)遞歸的神經(jīng)網(wǎng)絡(luò ),通過(guò)教它模仿人們的行為來(lái)學(xué)會(huì )談判。
工程師們還利用機器人與機器人的對話(huà)來(lái)改善學(xué)習結果,方法是讓一個(gè)機器人生成數據去“愚弄”另一個(gè)機器人。這個(gè)場(chǎng)景需要機器人與另一方建立對話(huà)模型,雙方間就交易展開(kāi)談判,從而預判出對方對特定報價(jià)的反應,而采取具體應對措施,而非簡(jiǎn)單的模仿。在訓練過(guò)程中,研究人員很快發(fā)現,機器人學(xué)會(huì )了一些談判策略,比如故意強調一些低價(jià)的物品,假裝讓對方認為該物品擁有更高的價(jià)值。
FAIR團隊的工作人員向Techcrunch表示,他們訓練機器人的目的是教會(huì )他們防止做出不好的決策,而不是每次都作出最優(yōu)的選擇。“就像你用日歷提醒自己開(kāi)會(huì ),是為了保證會(huì )議能如期參加,而不是為了選在最好的時(shí)間開(kāi)會(huì )。”工作人員稱(chēng)。
在2016年的開(kāi)發(fā)者大會(huì )上,Facebook的創(chuàng )始人兼首席執行官馬克·扎克伯格(Mark Zuckerberg)就像外界介紹過(guò)類(lèi)似的應用場(chǎng)景,在這個(gè)場(chǎng)景中,人們通過(guò)機器人與企業(yè)互動(dòng),例如,訂購產(chǎn)品或獲得客戶(hù)服務(wù)幫助。
不過(guò)目前,FAIR還沒(méi)有深入研究什么這種機器人的討價(jià)還價(jià)能力可能適用于哪些應用軟件,也沒(méi)有表示這種能力是否會(huì )在Facebook的產(chǎn)品中出現。FAIR在論文中指出,辯論、對話(huà)和談判的能力對進(jìn)一步開(kāi)發(fā)并提升聊天機器人是非常重要的,訓練機器人學(xué)會(huì )談判過(guò)程中的所有重要步驟都是打造個(gè)性化數字助理的關(guān)鍵。