AI革命就要來(lái)了。
采用機器學(xué)習這一關(guān)鍵人工智能技術(shù)的公司數量已經(jīng)超過(guò)大家的想象。隨著(zhù)此項技術(shù)變得越發(fā)普及,應該把監管和同理心擺在首要位置。
上周三,在加州拉古納尼格召開(kāi)的《財富》2018年最具影響力下一代女性峰會(huì )上,情感人工智能公司Affectiva的聯(lián)合創(chuàng )始人兼首席執行官拉娜·埃爾·卡柳比表示,在技術(shù)領(lǐng)域里,情商和智商同樣重要。她指出,考慮到人與技術(shù)互動(dòng)的頻率以及技術(shù)在人們生活中越來(lái)越大的影響,把同理心融入技術(shù)之中很重要。
埃爾·卡柳比說(shuō),要做到這一點(diǎn),途徑之一就是讓多元化團隊來(lái)進(jìn)行技術(shù)開(kāi)發(fā)。對此她舉了個(gè)例子:中年白人男性在創(chuàng )建和訓練面部識別AI時(shí)用的都是和他們長(cháng)相類(lèi)似的照片,這就意味著(zhù)這樣的AI在面對有色人種女性時(shí)往往不能正常發(fā)揮作用,甚至根本派不上用場(chǎng)。
“這要歸結到設計相關(guān)算法的團隊身上,如果不是多元化團隊,他們就不會(huì )考慮這樣的AI在戴頭巾的女性面前表現如何。”埃爾·卡柳比說(shuō):“他們只是解決了自己所知范圍內的問(wèn)題。”
微軟AI部門(mén)的首席產(chǎn)品負責人納維里娜·辛格說(shuō),她在一個(gè)電子商務(wù)網(wǎng)站項目中遇到過(guò)一個(gè)完美的以同理心思維開(kāi)發(fā)技術(shù)的例子。這個(gè)網(wǎng)站想讓印度消費者更方便地購買(mǎi)他們的商品。由于印度的識字率較低,這家公司就為不識字的用戶(hù)提供了語(yǔ)音轉文字功能。他們事先統一行動(dòng),用印度各地的方言和文化對AI進(jìn)行了訓練,原因是在不同背景下,用戶(hù)說(shuō)話(huà)時(shí)表達的意圖和內容都不一樣。IBM沃森部門(mén)的客戶(hù)關(guān)系總經(jīng)理InhiChoSuh認為,意圖識別是目前AI面臨的最主要挑戰和機遇之一。
現在,機器學(xué)習的另一大焦點(diǎn)是監管。與會(huì )者認為,隨著(zhù)機器人和其他相關(guān)技術(shù)日臻完善,必需有法律來(lái)制約這種力量。Suh指出,應通過(guò)技術(shù)和監管來(lái)防止不正當使用。埃爾·卡柳比則強調,大學(xué)計算機科學(xué)和工程專(zhuān)業(yè)學(xué)生必須接受倫理教育。
辛格提出用F。A。T。E。這個(gè)縮略語(yǔ)來(lái)代表開(kāi)發(fā)和監管此類(lèi)技術(shù)時(shí)應注意的關(guān)鍵問(wèn)題。它們是公平(fairness)、負責(accountability)、透明(transparency)和倫理(ethics)。反恐技術(shù)公司Moonshot CVE的創(chuàng )始人維迪亞·拉瑪林漢姆說(shuō),雖然有很多關(guān)于A(yíng)I技術(shù)的負面新聞,比如英國政治咨詢(xún)機構Cambridge Analytica非法獲取8700萬(wàn)Facebook用戶(hù)數據的丑聞,但我們不能讓恐懼主導輿論。
她指出:“出臺政策的動(dòng)機不應該是害怕,而是應該在掌握相關(guān)知識并了解相關(guān)信息后制定政策。”