桑斯坦在《網(wǎng)絡(luò)共和國》當(dāng)中提出了算法影響我們的認(rèn)知世界、并在《信息烏托邦》當(dāng)中第一次明確提出了算法使人形成“信息繭房“的危害。這是算法對于人腦的影響,而算法應(yīng)用于人工智能中,也讓偏見在人工智能當(dāng)中存在““由于語言本身具有偏見,人工智能通過算法習(xí)得了它們,甚至人工智能有可能加強這一偏見。但這是否是一個壞事情,還值得我們探討。 在過去的數(shù)年中,諸如谷歌翻譯這樣的程序在語言翻譯方面進(jìn)步神速,這一進(jìn)步多虧了新的機器學(xué)習(xí)技術(shù)和大量可獲得的在線文本數(shù)據(jù),它們使得算法可以被檢驗。 人工智能(AI)工具徹底變革了計算機翻譯日常用語的能力,但也表現(xiàn)出了顯著的性別和種族偏見。根據(jù)《科學(xué)》雜志中最新的研究表明,隨著機器越容易習(xí)得類人的語言能力,它們同樣就越容易習(xí)得語言應(yīng)用范式中根深蒂固的偏見。 隨著越來越多影響我們?nèi)粘I畹膯栴}讓渡給機器人作出決定,現(xiàn)存的社會不平等和偏見以新的、不可預(yù)知的方式被強化,這一發(fā)現(xiàn)使這個噩夢縈繞人們心頭。 隨著機器越容易習(xí)得類人的語言能力,它們同樣就越容易習(xí)得語言應(yīng)用范式中根深蒂固的偏見。圖片來自: KTS Design/Getty Images/Science Photo Library RF 巴斯大學(xué)的計算機科學(xué)家和論文的聯(lián)合作者Joanna Bryson說:“許多人認(rèn)為這表明了AI具有偏見。其實并不然,這表明了我們是有偏見的,而AI正在學(xué)習(xí)這種偏見?!?但Bryson同樣警告說,AI有著加強現(xiàn)存偏見的可能,因為不同于人類,算法無法自覺抵抗習(xí)得的偏見。她說:“危險在于AI系統(tǒng)不為道德所駕馭,一旦你擁有了這樣的一個系統(tǒng),這就糟糕了?!?文字嵌入:獲取單詞背后的文化和社會背景含義 論文聚焦于機器學(xué)習(xí)工具,即“文字嵌入“,這種機器學(xué)習(xí)工具已經(jīng)改變了計算機翻譯演講和文本的方式。有人聲稱下一步自然就是使機器發(fā)展出類人能力,比如具有常識判斷和邏輯。 普林斯頓大學(xué)的計算機科學(xué)家和論文的資深作者Arvind Narayanan說:“我們選擇研究文字嵌入的主要原因,是由于在最近幾年里,幫助機器搞清語言方面的努力已經(jīng)取得了令人驚嘆的成功。“ 這一已經(jīng)應(yīng)用于網(wǎng)頁檢索和機器翻譯的方法通過建立起一種語言的數(shù)學(xué)化表述來發(fā)揮作用。在這種數(shù)學(xué)化的表述下,文字和基于其一同頻繁出現(xiàn)的意義一道,被抽象為一系列數(shù)字(即矢量)。盡管這令人驚奇,但算法似乎正在以一種字典也不能定義的方式,獲取一個單詞背后豐富的文化和社會背景含義。 比如,在數(shù)學(xué)化的“語言空間“中,“花“的單詞總是與具有褒義的詞匯相聯(lián)系,而“昆蟲“的單詞則相反,反映出人們對昆蟲和花不同價值的共同觀點。最新的論文展示出,一些在人類心理實驗中更為棘手的隱性偏見同樣可以被算法輕而易舉地習(xí)得?!芭浴昂汀芭恕案子谕囆g(shù)人文類崗位和家庭聯(lián)系起來,而“男性“和“男人“則是與數(shù)理和工程類崗位。同時,人工智能系統(tǒng)更有可能將歐裔美國人的名字與褒義詞聯(lián)系起來,比如“天賦“或“快樂“,而非裔美國人的名字一般則更易與貶義詞相聯(lián)系。 這一發(fā)現(xiàn)表明,人們(至少在英美)在隱性的關(guān)聯(lián)測試中將褒義詞與白面孔聯(lián)系在一起,算法習(xí)得了這一偏見。 這些偏見會對人類行為產(chǎn)生深遠(yuǎn)影響。曾有研究表明,對于一份完全相同的簡歷,有著歐裔美國人名字的候選人會比有著非裔美國人名字的候選人更有可能獲得面試邀請,這一可能性超過了50%。最新的結(jié)果顯示,除非明確進(jìn)行了程序化處理,算法將會充滿同樣的社會偏見。 “如果你不相信人名和種族主義之間存在著聯(lián)系的話,這就是證據(jù)?!癇ryson說。 該研究中,機器學(xué)習(xí)工具的檢驗基于一個名為“網(wǎng)絡(luò)爬蟲“的資料庫““它包含了在線發(fā)表的資料,包括8400億個單詞。使用谷歌新聞的數(shù)據(jù)做檢驗,也得到了相似的結(jié)果。 算法為處理偏見提供機會 牛津大學(xué)的數(shù)據(jù)倫理和算法的研究者Sandra Wachter說:“世界是有偏見的,歷史數(shù)據(jù)是有偏見的,因此我們得到了有偏見的結(jié)果也就不足為奇了。“她補充道,“與其說算法代表著一種威脅,它們更能為處理偏見提供機會,以及在合適的時機消除這些偏見?!?“至少我們可能在算法出現(xiàn)偏見的時候獲悉這種偏見,“她說,“而人類呢,卻可以在不雇傭某人的原因上撒謊。相比而言,我們不用指望算法欺騙我們?!?但是Wachter聲稱,未來的挑戰(zhàn)在于,如何在消除算法中不合理的偏見之余,依舊保留它強有力的翻譯能力,畢竟算法是設(shè)計來理解語言的。 “理論上我們可以建立系統(tǒng)檢測有偏見的決策并對此采取行動,“Wachter說,她與其他人一道,呼吁建立起針對人工智能的監(jiān)管,“這是一項復(fù)雜的任務(wù),但卻是我們社會不能回避的責(zé)任?!?
«
銀監(jiān)會:互聯(lián)網(wǎng)金融等成銀行業(yè)重點風(fēng)險防控領(lǐng)域
|
去不了 BAT 的你 如何選擇「至少三年不會倒閉」的創(chuàng)業(yè)公司?
»