算法決定了我們生活中的很多東西,但是它在多樣性上還有待改進(jìn)。 編者按:替我們的生活做決定的算法越來(lái)越多,讓我們?cè)絹?lái)越擔(dān)心。這些算法決定了我們?cè)诨ヂ?lián)網(wǎng)上看的是什么、我們多大程度上會(huì)變成受害者或者教唆犯罪的人。算法使用數(shù)據(jù)集合進(jìn)行校驗(yàn),但是這些數(shù)據(jù)集合并不包括各個(gè)不同的人群。 相關(guān)閱讀:學(xué)壞容易學(xué)好難!人工智能將繼承人類的種族和性別偏見(jiàn) 這可能是一個(gè)令人感到意外的結(jié)果:依賴算法做決定本質(zhì)上具有傾向性。用谷歌、百度、必應(yīng)等搜索引擎以“手“或者“嬰兒“搜索圖片,你會(huì)發(fā)現(xiàn),這些圖片大部分都是白皮膚。 使用bing搜索“嬰兒“圖片,首屏只有白皮膚嬰兒的結(jié)果。 全球白網(wǎng),平衡搜索結(jié)果的膚色占比 2015年,平面設(shè)計(jì)師Johanna Burai在谷歌上搜索人類“手“的圖片,發(fā)現(xiàn)谷歌搜索最前面的結(jié)果只有白皮膚的手。隨后,她發(fā)起了“全球白網(wǎng)“(World White Web)計(jì)劃。通過(guò)她的網(wǎng)站,照片上傳者分享不同膚色的照片,她的網(wǎng)站就可以提供“可選擇“的手部圖片,用來(lái)平衡不同的膚色占比,因此,谷歌等搜索引擎就可以抓取不同膚色的照片。 谷歌說(shuō),它的圖片搜索結(jié)果是網(wǎng)絡(luò)內(nèi)容的反映,包括了某種類型的照片出現(xiàn)的頻率、它們?cè)诰W(wǎng)絡(luò)上添加的描述。這些反映并不涉及它的“價(jià)值觀“。 使用谷歌搜索“手“的圖片,結(jié)果也一樣。 Burai女士現(xiàn)在已經(jīng)不維護(hù)她的網(wǎng)站了,她相信事情已經(jīng)有所改觀。她說(shuō):“我認(rèn)為事情正在好轉(zhuǎn),人們看到了問(wèn)題。當(dāng)我發(fā)起這個(gè)計(jì)劃的時(shí)候,人們很震驚,而現(xiàn)在對(duì)于這個(gè)問(wèn)題,人們已經(jīng)給予了更多的關(guān)注?!?算法正義聯(lián)盟,檢測(cè)算法是否具有偏見(jiàn) 2016年11月,麻省理工學(xué)院(MIT)的研究生Joy Buolamwini創(chuàng)辦了算法正義聯(lián)盟(AJL)。她試著在一個(gè)項(xiàng)目中使用面部識(shí)別軟件,但是該軟件不能加載她的面部,因?yàn)锽uolamwini的膚色很深。 她說(shuō):“我膚色很深,而當(dāng)我戴上白色面具的時(shí)候,系統(tǒng)更容易識(shí)別。戴上面具其實(shí)已經(jīng)不能說(shuō)是一張臉了,更適合稱呼它為模型,而電腦可以輕易讀取該模型?!?Joy Buolamwini發(fā)現(xiàn),她的電腦能識(shí)別白色面具,而識(shí)別不了她膚色為黑色的臉。 這已經(jīng)不是她第一次遇到類似的問(wèn)題了。五年前,她不得不讓一個(gè)皮膚顏色更淺的室友來(lái)幫助她。 “我感慨萬(wàn)千。我很沮喪。因?yàn)檫@是一個(gè)五年還沒(méi)有被解決的問(wèn)題,“她說(shuō):“我很震驚,因?yàn)榘咨婢呔尤荒敲慈菀妆蛔R(shí)別?!?Buolamwini女士說(shuō):“如果給你的系統(tǒng)做測(cè)試的人跟你很像的話,你的系統(tǒng)會(huì)運(yùn)行地很好,然而你永遠(yuǎn)也不可能發(fā)現(xiàn)這其中有問(wèn)題。“她把AJL的反響描述為“巨大且強(qiáng)烈的“。 老師們想要把她的工作展示給學(xué)生;研究員想請(qǐng)她檢測(cè)他們自己的算法是否有偏見(jiàn)的跡象;人們向她報(bào)告自己的經(jīng)歷““這些人看起來(lái)似乎不少:一位研究員想檢測(cè)皮膚癌確診算法是否在深色皮膚中有效。 多樣性報(bào)告,硅谷巨頭們本身不具備多樣性 Buolamwini女士認(rèn)為,這種情況的出現(xiàn),部分原因是技術(shù)行業(yè)本身就有著證據(jù)確鑿的多樣性缺失。 每年,科技巨頭都會(huì)發(fā)布多樣性報(bào)告,它們揭示了嚴(yán)肅的現(xiàn)狀。 谷歌2016年1月份的最新數(shù)據(jù)顯示,技術(shù)人員有19%是女性,只有1%是黑人。 微軟2016年9月的數(shù)據(jù)顯示,17.5%的技術(shù)人員是女性,2.7%的技術(shù)人員是黑人或者非裔美國(guó)人。 Facebook2016年6月的數(shù)據(jù)指出,美國(guó)國(guó)內(nèi)的技術(shù)人員有17%是女性,1%是黑人。 有偏向的審美,數(shù)據(jù)集合單一的缺陷 去年有一場(chǎng)特殊的選美比賽,它收集了100個(gè)不同國(guó)家的大約6000張自拍,并讓算法來(lái)判定選美結(jié)果。在44個(gè)獲勝者當(dāng)中,只有一個(gè)是非白人,極少數(shù)是亞洲人。 該選美比賽當(dāng)中,18-29歲年齡段的女性獲勝者之三,沒(méi)有黑人,其他年齡段也沒(méi)有。 Beauty.AI網(wǎng)站的首席科學(xué)家Alex Zhavoronkov告訴《衛(wèi)報(bào)》,這個(gè)結(jié)果有缺陷,因?yàn)樾r?yàn)人工智能的數(shù)據(jù)集合不夠具有多樣性。他同時(shí)說(shuō)道:“如果數(shù)據(jù)集合中白種人占比過(guò)大,那么實(shí)際上有可能得到有偏見(jiàn)的結(jié)果?!?更嚴(yán)重的是,根據(jù)網(wǎng)站Propublica的研究,人工智能軟件在美國(guó)被用來(lái)預(yù)測(cè)哪一位罪犯可能再次犯罪時(shí),它被發(fā)現(xiàn)更容易錯(cuò)誤地把黑人罪犯識(shí)別為高再犯風(fēng)險(xiǎn)的人,而把白人罪犯識(shí)別為低再犯風(fēng)險(xiǎn)的人。 軟件公司對(duì)該研究表示懷疑。 技術(shù)樂(lè)觀主義者的解決之道 猶他大學(xué)計(jì)算機(jī)學(xué)院的副教授Suresh Venkatasubramanian(天吶名字好長(zhǎng))說(shuō),趁著問(wèn)題仍然可見(jiàn),人工智能的創(chuàng)造者現(xiàn)在就需要行動(dòng)。 他對(duì)BBC說(shuō):“最壞的可能就是,事情發(fā)生變化了,而我們不再意識(shí)到它。換言之,值得關(guān)心的是,因?yàn)槲覀円暩鶕?jù)算法作決策為理所應(yīng)當(dāng),其中的偏見(jiàn)將從我們承認(rèn)的人類偏見(jiàn)中,轉(zhuǎn)移到我們不再承認(rèn),因此也無(wú)法察覺(jué)的事物上。“ 我們是否創(chuàng)造了具有偏見(jiàn)的機(jī)器人呢? 然而他是一個(gè)技術(shù)樂(lè)觀主義者。 他說(shuō):“所有的算法都表現(xiàn)出種族主義在我看來(lái)講不通。并非因?yàn)檫@不可能,而是因?yàn)槟遣皇撬惴▽?shí)際運(yùn)行的方式。過(guò)去三四年間,已討論了關(guān)于算法的問(wèn)題和可能的解決方法。“ 他提供了一些方法: 創(chuàng)造更好、更具有多樣性的數(shù)據(jù)集合來(lái)校驗(yàn)算法(例如:算法通過(guò)處理成千上萬(wàn)張圖片進(jìn)行學(xué)習(xí)); 分享軟件供應(yīng)商的最好的實(shí)踐; 構(gòu)建能夠解釋決定的算法,從而任何偏見(jiàn)都能夠被理解。 Buolamwini女士說(shuō):“我現(xiàn)在開始想一個(gè)問(wèn)題,老年人在科技領(lǐng)域也并沒(méi)有自己的聲音,我們有沒(méi)有檢測(cè)并確保這一系統(tǒng)對(duì)老年人同樣有效呢?因?yàn)橐恍┏厝耸繄?bào)告了問(wèn)題,我就想,我們有沒(méi)有關(guān)注并確保這一系統(tǒng)對(duì)超重人群同樣有效呢?這絕對(duì)是擊中人們心弦的問(wèn)題?!?她現(xiàn)在也挺樂(lè)觀的:“如果人們能夠更多地意識(shí)到潛在的問(wèn)題,她對(duì)現(xiàn)狀的改善充滿希望。其實(shí)我們所創(chuàng)造的任何技術(shù),它們都是人類抱負(fù)和局限的反映。如果我們?cè)诎菪陨铣錆M局限性,這將會(huì)反映在我們開發(fā)的機(jī)器人上,或著納入機(jī)器人的技術(shù)上。“
«
幾個(gè)月過(guò)去 魅族魅藍(lán)Note5積攢超強(qiáng)口碑
|
銀行理財(cái)失去優(yōu)勢(shì) 互金理財(cái)成為香餑餑
»