應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

推文照片預(yù)覽有種族偏見?Twitter回應(yīng):將開源算法

2020-09-23 14:15 智東西

導(dǎo)讀:針對(duì)多名用戶稱推文預(yù)覽存在種族歧視的問題,Twitter回應(yīng),將展開更多調(diào)查并公開算法源代碼,歡迎用戶查看算法、提出意見。

先前,多名用戶發(fā)現(xiàn),在有不同人種的照片中,Twitter的自動(dòng)圖像裁剪算法會(huì)在選擇預(yù)覽推文呈現(xiàn)的縮略圖區(qū)域時(shí),更加突出膚色更淺的人像區(qū)域。

一、多個(gè)實(shí)驗(yàn)表明,圖像剪裁算法更難識(shí)別深色人種

在滑動(dòng)手機(jī)時(shí),人們通常不會(huì)注意到附在推文預(yù)覽上的縮略圖,但在上周,研究人員卻發(fā)現(xiàn)用于提取縮略圖的裁剪算法可能更“偏心”白種人。

在多名用戶發(fā)布的不同人種的照片中,Twitter傾向于在縮略圖中突出淺色人種的圖像,而如果你點(diǎn)擊這些原始圖片,可以看到其中包含更多其他膚色的人群,但即使改變了原圖中深色人種和淺色人種出現(xiàn)的位置,預(yù)覽結(jié)果也不會(huì)改變。

密碼及基礎(chǔ)架構(gòu)工程師Tony Arcieri也在推特上進(jìn)行了一項(xiàng)實(shí)驗(yàn),展示了美國(guó)前總統(tǒng)巴拉克·奧巴馬(Barack Obama)和參議員米奇·麥康奈爾(Mitch McConnell)的面孔。而無論二人位置如何,或者改變其他潛在干擾因素,例如領(lǐng)帶的顏色等,算法都傾向于在預(yù)覽的縮略圖中展示Mitch McConnell的臉。

也有網(wǎng)友認(rèn)為,出現(xiàn)這一情況是因?yàn)樗惴ǜ鼉A向于提取圖像中的亮度高和色彩密度大的區(qū)域,并不是“偏見”。

二、Twitter最新回應(yīng):測(cè)試中并未發(fā)現(xiàn)種族歧視證據(jù)

針對(duì)該實(shí)驗(yàn),Twitter發(fā)言人利茲·凱利(Liz Kelley)回應(yīng)稱,在算法正式使用前的測(cè)試中并沒有發(fā)現(xiàn)種族或性別歧視的證據(jù),但仍需進(jìn)一步分析,并補(bǔ)充,公司將公開機(jī)器學(xué)習(xí)算法的源代碼,以便“其他人可以查看和復(fù)制” Arcieri實(shí)驗(yàn)的結(jié)果,并深入探討問題的根源。

德國(guó)的開發(fā)人員比安卡·卡斯特(Bianca Kastl)就其中一個(gè)線程中解釋道,Twitter的算法可能是基于顯著性,也就是人們視覺搜索的順序,來裁剪圖像的。

Twitter在2018年的博客文章中支持了他的理論,并解釋了其用于圖像裁剪的神經(jīng)網(wǎng)絡(luò)算法。先前,Twitter將面部檢測(cè)功能納入裁剪圖像的部分,但這種方法并不適用于沒有面孔的圖像,所以社交網(wǎng)絡(luò)轉(zhuǎn)而采用了基于顯著性的算法。

但即使Twitter算法并沒有有意地產(chǎn)生“種族偏見”,但也有足夠多證據(jù)證明,其在研發(fā)過程中的缺陷導(dǎo)致“種族歧視”出現(xiàn)。 NVIDIA的AI研究總監(jiān)Anima Anandkumar指出,顯著性算法采用的訓(xùn)練集,是異性戀男性的眼球追蹤的數(shù)據(jù),而這顯然會(huì)將受試者的種族偏見轉(zhuǎn)移給算法。

三、錯(cuò)誤識(shí)別引起烏龍,算法“偏見”并非個(gè)例

基于性別膚色的面部識(shí)別準(zhǔn)確率差異早已不是新鮮事了。早在2018年,微軟在識(shí)別膚色較淺的男性時(shí),準(zhǔn)確性就已達(dá)到了100%,但在識(shí)別深色皮膚女性時(shí),準(zhǔn)確率僅為79.2%。

在推特“偏見”事件發(fā)生前,今年六月初,微軟也同樣因?yàn)槊娌孔R(shí)別涉及種族歧視引起了一場(chǎng)烏龍。英國(guó)知名女團(tuán)Little Mix成員Jade Thirlwall發(fā)文,猛烈抨擊微軟新聞網(wǎng)站MSN在關(guān)于自己的報(bào)道中混淆使用了團(tuán)內(nèi)另一位成員的照片,隨后,該篇報(bào)道證實(shí)是由AI抓取并生成,卻在尋找配圖時(shí)把黑皮膚的Leigh和阿拉伯裔的Jade弄混了。

隨著越來越多的新聞網(wǎng)站和社交媒體采用AI識(shí)別、提取圖片,人們開始注意到許多算法,尤其是面部識(shí)別中存在的種族偏見。

結(jié)語(yǔ):算法偏見問題正引起重視

越來越多的用戶投訴網(wǎng)站中潛在的種族偏見,再加上“黑人的命也是命”的抗議活動(dòng)升級(jí)后,許多科技公司被迫反思系統(tǒng),尤其是面部識(shí)別技術(shù)中存在的偏見,包括IBM和Amazon在內(nèi)的一大批公司緊急暫停或中止面部識(shí)別系統(tǒng)的工作。

Twitter也承諾將其圖像裁剪的機(jī)器學(xué)習(xí)算法開源,接受更多用戶的審查和建議,其首席技術(shù)官Parag Agarwal表示,該算法需要不斷改進(jìn),團(tuán)隊(duì)也渴望從經(jīng)驗(yàn)中學(xué)習(xí)。