
上面是人類的選美比賽
【AI世代編者按】全球各種選美大賽選出的“佳麗”,你是不是一直看不慣?是不是質(zhì)疑人類太主觀的眼光?曾經(jīng)幻想著能有一種客觀標(biāo)準(zhǔn),能使選美的結(jié)果讓所有人驚艷。全球首次由人工智能擔(dān)任評(píng)委的國(guó)際選美大賽,就出自這樣的初衷。但機(jī)器人的選擇,也引發(fā)了一系列爭(zhēng)議。
這個(gè)選美大賽名字為Beauty.AI 2.0,是第一屆由“機(jī)器”擔(dān)任裁判的國(guó)際選美比賽,由一群俄羅斯和香港的青年搞的青年實(shí)驗(yàn)室(Youth Laboratories)發(fā)起,該實(shí)驗(yàn)室獲得了微軟和英偉達(dá)支持。

Beauty.AI 2.0對(duì)來自100多個(gè)國(guó)家的6000張自拍照進(jìn)行了評(píng)估,借助算法綜合考慮了年齡、皮膚、對(duì)稱性等因素,還將參賽者的外貌與演員和模特進(jìn)行了對(duì)比,最終按照年齡和性別對(duì)優(yōu)勝者進(jìn)行了分組評(píng)定。
以下是18至29歲年齡組排名前5的女性:

機(jī)器人的“審美”
看到這樣的結(jié)果,你的內(nèi)心是崩潰的,對(duì)不對(duì)?這不是你一個(gè)人的感覺,相信絕大多數(shù)人看到這個(gè)結(jié)果內(nèi)心都會(huì)蹦出一個(gè)字。
Beauty.ai表示,很多選手都寫信表示抗議,其中一人寫道:“你們的‘機(jī)器人’價(jià)值何在?隨便逛逛商場(chǎng),我就能找到比你們的選美大賽‘優(yōu)勝者’更漂亮的人。”
Beauty.ai首席科學(xué)家亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)則辯稱:“我也無法認(rèn)同機(jī)器人選出的部分優(yōu)勝者,但整體還算不錯(cuò)。”
作為該算法的一個(gè)指標(biāo),AntiAgeist會(huì)評(píng)估一個(gè)人相對(duì)其真身年齡的年輕程度,將參賽者的真實(shí)年齡與系統(tǒng)預(yù)測(cè)的真實(shí)年齡以及此人看上去的年齡進(jìn)行對(duì)比。在上圖中,Lu Sophia得分最高,因?yàn)檎鎸?shí)年齡達(dá)到18歲的她,在機(jī)器人眼中只有13歲。
該算法中的PIMPL指標(biāo)評(píng)估了膚色,RYNKL則著眼于皺紋。
MADIS則將參選者與數(shù)據(jù)庫中的演員和模特的面部進(jìn)行了對(duì)比。其中一個(gè)組件將其與數(shù)據(jù)庫中的平均美貌進(jìn)行對(duì)比,另外一個(gè)則將其與這些“美人”的特點(diǎn)進(jìn)行對(duì)比。
最后,Symmetry Master則考察了面部的對(duì)稱性。
以下為此次選美比賽其他年齡組和性別的獲勝者:



算法的“偏見”
另外一個(gè)令這套系統(tǒng)的創(chuàng)造者感到心灰意冷的是,他們發(fā)現(xiàn)勝出者都有一個(gè)明顯的特點(diǎn):機(jī)器人不喜歡深色皮膚的人。
44位勝出者幾乎都是白人,只有少數(shù)幾位亞洲人,黑人則只有1位。盡管多數(shù)參賽者都是白人,但很多有色人種也都提交了照片,包括大量的印度人和非洲人。
隨之而來的爭(zhēng)議引發(fā)了激烈的討論:算法為什么會(huì)存在偏見,并在無意間產(chǎn)生冒犯性的結(jié)果?
當(dāng)微軟今年3月推出了“千禧一代”聊天機(jī)器人Tay時(shí),它很快學(xué)會(huì)了種族主義言論,并在Twitter上傳播新納粹觀點(diǎn)。在Facebook上月去掉了負(fù)責(zé)篩選“趨勢(shì)”新聞的人類編輯后,計(jì)算機(jī)算法很快就把假新聞和粗俗消息推送到News Feed中,包括一篇有關(guān)男子用雞肉三明治自慰的文章。
雖然這次看似帶有種族主義意味的選美比賽引發(fā)了各界嘲笑,但計(jì)算機(jī)科學(xué)家和社會(huì)公正倡議者卻表示,在其他行業(yè)和領(lǐng)域,如果帶有偏見的人工智能系統(tǒng)得到大范圍應(yīng)用,那絕對(duì)不是一件好笑的事情。在某些情況下,甚至?xí)o有色人種帶來災(zāi)難性的后果。
Beauty.AI由微軟支持的深度學(xué)習(xí)組織Youth Laboratories開發(fā),它依靠龐大的照片數(shù)據(jù)庫來建立一種算法,借此評(píng)估人們的美貌。雖然有很多原因可以解釋算法為何偏向白人,但Beauty.AI首席科學(xué)官亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)的主要問題在于,該項(xiàng)目在建立美貌評(píng)價(jià)標(biāo)準(zhǔn)時(shí)使用的數(shù)據(jù),并沒有涵蓋足夠的少數(shù)族裔人群。
雖然該組織開發(fā)算法時(shí)并沒有將淺色皮膚作為美貌的標(biāo)準(zhǔn),但系統(tǒng)獲得的數(shù)據(jù)實(shí)際上卻導(dǎo)致機(jī)器人裁判得出了這樣的結(jié)論。
“如果數(shù)據(jù)庫中的有色人種不夠多,就會(huì)得出偏見。”扎沃倫科夫說,他也對(duì)結(jié)果頗感驚訝。“當(dāng)你訓(xùn)練計(jì)算機(jī)算法識(shí)別某種形態(tài)時(shí)……你手上的數(shù)據(jù)可能不夠充分,這些數(shù)據(jù)也有可能存在偏見。”
對(duì)于帶有偏見的算法,最簡(jiǎn)單的解釋就是:負(fù)責(zé)創(chuàng)造這些算法的人本身就帶有根深蒂固的偏見。換句話說,盡管人們認(rèn)為算法是公正、客觀的,但這些算法卻往往會(huì)延續(xù)和放大現(xiàn)有的偏見。
此事給我們提了一個(gè)醒:“真正負(fù)責(zé)思考的是人類。盡管這種思考以算法形式體現(xiàn)出來,而我們也認(rèn)為這種算法是中立而科學(xué)的,但本質(zhì)并沒有改變。”他說。
公民自由組織最近對(duì)基于計(jì)算機(jī)的執(zhí)法預(yù)測(cè)工具表達(dá)了擔(dān)憂——這類系統(tǒng)會(huì)使用數(shù)據(jù)預(yù)測(cè)犯罪可能發(fā)生在哪些地方——因?yàn)檫@些數(shù)據(jù)可能采用了有瑕疵的統(tǒng)計(jì)數(shù)據(jù),因而可能加劇種族偏見,并引發(fā)有害的警務(wù)措施。
“數(shù)據(jù)受到污染,結(jié)果也會(huì)受到污染。”媒體爭(zhēng)議中心(Center for Media Justice)執(zhí)行總監(jiān)馬爾基亞•賽麗爾(Malkia Cyril)說。
ProPublica今年早些時(shí)候進(jìn)行的一項(xiàng)調(diào)查發(fā)現(xiàn),用于預(yù)測(cè)未來犯罪活動(dòng)的軟件對(duì)黑人存在偏見,這有可能引發(fā)更嚴(yán)厲的量刑。
“這真的是人命關(guān)天的大事。”哈弗福德學(xué)院計(jì)算機(jī)科學(xué)教授索瑞勒•弗雷德勒(Sorelle Friedler)說。
弗雷德勒表示,關(guān)鍵問題在于,少數(shù)族裔在數(shù)據(jù)庫中的占比本身就比較低,因此算法很容易針對(duì)這些人得出不準(zhǔn)確的結(jié)論,而算法的創(chuàng)作者卻無法發(fā)現(xiàn)這一問題。例如,她表示,一套對(duì)印第安人存有偏見的算法可能被視作一大成功,因?yàn)檫@些人在人口總數(shù)中僅占2%。
“你可能得到98%的準(zhǔn)確率,并由此認(rèn)為自己設(shè)計(jì)了一套優(yōu)秀的算法。”
弗雷德勒表示,可以通過一些具有前瞻性的方法對(duì)算法進(jìn)行調(diào)整,以便糾正偏見,包括改進(jìn)輸入系統(tǒng)的數(shù)據(jù),或者增加一些過濾器,以便確保不同種族的人都能得到平等對(duì)待。
具有前瞻性的人工智能算法并不限于刑事司法系統(tǒng)。一項(xiàng)研究發(fā)現(xiàn),在網(wǎng)上看到高薪招聘廣告的女性遠(yuǎn)少于男性。谷歌(微博)的照片應(yīng)用去年甚至將黑人識(shí)別為大猩猩。
賽麗爾指出,計(jì)算機(jī)算法在糾正社會(huì)不平等的過程中發(fā)揮的作用非常有限。“在本應(yīng)著眼于制度變化的時(shí)候,我們卻過于依賴技術(shù)、算法和機(jī)器學(xué)習(xí)。”
扎沃倫科夫表示,當(dāng)Beauty.AI今年秋天舉行新一輪選美比賽時(shí),他希望通過對(duì)算法的一系列調(diào)整來規(guī)避歧視性結(jié)果。“我們將努力糾正這個(gè)問題。”
他補(bǔ)充道,機(jī)器人或許根本就不是最好的選美裁判:“更令我驚訝的是算法在選美過程中使用的標(biāo)準(zhǔn)。它從大量候選人中選出的優(yōu)勝者可能并不符合我自己的審美。”