美國南加州年夜學的研討人員針對人工智能體系停止練習,使其得以剖析并控制人類行動與面貌中的奧妙線索,并停止猜測…
人工智能(artificial intelligence;AI)體系能經過剖析您看電視的習氣,“神準”地推舉您能夠會愛好的電視節目,這聽起來曾經夠使人毛骨悚然了,如今,AI體系正接收更新的練習——遴選出人類行動與面貌中的纖細線索,使其在某些情形下比人類更具有直覺才能。
在一項試驗中,AI被用于婚姻醫治平分析配頭的聲響特點,并猜測醫治的成果。依據這項試驗顯示,AI在猜測醫治成果方面非常勝利,有時還比人類專家更精確。
在婚姻醫治中有兩項變量使其難以評價能否獲得停頓。每對伉儷之間的關系靜態都不雷同,醫治師的工資評價永久都是相當客觀的。是以,該范疇一向努力于成長出一些客不雅的目標。
美國南加州年夜學(University of Southern California;USC)的一項研討籌劃中,研討人員試圖開辟的AI體系可望供給這一類的目標。固然今朝曾經有一項研討能將各類聲響特點映像至情感,包含常常用于辨識的特點(如聲調和強度),和分離構成聲調和幅度的頻率擾動度(jitter)與振幅擾動度(shimmer)等其它特點。另外一個是諧波噪聲比(HNR)。
為了評價這些特點并將其映像至情緒,以利于剖析配頭之間的對話質量,研討人員開辟了一套龐雜的算法。正如研討人員在其論文“依據語音聲學特微猜測配頭醫治成果”(Predicting couple therapy outcomes based on speech acoustic features)中所說明的,這些對話顯示畏縮或回避的跡象嗎?這會增長回避的嚴重性、頻率(壞)或削減(好)?對話中存在滑稽的跡象嗎?增長(好)照樣削減(壞)?哪些對話的特點更具有扶植性?哪些較少?主要性若何? 20171018-AI-marriage-1 該體系還斟酌了這些對話的特點,例如誰在措辭?在什么時候措辭?和連續說了若干時光等等。風趣的是,AI卻疏忽了對話的內容。
一旦研討人員對其AI體系停止練習后,便可以將它套用在具有已知成果的現稀有據集上。另外一方面,研討人員也請求人類心思學家評價雷同的數據,包含措辭內容和語音特征等,成果顯示關于雷同案例的準確猜測率約75.6%。而AI僅應用語音特征,就到達79.3%的勝利猜測率。
研討人員表現,研討成果有助于進一步勉勵其他有關丈量非說話線索方面的研討,從而協助這一類型的醫治。
例如,美國斯坦福年夜學(Stanford University)的研討人員練習神經收集辨識35,000張以上的面孔,以肯定它能否能僅透過表面特點鑒別異性戀和異性戀者。最初獲得的結論也就成為其論文主題:“深度神經收集比人類更能精確從面部影象辨別性取向”(Deep neural networks are more accurate than humans at detecting sexual orientation from facial images)。
多年來,異性戀和女異性戀的話題一向激發關于“異性戀雷達”(gaydar)方面的研討興致,但在稱號上卻老是離開不了直覺。斯坦福年夜學的研討仿佛相似于面相學和顱相學等“偽迷信”,因此使其論文更具爭議性,但其初步的研討成果也不容疏忽。
作者指出個中一項研討顯示,當人們看到某小我的臉,就可以以更佳精確度識別出這小我,和發覺其情緒狀況、小我特質、性取向與其他特質。
他們還提到“出身前激素實際”(prenatal hormone theory),該實際為性取向供給了心理的基本(研討還沒有作出結論)。他們在文章中提道:“這與性取向的出身前激素實際分歧,男異性戀者和女異性戀者的面孔常常具有非典范的性別特點、臉色和裝扮作風。”(但這其實不表現一切的男異性戀比男異性戀更女性化,也不是指沒有男異性戀具有明顯的男性臉部特點,女異性戀的情形也是如斯。)
研討人員以為,他們練習神經收集同時斟酌固定的面部特點(例如鼻子的外形)和不固定的特點(裝扮作風)。
研討人員應用結交網站上那些將本身標示為異性戀或異性戀者的照片。當供給兩張分歧面部(一張異性戀和一張異性戀者)的照片給神經收集判讀時,AI體系可準確猜想到男性的機率為81%,猜想到女性的精確率為71%。至于人類判讀者的精確率分離落在61%與54%。
作者明白指出,這項研討存在局限性,極可能會招致風險的效果,是以不要誤會或許過度解讀研討成果。起首,神經收集和人類斷定之間的成果顯示,神經收集偵測到的面部特點差別異常奧妙,人類很明顯不會留意到這些特點。
