平常出門,要是看到男孩子長相干凈、清秀,估計就會有一些人會在心里說:這不會是個gay吧。不過有趣的是選擇國外已經(jīng)開始用人工智能來識別gay啦。下面出國留學(xué)網(wǎng)來為你解析美國的人工智能居然能識別性取向?
但是,判斷一個人直不直,真的可以靠看臉么?
最近,斯坦福大學(xué)的科學(xué)家Michal Kosinski和Yilun Wang,開發(fā)出了一項專門“看臉”的黑科技。
只要給這個人工智能系統(tǒng)看一眼照片,它就能告訴你照片里的人是不是同性戀,而且準(zhǔn)確率高達(dá)91%!
這項人工智能,是建立在“性向可以影響一個人的面部外觀”這個觀點上的。
這兩位科學(xué)家相信,從在媽媽的子宮里開始,荷爾蒙(比如睪丸素,男性荷爾蒙的一種)就影響著胎兒骨頭結(jié)構(gòu)的塑造,也將在日后影響他們的性取向。
所以,這么來說,同性戀人群會有相似的面部特征,這些特征也許非常細(xì)微,但應(yīng)該能夠被人工智能捕捉到。
他們是這么訓(xùn)練人工智能的…
首先,從美國的約會軟件上下載用戶的照片。他們一共下載了36,630位男性的130,741照片,以及38,593位女性的170,360張照片。
這些照片的主人,都在個人主頁上明確地標(biāo)注出了自己的性取向。
剔除其中非白人、非成年人、看不到全臉以及漫畫頭像的照片,最后剩下了來自14,776位用戶的35,326 張照片,其中男的女的、直的彎的都有。
接著,電腦開始分析照片里人物的面部特征,包括臉型、顴骨、鼻子、下巴…
最終得出了4張圖,分別是直男、直女典型臉以及同性戀男女的平均臉…
從圖片上來看,相比純直男,同性戀男性的眉尾上挑,外眼角更高,鼻頭更長,嘴唇稍厚,臉型更窄,下巴更尖;
而相比純直女,同性戀女性的整個眉骨更高,嘴的位置會低一些,嘴角上揚角度沒有那么明顯,下巴會更長…
(恕朕直言,彎的男和女都長得更好看啊…)
等到人工智能已經(jīng)熟練掌握了辨別一個人是直還是彎的奧義,研究員決定考考它。
他們給它看一個gay和一個直男照片,在每人只給出一張照片的情況下,人工智能判斷其性向的準(zhǔn)確率能達(dá)到81%,而當(dāng)把同一個人的照片增加到5張時,準(zhǔn)確率竟高達(dá)91%。
對于直女和拉拉的判斷上,人工智能就相對沒有這么在行了,在只給出一張照片時,準(zhǔn)確率只有71%,而當(dāng)照片增加到5張時,準(zhǔn)確率提升至83%。
研究員還找來人類志愿者跟人工智能PK。
結(jié)果發(fā)現(xiàn),人類在這方面沒啥天賦,基本靠瞎蒙。
志愿者光靠看臉來判斷一位男性是gay還是直男時,準(zhǔn)確率為61%,但在辨別一位女性的性向時,準(zhǔn)確率只有54%。
科學(xué)家又隨機(jī)給了人工智能1000個人的照片,同一人有5張照片,讓它去做判斷…
結(jié)果,根據(jù)人工智能的判定,其中有7%的人為同性戀,研究員表示,這也反映出了同性戀人群在總?cè)丝谥械恼急惹闆r。
但是,當(dāng)要求人工智能挑出其中100張“長得最gay里gay氣的臉”時,電腦給出的100張照片里,只有47人確實是同性戀。
而讓它精選出其中的Top10“基佬臉”時,準(zhǔn)確率提高到了90%!
說到這兒,肯定有小伙伴好奇…
這個人工智能究竟有什么用?
額…好像并沒有什么卵用…
它的開發(fā)者Dr Kosinski也承認(rèn),做這個項目只是想示威,目的是警告決策者們?nèi)斯ぶ悄艿膹?qiáng)大。
開發(fā)這項系統(tǒng)前,他還開發(fā)了一套通過分析用戶的Facebook資料,就能推斷出一個人的性格的軟件。
在去年的總統(tǒng)競選中,這款軟件被川普團(tuán)隊用來識別不同性格的潛在支持者,針對他們不同的個性,使用不同的拉票策略,以得到他們的支持。
Dr Kosinski強(qiáng)調(diào),人工智能的發(fā)展,同時也意味著個人隱私被暴露的必然性。
從好的方面來說,如今越來越多的妻子開始懷疑自己的丈夫是不是gay,在Google上,“我的丈夫是不是gay?”的熱搜程度超過了“我丈夫是不是有外遇了?”,這項技術(shù)能夠幫助有這方面疑慮的妻子早日維護(hù)起自己的權(quán)益。
而另一方面,在一些社會中,同性戀依舊是不被接受,甚至是不合法的,這樣的人工智能會給同性戀人群的安全構(gòu)成威脅。
像這樣會侵犯到隱私的人工智能,還是智障一點比較好…

