人工智能面孔如何欺騙我們存在令人不安的種族偏見(jiàn)
ChatGPT 有沒(méi)有給你一種怪異的感覺(jué),你正在與另一個(gè)人互動(dòng)?
人工智能(人工智能)已經(jīng)達(dá)到了驚人的現(xiàn)實(shí)主義水平,以至于一些工具甚至可以愚弄人認(rèn)為他們正在與之互動(dòng)另一個(gè)人.
詭異并不止于此。在一個(gè)今天發(fā)表的研究在心理科學(xué),我們發(fā)現(xiàn)了由流行的StyleGAN2 算法看起來(lái)比真人的臉更“人性化”。
AI 創(chuàng)建超逼真的面孔
在我們的研究中,我們向 124 名參與者展示了許多不同白人面孔的圖片,并要求他們決定每張面孔是真實(shí)的還是由 AI 生成的。
一半的圖片是真實(shí)的面孔,而一半是人工智能生成的。如果參與者是隨機(jī)猜測(cè)的,我們預(yù)計(jì)他們大約有一半的時(shí)間是正確的——類似于擲硬幣和獲得反面的一半時(shí)間。
相反,參與者系統(tǒng)性地錯(cuò)了,更有可能說(shuō)人工智能生成的面孔是真實(shí)的。平均而言,人們?cè)谌斯ぶ悄苌傻拿婵字?,大約有三分之二的人臉是人類。
這些結(jié)果表明,人工智能生成的人臉看起來(lái)比實(shí)際的人臉更真實(shí);我們稱這種效應(yīng)為“超現(xiàn)實(shí)主義”。他們還表示,平均而言,人們不太擅長(zhǎng)檢測(cè)人工智能生成的面孔。您可以自己將頁(yè)面頂部的真實(shí)人物肖像與下面嵌入的肖像進(jìn)行比較。
但也許人們意識(shí)到自己的局限性,因此不太可能成為人工智能在線生成面孔的犧牲品?
為了找到答案,我們?cè)儐?wèn)了參與者對(duì)自己的決定的信心。矛盾的是,那些最不善于識(shí)別人工智能冒名頂替者的人對(duì)他們的猜測(cè)最有信心。
換句話說(shuō),那些最容易被人工智能欺騙的人甚至沒(méi)有意識(shí)到他們被欺騙了。
有偏差的訓(xùn)練數(shù)據(jù)提供有偏差的輸出
這第四次工業(yè)革命——包括人工智能、機(jī)器人和先進(jìn)計(jì)算等技術(shù)——深刻地改變了我們?cè)诰W(wǎng)上看到的“面孔”類型。
人工智能生成的面孔很容易獲得,它們的使用既有風(fēng)險(xiǎn)也有好處。雖然他們已經(jīng)習(xí)慣了幫助尋找失蹤兒童,它們也被用于身份欺詐,鯰魚和網(wǎng)絡(luò)戰(zhàn).
人們對(duì)檢測(cè)人工智能面孔的能力的錯(cuò)誤信心可能會(huì)使他們更容易受到欺騙行為的影響。例如,他們很容易將敏感信息交給偽裝在超現(xiàn)實(shí)人工智能身份背后的網(wǎng)絡(luò)犯罪分子。
人工智能超現(xiàn)實(shí)主義的另一個(gè)令人擔(dān)憂的方面是它帶有種族偏見(jiàn)。用來(lái)自另一項(xiàng)研究的數(shù)據(jù)它還測(cè)試了亞洲和黑人的面孔,我們發(fā)現(xiàn)只有人工智能生成的白人面孔看起來(lái)非常逼真。
當(dāng)被要求決定有色人種的面孔是人類還是人工智能生成的時(shí),參與者猜對(duì)了大約一半的時(shí)間——類似于隨機(jī)猜測(cè)。
這意味著 AI 生成的白色面孔看起來(lái)比 AI 生成的彩色面孔以及白色人臉更真實(shí)。
偏見(jiàn)和超現(xiàn)實(shí)人工智能的影響
這種種族偏見(jiàn)可能源于這樣一個(gè)事實(shí),即人工智能算法,包括我們測(cè)試的算法,通常是在大多數(shù)白人面孔的圖像上訓(xùn)練的。
算法訓(xùn)練中的種族偏見(jiàn)可能會(huì)產(chǎn)生嚴(yán)重影響。最近的一項(xiàng)研究發(fā)現(xiàn),自動(dòng)駕駛汽車是不太可能發(fā)現(xiàn)黑人,使他們面臨比白人更大的風(fēng)險(xiǎn)。生產(chǎn)人工智能的公司和監(jiān)督它們的政府都有責(zé)任確保人工智能的多元化代表性并減輕偏見(jiàn)。
人工智能生成內(nèi)容的真實(shí)性也引發(fā)了人們對(duì)我們準(zhǔn)確檢測(cè)和保護(hù)自己的能力的質(zhì)疑。
在我們的研究中,我們確定了幾個(gè)使白色 AI 面孔看起來(lái)超現(xiàn)實(shí)的特征。例如,它們通常具有相稱且熟悉的特征,并且缺乏使它們從其他面孔中脫穎而出的鮮明特征。參與者將這些特征誤解為“人性”的標(biāo)志,導(dǎo)致超現(xiàn)實(shí)主義效果。
與此同時(shí),人工智能技術(shù)發(fā)展如此之快,看看這些發(fā)現(xiàn)能應(yīng)用多久會(huì)很有趣。也不能保證其他算法生成的AI面孔會(huì)像我們測(cè)試的那樣與人臉不同。
自我們的研究發(fā)表以來(lái),我們還測(cè)試了人工智能檢測(cè)技術(shù)識(shí)別人工智能人臉的能力。盡管這項(xiàng)技術(shù)聲稱可以高精度地識(shí)別我們使用的特定類型的人工智能面孔,但它的表現(xiàn)與我們的人類參與者一樣差。
同樣,用于檢測(cè) AI 寫作的軟件也具有很高的誣告他人作弊– 尤其是母語(yǔ)不是英語(yǔ)的人。
管理 AI 的風(fēng)險(xiǎn)
那么,人們?nèi)绾伪Wo(hù)自己不被誤認(rèn)為是人工智能生成的內(nèi)容是真實(shí)的呢?
一種方法是簡(jiǎn)單地意識(shí)到人們?cè)趯?AI 生成的面孔與真實(shí)面孔區(qū)分開來(lái)時(shí)表現(xiàn)不佳。如果我們更加警惕自己在這方面的局限性,我們可能不太容易受到網(wǎng)上看到的內(nèi)容的影響——并且可以在重要的時(shí)候采取額外的措施來(lái)驗(yàn)證信息。
公共政策也發(fā)揮著重要作用。一種選擇是要求聲明使用人工智能。然而,這可能無(wú)濟(jì)于事,或者當(dāng)人工智能被用于欺騙目的時(shí),可能會(huì)無(wú)意中提供一種虛假的安全感——在這種情況下,幾乎不可能進(jìn)行監(jiān)管。
另一種方法是專注于驗(yàn)證可信來(lái)源。與“澳大利亞制造”或“歐洲CE標(biāo)簽”類似,應(yīng)用可信來(lái)源徽章(可以驗(yàn)證并且必須通過(guò)嚴(yán)格的檢查獲得)可以幫助用戶選擇可靠的媒體。
艾米·達(dá)維爾,臨床心理學(xué)家,心理學(xué)研究學(xué)院講師,澳大利亞國(guó)立大學(xué);本·阿爾伯特·斯圖爾德, ,澳大利亞國(guó)立大學(xué);克萊爾·薩瑟蘭,高級(jí)講師,University of Aberdeen;伊娃·克魯姆胡伯副教授倫敦大學(xué)學(xué)院和扎卡里·維特科沃助理教授University of 大學(xué)阿姆斯特丹
湖北農(nóng)機(jī)化
農(nóng)業(yè)基礎(chǔ)科學(xué) - 省級(jí)期刊
智力
合作期刊 - 省級(jí)期刊
商訊
合作期刊 - 省級(jí)期刊
中國(guó)外資
合作期刊 - 國(guó)家級(jí)期刊
吉林畫報(bào)
合作期刊 - 省級(jí)期刊
當(dāng)代教育實(shí)踐與教學(xué)研究
合作期刊 - 省級(jí)期刊
科技智囊
合作期刊 - 國(guó)家級(jí)期刊
通信技術(shù)
合作期刊 - 國(guó)家級(jí)期刊
寫真地理
合作期刊 - 省級(jí)期刊
度假旅游
合作期刊 - 省級(jí)期刊
現(xiàn)代營(yíng)銷
合作期刊 - 省級(jí)期刊