欧美一区二区三区视视频_精品国产精品国产_国产精品福利资源在线_日韩一区二区三区在线视频

logo

行業(yè)新聞

歧視歷史竟延伸至人工智能領(lǐng)域

點(diǎn)擊數(shù):3926來源:發(fā)布時(shí)間:2016-06-29


      人工智能極大的方便了人們的生活,卻也在某些領(lǐng)域出現(xiàn)偏差,比如美國這個科技始終保持在世界前沿的過渡,其人工智能的應(yīng)用覆涵的領(lǐng)域非常多,可一些問題漸漸顯露出來,比如其種族這個“享譽(yù)”世界的歷史也被延伸到了智能領(lǐng)域。




      埃隆·馬斯克和 Nick Bostrom 等一些科技界大牛向世界發(fā)出了警告:人工智能的存在對人類是一種潛在的威脅,他們把機(jī)器智能超越人類智慧的臨界點(diǎn)叫做「奇點(diǎn)(the Singularity)」。人們已為此投入了數(shù)百萬美元,并舉辦了大批國際會議。


      但這種恐慌情緒讓人們忽視了今天人工智能的真正問題,其實(shí)它可能已經(jīng)在加劇工作場所、家庭、法律及司法系統(tǒng)的不平等。支持「智能」系統(tǒng)運(yùn)轉(zhuǎn)的機(jī)器學(xué)習(xí)算法很多在編寫時(shí)就被加入了性別和種族歧視以及其它形式的不平等觀念,這決定了我們被分類和接收廣告的方式。


      比如去年的那次事件:谷歌有個照片應(yīng)用,可以自動在電子相冊中把標(biāo)簽分配到不同照片上,用戶發(fā)現(xiàn)它會把黑人的照片歸類為大猩猩。谷歌做出了道歉,表示它并不是故意的。


      但類似的錯誤也出現(xiàn)在了尼康的拍攝軟件中,它誤認(rèn)為亞洲人在照片中眨眼(譯注:其實(shí)只是眼睛比較小),還有惠普的網(wǎng)絡(luò)相機(jī)軟件也很難識別出深色皮膚的人。


      美國各地的警察局也配置了類似的數(shù)據(jù)驅(qū)動型風(fēng)險(xiǎn)評估工具,用來預(yù)防「潛在的治安犯罪」。在很多城市,包括紐約、洛杉磯、芝加哥和邁阿密,警察局都會用軟件分析量大歷史犯罪數(shù)據(jù),預(yù)測犯罪熱點(diǎn)區(qū)域最可能出現(xiàn)的位置,并據(jù)此部署警力。


      這個軟件最起碼能持續(xù)預(yù)測出那些原本就是犯罪高發(fā)地的風(fēng)險(xiǎn),因此警察就會在本來就部署(或大量部署)警力的地方增強(qiáng)安保措施,保證了這些地區(qū)逮捕率的提高。在美國,這有可能導(dǎo)致對那些傳統(tǒng)上貧困的非白人居住區(qū)的監(jiān)控警力的增多,而富裕的白人居住區(qū)受到的監(jiān)控就更少。這些預(yù)測軟件只擅長分析它們訓(xùn)練時(shí)所用的數(shù)據(jù),而這些數(shù)據(jù)有復(fù)雜的歷史。


      歧視的歷史可能會延伸到數(shù)字平臺上,如果我們對此不聞不問,它們最終就會成為日常算法系統(tǒng)的邏輯的一部分。最近又有一樁丑聞曝出,亞馬遜的當(dāng)天送達(dá)服務(wù)在主要的黑人居住區(qū)的郵政編碼上是不可用的。而這些被忽視的區(qū)域的范圍竟然與 20 世紀(jì)中期被貸款歧視所影響的區(qū)域基本一致。亞馬遜承諾他們會填補(bǔ)這些空缺,但這也提醒了我們體制不平等對機(jī)器智能的影響有多深。


      我們要謹(jǐn)慎的設(shè)計(jì)和訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),否則未來的人工智能就會被植入根深蒂固的偏見。



      【云立方裝飾管理軟件以“裝飾產(chǎn)業(yè)轉(zhuǎn)型升級”為使命,致力改變行業(yè)管理現(xiàn)狀,優(yōu)化各環(huán)節(jié)資源,建設(shè)一個”ERP+APP+電商”的個性化的互聯(lián)網(wǎng)生態(tài)系統(tǒng)。】

首頁 |方案|支持|案例|關(guān)于