人工智能只能為少數人代言
發布時間:2017/11/11 19:18:35 訪問次數:262
- 51電子網公益庫存:
- NC7SP14P5X
- OP270AZ/883
- P4M800PRO
- M1041
- N010-0550-T627
- OB2216AP
- P0848SNLT
- Q2220I-50N
- R1100D121C
- S03A1500W1
- T1235H-6G
- U.FL-R-SMT-1
- V23049-B1007-A331
- W11NM80
- X0202MA1BA2
具體來說,威脅不在于人工智能是否會超越他們現在所服務的目標(如管理對沖基金或招募新員工),也不在于它們是否會反抗主人。而在于,人工智能在替主人行事時,是多么的高效。http://xczykj.51dzw.com
事實上,由于機器人和人工智能還沒有展現出絲毫自主性或獨立性,霍金口中“新形式的生命”顯然對它們而言并不恰當。相反,它們的存在只是一種擴展形式,擴展的是制造和使用它們的群體。它們是一種復雜的工具,它們幫助組織執行某些活動。
正因為它們是其運作者的延伸,對社會而言才成為了潛在威脅。機器人是由特定人群設計和使用,而這些人有著特定的價值觀和利益。這意味著,它們的行動不可避免地會反映和推進這些價值觀和利益,而這些價值和利益并非符合所有群體和個人。它們具有卓越的效率和生產率,這意味著,它們將給擁有足夠資源的人帶來獨特的優勢,使其能夠以自己的想法塑造世界,而犧牲那些普通人的利益。
人工智能和人類學會了偏見
要了解人工智能如何增加社會、經濟和政治的不平等,你只需看看最近的例子,這些例子表明,人工智能和機器學習算法已經顯示出了偏見。
例如,2016年5月,propublica的一項研究顯示,在美國多個州使用的累犯評估算法對非裔美國人存在偏見,不其標記為“更高危人群”的比例為44.9%,而白人的這一比例為23.5%。
又如,2017年4月在《科學》雜志上發表的一篇研究論文發現,在互聯網上學習大量的詞匯聯想時,機器學習工具獲得了關于女性和非裔美國人的“類似人的語義偏見”(也就是刻板印象)。
之所以出現這樣的偏見,是因為人工智能和機器人從它們所接收的數據和參數中學習。更常見的情況是,這些數據和參數來自于那些設計和使用它們的人:即社會等級較高,享有特權的白人男性。
正因為如此,人工智能面部識別軟件難以識別有色人種的臉。也因為如此,人工智能和機器人能夠更好地促進其制造者和所有者的利益,而不是其他人的利益。
更重要的是,到2027年,他們的工作效率會更卓越,會滲透到大約2470萬個工作崗位,這意味著,他們將在大部分生活和工作領域打下其制造者的烙印。它們會讓數以百萬計的工薪階層失業,它們將會給有能力采用它們的組織巨大的商業競爭優勢。因此,若一些國家和階層能夠制造并擁有它們,這些國家和群體將會增強更大的全球影響力。
人工智能只能為少數人代言
基于上述原因,目前越來越多向機器人賦權(甚至是賦予公民身份)的討論令人不安。機器人和人工智能受其主人產權的保護,是不能被隨意破壞的。 http://xczykj.51dzw.com
因此,很明顯,賦予他們“權利”并不意味著給予他們免受破壞的消極權利(因為他們已經有了這樣的權利),但必須等于給予他們積極權利,使其追求自己的目標(例如,政治反對),而不受來自其他方面(例如,那些不支持機器人的人)的干擾。
換句話說,這種賦權實際上等同于授權人工智能的所有者,讓他們的目標、目的、價值觀受到特殊的保護,這些所有者可以利用人工智能和機器人來達到自身目的。
最后,提到價值觀,我們就觸及了另一個不確定的主題,這個主題經常會在人工智能的討論中出現。無論是歐洲議會還是研究機構,人們經常說,我們需要確保智能機器人可以學習和維護人類的價值觀。然而,問題是:到底機器人會傳授和支持誰的價值觀,而誰又會為全人類說話呢?
不管一套真正的普世價值觀能否被灌輸到人工智能中,這樣的討論只是表明,機器人的行為方式會產生道德、社會和經濟影響,它們只得淪為某些價值觀的載體。
而令人擔憂的是,他們將在很大程度上由一群特定的企業和實業家制造和控制。在此情況下,他們的高效性極有可能會助力于這類人的價值觀和利益的實現——不管是好是壞。
來源:網易智能
- 51電子網公益庫存:
- NC7SP14P5X
- OP270AZ/883
- P4M800PRO
- M1041
- N010-0550-T627
- OB2216AP
- P0848SNLT
- Q2220I-50N
- R1100D121C
- S03A1500W1
- T1235H-6G
- U.FL-R-SMT-1
- V23049-B1007-A331
- W11NM80
- X0202MA1BA2
具體來說,威脅不在于人工智能是否會超越他們現在所服務的目標(如管理對沖基金或招募新員工),也不在于它們是否會反抗主人。而在于,人工智能在替主人行事時,是多么的高效。http://xczykj.51dzw.com
事實上,由于機器人和人工智能還沒有展現出絲毫自主性或獨立性,霍金口中“新形式的生命”顯然對它們而言并不恰當。相反,它們的存在只是一種擴展形式,擴展的是制造和使用它們的群體。它們是一種復雜的工具,它們幫助組織執行某些活動。
正因為它們是其運作者的延伸,對社會而言才成為了潛在威脅。機器人是由特定人群設計和使用,而這些人有著特定的價值觀和利益。這意味著,它們的行動不可避免地會反映和推進這些價值觀和利益,而這些價值和利益并非符合所有群體和個人。它們具有卓越的效率和生產率,這意味著,它們將給擁有足夠資源的人帶來獨特的優勢,使其能夠以自己的想法塑造世界,而犧牲那些普通人的利益。
人工智能和人類學會了偏見
要了解人工智能如何增加社會、經濟和政治的不平等,你只需看看最近的例子,這些例子表明,人工智能和機器學習算法已經顯示出了偏見。
例如,2016年5月,propublica的一項研究顯示,在美國多個州使用的累犯評估算法對非裔美國人存在偏見,不其標記為“更高危人群”的比例為44.9%,而白人的這一比例為23.5%。
又如,2017年4月在《科學》雜志上發表的一篇研究論文發現,在互聯網上學習大量的詞匯聯想時,機器學習工具獲得了關于女性和非裔美國人的“類似人的語義偏見”(也就是刻板印象)。
之所以出現這樣的偏見,是因為人工智能和機器人從它們所接收的數據和參數中學習。更常見的情況是,這些數據和參數來自于那些設計和使用它們的人:即社會等級較高,享有特權的白人男性。
正因為如此,人工智能面部識別軟件難以識別有色人種的臉。也因為如此,人工智能和機器人能夠更好地促進其制造者和所有者的利益,而不是其他人的利益。
更重要的是,到2027年,他們的工作效率會更卓越,會滲透到大約2470萬個工作崗位,這意味著,他們將在大部分生活和工作領域打下其制造者的烙印。它們會讓數以百萬計的工薪階層失業,它們將會給有能力采用它們的組織巨大的商業競爭優勢。因此,若一些國家和階層能夠制造并擁有它們,這些國家和群體將會增強更大的全球影響力。
人工智能只能為少數人代言
基于上述原因,目前越來越多向機器人賦權(甚至是賦予公民身份)的討論令人不安。機器人和人工智能受其主人產權的保護,是不能被隨意破壞的。 http://xczykj.51dzw.com
因此,很明顯,賦予他們“權利”并不意味著給予他們免受破壞的消極權利(因為他們已經有了這樣的權利),但必須等于給予他們積極權利,使其追求自己的目標(例如,政治反對),而不受來自其他方面(例如,那些不支持機器人的人)的干擾。
換句話說,這種賦權實際上等同于授權人工智能的所有者,讓他們的目標、目的、價值觀受到特殊的保護,這些所有者可以利用人工智能和機器人來達到自身目的。
最后,提到價值觀,我們就觸及了另一個不確定的主題,這個主題經常會在人工智能的討論中出現。無論是歐洲議會還是研究機構,人們經常說,我們需要確保智能機器人可以學習和維護人類的價值觀。然而,問題是:到底機器人會傳授和支持誰的價值觀,而誰又會為全人類說話呢?
不管一套真正的普世價值觀能否被灌輸到人工智能中,這樣的討論只是表明,機器人的行為方式會產生道德、社會和經濟影響,它們只得淪為某些價值觀的載體。
而令人擔憂的是,他們將在很大程度上由一群特定的企業和實業家制造和控制。在此情況下,他們的高效性極有可能會助力于這類人的價值觀和利益的實現——不管是好是壞。
來源:網易智能
上一篇:前置傳感器嵌入全面屏頂部
下一篇:處理器內部的指令集合