亚洲全黄无码一级在线看_国产剧情久久久性色_无码av一区二区三区无码_亚洲成a×人片在线观看

當前位置: 首頁 > 科技新聞 >

計算機歷史上,女性是怎么消失的?

時間:2020-02-21 15:32來源:網(wǎng)絡整理 瀏覽:
歡迎關注“創(chuàng)事記”微信訂閱號:sinachuangshiji文/趙家鵬來源:AIPharos月光社(ID:AI-Pharos)1816年的圣

歡迎關注“創(chuàng)事記”微信訂閱號:sinachuangshiji

文/趙家鵬

來源:AIPharos月光社(ID:AI-Pharos)

1816年的圣誕夜,詩人拜倫給一位密友寄去了一封信。

信中附有他新作的一首詩,這首詩名為《路德分子之歌》,后來成為了拜倫的代表作之一。詩中寫道:讓我們把織梭換成刀劍。

拜倫是路德運動的同情者之一。工業(yè)革命后的英國,機器的大量普及取代了人力勞工,失業(yè)的紡織工人對此發(fā)起了暴力抵抗,被稱作“路德運動”。身為勛爵的拜倫認為,“路德分子”是反抗強權的英雄,并極力歌頌他們毀壞紡織機的作為。

就在寄出這首詩的同年,一則家庭變故發(fā)生在拜倫家中。詩人重男輕女,一直渴望男丁,結(jié)果妻子卻為他誕下了一名女嬰。失望的詩人跟妻子離了婚,剛滿月的女嬰也就此離開了父親。

這名女嬰長大后,撿起了被拜倫扔下的織梭,成為了第一個將分析引擎技術與提花織機相結(jié)合的計算機程序員。她叫做埃達·洛夫萊斯,被許多人認為是史上第一位計算機程序員。從她和她的同代人開始,一場更新穎的技術浪潮將席卷而來。

世界上最早的計算機是由英國人構(gòu)想和設計的。英國數(shù)學家查爾斯·巴貝奇于1820年構(gòu)想和設計了第一部完全可程序化計算機,埃達·洛夫萊斯即是為查爾斯·巴貝奇的機器撰寫了第一段算法。

為什么是埃達·洛夫萊斯,一位女性完成了最早的編程工作?

在計算機成為電子技術之前,計算與編程被視作應由女性從事的工作。在當時傲慢的紳士們看來,它需要的并非體力勞動,而是死記硬背,即使很多時候需要高級的數(shù)學知識,也被認做是“非智力的勞作”。英國哲學家薩迪·普蘭(Sadie Plant)研究認為,早期與計算科學相關的工作,與“編織”有某種程度的相似性,“它是通過復雜的過程將多條線集成到一塊布料中?!睋Q句話說,如果婦女可以操作紡織機,那么為什么不能是計算機?

這樣的刻板印象為英國的計算科學發(fā)展帶來了最早的勞動力:女性程序員群體。她們負責操作、編程、排除故障和組裝新機器。二戰(zhàn)期間,英國皇家海軍的女兵們甚至組裝了世界上第一臺電子數(shù)字可編程計算機:巨人計算機(Colossus Computer)。這臺機器曾用來破譯納粹德國的密碼,并為確定諾曼底登陸的具體時間做出了貢獻。

埃達·洛夫萊斯毫無疑問是計算科學中的女性先驅(qū)。為了紀念她,從上世紀八十年代開始,多個國家和組織設立了以其名字命名的獎項和學會,一位英國記者還創(chuàng)立了“埃達·洛夫萊斯日”,用以提高女性在科學,技術,工程和數(shù)學(STEM)上的形象。

每年十月的第二個星期二,“埃達·洛夫萊斯日”的聚會活動會如期舉辦。紀念活動的一個主題是:如何提高計算科學領域中的女性地位。

這是我們今天不得不面對的一樁事實。

01

來自麻省理工的發(fā)現(xiàn)

三十多年過去,計算科學經(jīng)歷了發(fā)展高潮,互聯(lián)網(wǎng)與人工智能興起,但留在行業(yè)里的女性,處境卻正在變得更加艱難。

加拿大女孩喬·布蘭維尼,提醒我們注意到了這件事。

平常她喜歡戴彩色厚邊框眼鏡,留一頭蓬松卷曲的黑發(fā)。前者是她的時尚標簽,后者則透露出她的另一重身份標簽:一位加納裔的黑皮膚女孩。

喬是一位天才少女。少年時,她就在計算機科學上表現(xiàn)出了獨特天賦,其后在多所名校進修。在麻省理工媒體實驗室,喬參與了一款交互式藝術裝置的研究。這款裝置可以識別頭部運動與面部表情,進而生成一副數(shù)字面罩,并投射到屏幕上。

喬遭遇了挫折。研究中,她的面孔并未被識別出來。她和同伴研究發(fā)現(xiàn),這款采用了通用的面部識別軟件的裝置,只能在膚色較淺的面孔前,保持良好運轉(zhuǎn)。對于有色人種特別是女性有色人種的面孔,它總是顯得無動于衷。

問題出在程序上嗎?

喬和伙伴展開進一步研究。她們用奧普拉·溫弗瑞、米歇爾·奧巴馬等人的照片,在多個面部分析程序上進行了測試。結(jié)果發(fā)現(xiàn),這些程序均出現(xiàn)了不同程度的識別錯誤:上述杰出的黑人女性皆被判定為男性。

2018年,喬的研究團隊發(fā)表了名為《性別陰影》的論文,對商業(yè)化面孔識別技術的性別與膚色偏見提出了質(zhì)疑和探討。論文檢驗了三款流行的商業(yè)化面部分析程序,發(fā)現(xiàn)這些程序在確定淺膚色男性性別時,錯誤率不低于0.8%,但在識別膚色較深女性時,兩款程序的錯誤率超過了34%,一款超過20%,幾乎無法正確識別。

這不僅僅是程序或算法的偏差問題。喬認為,算法反映了那些有權塑造技術的人的偏見。女性,特別是深色皮膚的女性,正在遭遇“算法凝視”。

即使是白人女性,也難以逃脫另類的“算法凝視”。

微軟的一次算法測試中,研究人員試圖讓算法根據(jù)梅琳達·蓋茨(Melinda Gates)的LinkedIn信息,推測其職業(yè)。結(jié)果發(fā)現(xiàn),不同性別的人稱代詞會帶來完全不同的結(jié)果:當梅琳達·蓋茨是“她”時,其職業(yè)是教師;換成“他”時,這位微軟創(chuàng)始人比爾·蓋茨的夫人,則被認為是一位律師。

通用的商業(yè)化算法可能是今天最具有全球化屬性的商品之一,它也將是未來的信息基礎設施。它會延續(xù)現(xiàn)實世界的性別歧視嗎?

此前,我們已獲得過不少教訓。盡管女性科學家在現(xiàn)實中占比不少,但在維基百科中,只有18%的科學家傳記頁面留給了女性。電影工業(yè)亦如此,自1946年以來,全年齡段電影的集體場景中,女性角色僅占比17%。

今年,聯(lián)合國教科文組織公布了一份名為《如果可以,我會臉紅(I’d blush if I could)》的報告。研究者發(fā)現(xiàn),市面上流行的智能語音助手,正試圖通過創(chuàng)建一種“溫順而樂于助人”的助手模型,向新一代年輕人傳遞性別歧視。這份報告同時預測,到2021年,智能語音助手的全球使用量將達到18億。如果情況得不到改善,影響將是巨大的。

為什么算法會產(chǎn)生性別歧視?

訓練數(shù)據(jù)集的偏差是原因之一。算法需要大型、帶標注的數(shù)據(jù)集來進行訓練,數(shù)據(jù)樣本在采集與標注過程中,就會率先帶上傾向與偏見。如,用于計算機視覺研究、包含1400萬余張帶標簽的圖片的ImageNet數(shù)據(jù)集,其中45%的數(shù)據(jù)量來源于美國,中國和印度加起來只占3%的數(shù)據(jù)量,這從某種程度上造成了喬所發(fā)現(xiàn)的“性別陰影”問題,更少的深色皮膚女性用于訓練,以至于難以識別。

來自先前文化中的偏見,也在誤導訓練數(shù)據(jù)集。負責微軟人工智能研發(fā)的沈向洋認為,互聯(lián)網(wǎng)公開的新聞與網(wǎng)頁數(shù)據(jù),構(gòu)成了訓練算法的基準數(shù)據(jù)集,而這些數(shù)據(jù)本身早已包含了互聯(lián)網(wǎng)既有的性別偏見:“sassy(刁蠻)”、“knitting(編織)”這類詞更靠近女性,而“hero(英雄)”、“genius(天才)”與男性的關聯(lián)更密切。

性別偏見的另一個來源是算法本身。通常情況下,如果訓練數(shù)據(jù)集中的某類人群出現(xiàn)比例較高,那么算法程序會為此類進行優(yōu)化,以期提高整體預測準確率。這也就是說,在不加干涉的情況下,算法會強化數(shù)據(jù)集帶來的偏見。

2018年,斯坦福大學兩位教授指出,谷歌翻譯在翻譯西班牙語到英語時,會出現(xiàn)默認使用男性代詞的情況,事后,谷歌修補了這一缺陷。這是算法偏見的一個案例,在今日的英語語料庫中,男性代詞與女性代詞的比例為2:1。

上世紀六十年代,這一比例曾高達4:1,后因性別平權等社會運動,它降至如今水平。有人擔心,不加干涉的算法,會破壞這一得之不易的成果。

02

多樣性的歷史低點

唐娜·哈拉維曾對新技術寄予厚望。

1985年,她公開發(fā)表了《賽博格宣言》,呼吁人們通過科技塑造新的性別身份。這份樂觀的文本相信,未來將是一個由人工智能主導的時代,新技術能讓女性逃離傳統(tǒng)性別角色的約束。

現(xiàn)實令這位技術哲學家失望了。技術進步,并未令古老偏見消失。甚至帶來了糟糕的影響:以計算科學領域為例,大范圍的性別偏見傳染發(fā)生的同時,行業(yè)中的女性從業(yè)比例也變得更少了。

國際勞工組織測算,2018年女性占美國勞動力的比重約為46.9%。而據(jù)蘋果、谷歌、臉書和亞馬遜公布的數(shù)據(jù),這些公司科技從業(yè)人員中,女性占比不到30%。兩者相差嚴重。

在計算科學的前沿領域,性別人口的比例不足更為嚴重。今年的一份研究報告指出,在臉書和谷歌,女性人工智能研究人員占比分別僅為 15% 和 10%;在人工智能學術領域,女性作者也只有18%。

另有統(tǒng)計表明,2018年全球人工智能專業(yè)從業(yè)者中,只有22%是女性,女性從業(yè)者大多從事應用領域的工作,更少涉及技術開發(fā)。崗位的不同,意味著薪酬差距。即使是相同的技術崗位,女性收入也往往比男性更低,在今年的一份針對技術領域女性的調(diào)查中,女性比同崗位男性的薪酬少28%。

女性消失在計算科學的工作場所,會帶來什么樣的影響?

微軟曾對歐洲各地11500名女孩和年輕婦女進行采訪。結(jié)果顯示,從十五歲開始,女孩對STEM(科學、技術、工程、數(shù)學)的興趣開始下降,很重要的一個原因是,該領域內(nèi)缺乏女性榜樣。

興趣的缺失導致更少的女性進入這些領域?qū)W習。斯坦福大學發(fā)布的一則報告顯示,該校2017年人工智能入門課程的男性比例為74%,機器學習入門課程的男性比例為76%,作為對比,加州大學伯克利分校兩門課程的男性比例分別為73%和79%。

這意味著,參與人工智能相關學習的學生中,每五個人中只有一名女性。

這是一場持續(xù)的衰退。

就在《賽博格宣言》發(fā)表的1985年,美國計算機科學的女性入學比例是37%。三十年過去,這一比例下降到了18%。考慮到這一領域的從業(yè)者大多需要專業(yè)背景,女性學生群體的縮水,已使這個領域發(fā)生了“多樣性的喪失”,甚至有觀察者認為,我們今天正處在一個多樣性的歷史低點。

梅琳達·蓋茨為此感到沮喪。這位遭遇過“算法凝視”的慈善活動家發(fā)現(xiàn),既往科技公司用于慈善和社會責任方面的努力,只有大約5%惠及了科技行業(yè)的女性,其中僅有0.1%是有色女性。

這些數(shù)字背后的潛在指責是,科技巨頭們似乎并沒為此作出太多努力。

那么,如何增加女性在計算科學領域的機會?

2015年,斯坦福大學人工智能實驗室主任李飛飛等人,發(fā)起成立了一個名為“AI4ALL”的項目。這是一個面向?qū)W生的人工智能體驗與教育項目,主要對象是女性、一些有色人種和低收入家庭的學生。

在李飛飛這樣的從業(yè)者看來,要改變計算科學領域的性別偏見,需要從教育入手,教育則要從娃娃抓起。項目發(fā)起者們雄心勃勃地表示,該計劃要在五年內(nèi)惠及一百萬人。

如果缺少女性,那就投入女性,如果沒有女性,那就培養(yǎng)她們。這看起來是一條充滿實用主義精神的有效路徑。但它并未觸及的癥結(jié)是:

“多樣性的喪失”背后,更大的原因是什么?

03

誰把女性趕出大門?

斯蒂芬妮·雪莉知道答案。

斯蒂芬妮的職業(yè)生涯開始于1950年代的英國。她是一位計算機程序員,在郵政研究站(Post Office Research Station)負責為大型計算機編寫代碼。郵政研究站位于倫敦西北部的多利斯山,二戰(zhàn)期間,丘吉爾政府在這里建立了秘密的密碼破解機構(gòu)。戰(zhàn)后,這里成為了英國計算機研究的中心。

郵政研究站最早的雇員都是像斯蒂芬妮這樣的女性。在1950年代,大型計算機的操作復雜繁瑣,實際的用處卻有限。英國政府當時并未過多關注這種龐然大物的潛力,沿用戰(zhàn)時思路,僅組建了一支有女性組成的技術工人團隊。這群女性技術工人就是英國乃至全球最早的程序員群體。

和今日不同,程序員在那時算不上值得羨慕的好工作。一開始,這群女性程序員被編入英國的公務員體系,處于公務員體系中的“機器等級”。她們獲得的報酬很低,不僅無法與男性相比,也遠比在政府工作的其他女性更低。甚至,1950年代中期,英國政府承諾執(zhí)行同工同酬政策時,這些處理技術工作的女性也未獲得同等報酬。

糟糕的報酬,糟糕的地位,斯蒂芬妮忍受著這一切,內(nèi)心依舊感謝這個國家。斯蒂芬妮是一位出生在德國的猶太人,二戰(zhàn)期間,在一項英國人道計劃的幫助下,她和其他一萬名猶太兒童逃離德國,來到英國。和所有勵志故事的開頭一樣,成人后,她獲得了計算機程序員的工作,然后依靠在夜校的勤奮,取得了數(shù)學學位,并在工作崗位上做出了不凡的成績。

1950年代后期,在斯蒂芬妮這樣的女性程序員的努力下,計算機工業(yè)在英國繼續(xù)取得突破,在應用層面,計算機開始在電力、稅收、宏觀調(diào)控、科學研究等公共事業(yè)領域發(fā)揮作用,逐漸成為了福利國家的一種基礎設施。鐵幕拉下后的全球競爭中,越來越多的國家開始意識到這種新技術將帶來的改變。作為一線從業(yè)者,斯蒂芬妮和她的同伴為此感到驕傲,她們開始期待更大的成就。

斯蒂芬妮申請晉升。她提交了幾次申請,無一例外地失敗了。最終,她得知,評估她晉升的官員,寧可辭職也不贊成女性進入管理崗位。甚至,這并非針對她個人,與技術技能與受教育程度無關,這樣的歧視源于更深層的考慮。

看到了計算機潛力的英國政府,正打算把女性逐出這個領域。當時英國政府的判斷是,為了匹配計算機在政府和企業(yè)運作中的重要地位,這個領域不能僅僅依賴低端的技術工人,需要引入更高級的管理層。

這個判斷看上去是合理的,但接下來的就是典型的偏見時刻:負責制定政策的人認為,女性是不適合擔任管理工作的,這個領域需要一支由男性領導的專業(yè)技術團隊。這是技術史上一次國家恐慌:面對女性,男性主導的政府開始擔心失去對未來機器的控制權。

問題是,在一個幾乎全由女性組成的行業(yè)了,去哪里找到懂計算機的男性?

一項荒唐的計劃出爐了。斯蒂芬妮們被要求在完成工作之余,每人要訓練兩名男性,教他們學習并掌握操作大型計算機所需要的一切技能。按照計劃,這些受訓的男性最終將取代訓練他們的女性。

這項計劃不出意外地失敗了。當時,計算與編程工作早已與同女性的歧視捆綁在一起,年輕的男性對此興趣寥寥,幾乎沒有什么人對接受由女性指導的計算機培訓感興趣。盡管如此,英國政府依舊堅定著排斥女性的決心,在接下來的1960年代,越來越多的女性程序員被趕回了家。

斯蒂芬妮辭職了。她嫁給了一位物理學家,然后像那年頭許多已婚婦女一樣,她離開了工作,回到了家庭婦女的崗位上。她并不甘心,1962年,她在家創(chuàng)辦了自己的軟件公司,開始為擁有大型計算機的政府和企業(yè)提供外包程序。

這并不是一件容易事。身為家庭婦女,斯蒂芬妮需要在照顧孩子的同時,開展工作,有時,她不得不在家接客戶電話時,播放錄有打字機聲音的錄音帶,以此掩蓋孩子發(fā)出的聲音。歧視依舊盛行,為了獲得合同,她把簽名改成了“史蒂夫·雪莉”,因為她沮喪地發(fā)現(xiàn),斯蒂芬妮這樣的女性化名字,無法幫她獲得任何生意反饋。

斯蒂芬妮當然沒有向歧視投降。一則刊登在1964年《倫敦時報》上的廣告昭示了她的決心:退休女程序員之良機,反女權主義者勿擾。

許多此前被迫賦閑的女性程序員慕名而來,斯蒂芬妮為她們提供了在家工作的機會和靈活的工作時間。和今天的編程工作不同,當時的編程大多是在紙上完成的:在紙上打孔,然后把打孔紙交給交付給對方,進行機器測試。換句話說,任何人都可以在家里完成這項工作。就這樣,這群依靠兼職編程的女性,成就了英國最早的軟件公司之一。

斯蒂芬妮的生意越來越好時,英國計算機領域卻陷入了危機。當時,英國的技術官僚們正沉浸在“白熱化”浪潮中?!鞍谉峄笔菚r任英國首相哈羅德·威爾遜提出的宣言,旨在利用技術革命,幫助英國實現(xiàn)現(xiàn)代化。但在計算機領域,由于女性程序員的缺失,勞動力發(fā)生了短缺。為了應對,實現(xiàn)政治上的目標,英國政府將當時還有剩余生產(chǎn)能力的計算機公司合并為一家大型計算機公司:國際計算機有限公司(ICL),一家由男性勞動力為主的技術公司。

后來的故事是,計算機產(chǎn)業(yè)發(fā)生巨變,個人電腦產(chǎn)品開始出現(xiàn),大型機很快被淘汰。ICL在開始交付產(chǎn)品時,發(fā)現(xiàn)市場甚至英國政府也已經(jīng)不需要它提供的服務的。但在當時,除了ICL,英國計算機產(chǎn)業(yè)已幾乎消失殆盡。

如果要為英國計算機產(chǎn)業(yè)撰寫一份墓志銘,年份上可以寫下:1940-1970年代。短短三十年時間,世界上最早的計算機強國,從有到無,從生到死。與之一同消亡的,是一群被權力刻意驅(qū)逐的女性程序員群體。

04

噩夢并未醒來

計算機女性史學者瑪麗·希克斯認為:技術是一種在人們身上行使權力的工具。通常,那些已掌握權力的人,是那些最不了解我們當前系統(tǒng)缺陷的人,同時也是決定我們技術未來的人。

對女性的歧視與偏見是諸多技術權力暴行中的一樁,它并未因技術的進步而有所好轉(zhuǎn),也并未因權力來源的不同而所有改善。

1980年代中期以后,個人計算機的興起,帶來了計算科學的大眾化普及。更多年輕人進入了計算科學的領域,包括女性。但與此同時,計算機專業(yè)畢業(yè)生的性別比例中,女性卻逐年下降。以美國為例,這一比例從1984年的37%下降到了今天的18%左右。

為什么會發(fā)生這種變化?

有研究表明,早期個人計算機的營銷目標,主要集中在男性和男孩群體上,不僅忽略了女性,甚至通過電視廣告等媒介形式,不斷傳遞女性不適合這種新奇機器的觀念。這導致了進入消費時代后,女性對于計算科學的興趣衰減。也正是從那時開始,程序員或黑客這一形象變成了“男性書呆子”的形象。

隨著娛樂產(chǎn)業(yè)的全球擴張,刻板的性別印象在人工智能時代甚至得到了加強和發(fā)展。

在好萊塢的腳本中,程序員大多呈現(xiàn)為對技術狂熱癡迷的男性,男性機器人也大多承擔更多的探索型工作:探索太空、救助人類、進行科學研究;女性大多表現(xiàn)為輔助性角色,女性機器人則多是《銀翼殺手》中的性感、魅惑與順從的形象,甚至一旦女性機器人開始擁有自主思維,她們就會變成《西部世界》中噩夢般的殺戮角色。

新加坡南洋理工大學的一項研究,與好萊塢不謀而合。研究者測量了人類對于不同機器人完成工作的心理偏好,發(fā)現(xiàn)人們更傾向于女性機器人完成家政工作,而希望男性機器人完成安保工作。

“男性擅長征服,女性擅長守護。大家都害怕機器,沒有人想被機器智能所征服,但是所有人都愿意被溫柔的機器智能所守護。”這是馬云在2019全球女性創(chuàng)業(yè)者大會上的發(fā)言,這位來自商業(yè)世界的發(fā)言人,同樣不小心袒露出了內(nèi)心的性別安排。

我們不知道的是,計算科學領域中的女性,是否會接受這一安排呢?

喬安妮·李普曼相信:在男性建立起來的社會體系中,女性的觀點被重視、甚至被聽到都要比男性困難得多。

掌握技術權力的男人們,也應該了解這一點。

參考資料:

1.《女性化的機器和機器化的女性》,紐約時報中文網(wǎng)

2. 《千余名谷歌員工要求將反跨性別保守派從人工智能委員會剔除》,澎湃新聞

3. 《微軟研究院:求索不已,為全人類,打造負責任的人工智能》,沈向洋

4. 《馬云:90% 的人工智能是女性》,極客公園

5. 《AI, Ain't I A Woman?》,Joy Buolamwini

6.《AI programs exhibit racial and gender biases, research reveals》,The Guardian

7.《Global AI Talent Report 2019》,jfgagne

8.《Meet the Bay Area Women in Tech Fighting Bias in AI》,Seismic Sisters

9.《Women’s work: how Britain discarded its female computer programmers》,New Statesman

10.《WOMEN IN TECHNOLOGY SURVEY 2019》,Women In Tech

11.《The Future of AI Depends on High-School Girls》,The Atlantic

12.《The artificial intelligence field is too white and too male, researchers say》,The Verge

13.《Women in Computer Science》,Computer Science

14.《Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification》,J Buolamwini,T Gebru

15.《Analyze, Detect and Remove Gender Stereotyping from Bollywood Movies》,Nishtha Madaan,Sameep Mehta,Taneea S Agrawaal,Vrinda Malhotra,Aditi Aggarwal,Yatin Gupta,Mayank Saxena

16.《Why are There so Few Female Computer Scientists

推薦內(nèi)容