你有好奇過為什麼很多語音都是女人的聲音嗎?
想知道的話,
就一起來看看吧!
基本上所有預先錄製的公司語音信息以及人工智能助手都是特意選用女性聲音。
你有沒有註意過似乎所有人工語音都是女聲?前幾天Google Assistant在開發者大會上的擬人化程度令人震驚,其中用到的是一項名為Google Duplex的技術。
當Duplex在實驗的6通電話中回答時,男聲和女聲會保持相同的語音語調切換交替出現,但Google最終選擇用了男性的聲音版本。這是開創性的,因為此前自動語音的聲音幾乎都是用的女聲,而此“傳統”可以追溯至20世紀中期。
Google Assistant最具開創性的部分或許是它選用了男性音色。
女性數字助理的歷史
Siri、Alexa、Cortana等,基本上都是公司預錄的女性聲音。這始於20世紀60年代中期由計算機科學家Joseph Weizenbaum發明的第一個語言處理程序Eliza。
Eliza最初設計的目的是為了說明人類與機器之間永遠無法進行情感上的深入討論,然而他的創作卻產生了相反的效果。Weizenbaum在他的書《計算機能力與人類理性》中寫道:“從判斷到計算,他感到了驚恐,因為連他的秘書都開始認為這個程序具有人類的真情實感。”
Eliza最終成為了一名數字心理治療師。她的腳本中使用了模式匹配規則,能夠回答關於心理健康的簡單問題,並成為了我們如今熟知的“聊天機器人”的鼻祖。從多個不同版本的聊天機器人、聊天室的出現,到如今Siri、Google Assistant駐紮在我們的手機裡,儘管它們在很多方面都具備不同的特性,但卻一直存在一個共性——即它們的性別表達一直是女性。
微軟基於遊戲Halo(光暈)設計出了它的智能虛擬助理Cortana的面部形象。 (圖:SUPPLIED: MICROSOFT NEWS)
性別化的人工智能
大量的數字助理都體現出了作為助理的理念:樂於助人、高效、順從、女性。但若從編程的角度來看,卻沒有關於其性別化傾向的設定。
根據心理學家James W. Pennebaker的說法,代詞的使用可以簡單地表明一個人的性別和社會地位。而在這個例子中,主角是AI。他說:“女性會比男性更頻繁地使用I(我)這個單詞(還有I、me、my),這一佔比約為12%。”他的研究結論是,代詞“I”的使用暗示著說話者在社會關係上的從屬地位。像Siri通常也傾向於使用這些代詞,尤其是在表示歉意的時候,“I’m sorry, I don’t think I understand.”。
Pennebaker表示,對於開發者來說,了解AI的人格設定是否延續此類差異特性是很重要的。在如今新型的人機關係中,這樣的偏頗可能會導致性別歧視的延續。但Alexa的開發方、亞馬遜則表示,他們在設計與開發的過程中優先考慮了作為助理對於所有人都重要的特質,例如謙遜、聰明,而非性別。
但在實際的使用過程中,女性的AI助理也曾受到過用戶的“騷擾”。當用戶的對話太露骨、或者有厭女症的嫌疑時,早期的Siri和Alexa會用諸如“如果我能臉紅,我會……”或者“我很抱歉”這樣的表達來回答。
在2017年,亞馬遜更新了Alexa的“脫離模式”,Alexa不再回復有關性別歧視的話題。但這能否讓女性人工智能對性騷擾的回應朝著正確的方向前進,仍值得商榷。
Duplex是否可能打破智能語音的性別化?
隨著Duplex的退出以及它在男女兩種音色之間切換表達的能力,或許接下來AI秘書全是女性聲音的狀況會緩慢轉變。並顛覆傳統的順從化的刻板印象,並使消費者開始理解,人類與AI技術之間的互動其實與其他人類之間執行的應當是相同的社會規範。
還是不得不說,
科技發展的真是快速啊!
究竟還能發展到什麼程度呢?
【大馬&新加坡最漂亮正妹】你Follow了嗎?