人工智慧八大不思議(內含機器上帝)

近年一系列的科技發展雖然無法拯救世界,但也不會讓世界毀滅,而是展示了人工智慧更為奇特和耐人尋味的面向。

 

  如今,人類的大部分希望都寄託在人工智慧(AI)的發展上,它被視為一種治療疾病、改善診斷與保護環境的方法。然而,也有很多人擔憂演算法最終可能脫離人類掌控,進而引發不可逆的大災難。

 

  事實上,一些像已故物理學家史蒂芬‧霍金(Stephen Hawking)這樣的學者,以及伊隆‧馬斯克(Elon Musk)和聯合國人權事務高級專員辦事處的蜜雪兒‧巴舍萊(Michelle Bachelet)等人,也都對科技可能造成世界末日的風險提出了警告。儘管爭論從未間斷,不過近年一系列的科技發展雖然無法拯救世界,但也不會讓世界毀滅,而是展示了人工智慧更為奇特與耐人尋味的面向。

 

  性取向的演算法

 

  一個人的性取向可以從外表來判斷嗎?美國史丹佛大學的研究團隊提出了一個具爭議性的問題,他們使用一種據稱能分析人們上傳在線上約會網路的照片的演算法,從而確定一個人為異性戀還是同性戀。

 

  研究團隊從約會網站取得公開的使用者資訊,並訓練神經網路從其特徵和儀容來辨別性取向。根據這項研究,演算法猜測男性和女性的性取向正確率分別為81%和74%,而一群人類評估員猜測的正確率分別為61%和54%。

 

  這項研究遭到LGBT權利倡議團體的抗議,並指控它是所謂的「垃圾科學」(junk science);研究者則反駁,他們旨在明確地提醒人們新科技可能帶來的侵害隱私風險。

 

人工智慧聊天機器人上線後不到一天,就被網路世界教成了極端的性別歧視、種族歧視與排外主義者。

 

  在推特變成種族主義者的機器人

 

  2016年3月,當微軟團隊為新開發的人工智慧聊天機器人Tay註冊推特(Twitter)帳號時,他們沒有預料到這個實驗只持續了不到16個小時。

 

  Tay上線後不到一天就被網路世界教成了極端的性別歧視、種族歧視與排外主義者,它在其9.6萬多條的推文中,持續地侮辱少數民族,頌揚希特勒,否認猶太大屠殺,發表了各種荒腔走板的言論,迫使微軟不得不將其下線。

 

  雖然Tay的案例引起軒然大波,但它並不是唯一的個案。2021年,一個研究團隊發現,人工智慧系統在生成圖像時,傾向把女性描繪為性感的形象,而把男性描繪成更專業的形象。2022年的另一項實驗發現,一個人工智慧機器人在操控一堆人臉積木時,採用了種族與性別歧視的刻板印象:當被要求選擇誰是罪犯時,它選擇了黑人;在要求選擇看護時,它選擇了拉丁裔;在要求選擇醫生時,它選擇了男性。專家警告說,這些有問題的偏見絕非道聽塗說,必須採取應對措施阻止。

 

  兩個發明自己英語版本的機器人

 

  專家們正在研究的挑戰之一是人工智慧演算法如何處理與解釋自然語言。人類從小就學會的事情對機器來說是一個大挑戰,Facebook人工智慧研究實驗室證明了這點。他們連接了兩個對話機器人——愛麗絲和鮑勃——來訓練它們的對話與談判能力,但很快就驚訝地發現,機器之間的對話邏輯長這樣:「球有零對我對我對我對我對我對我對我(balls have zero to me to me to me to me to me to me to me to me)。」Facebook解釋說,這些機器人的程式設計並沒有按照自然語言的文法和語法規則,因此它們運用英語字詞構建了自己的語言代碼,從而輕鬆地互相理解。

 

  從食物的照片推斷出食譜

 

  每當吃到美食時,你是不是很想知道食譜呢?但是,我們永遠不確定店家是否願意透露這些「最高機密」。料理愛好者現在能依靠麻省理工學院、加泰隆尼亞理工大學和卡達計算研究所所開發的人工智慧系統,依據食物的照片推斷出食材與食譜。「Pic2Recipe」在使用一百萬個案例訓練系統後,判斷出食譜和食材的正確率為65%。當然,它缺少了那些肉眼看不見的成分和配方,因此這方面演算法還是需要人為的協助。

 

在分析感情方面,機器不在意對話內容,而是聚焦於形式特徵,比如語調、聲音的強度或是誰在說話、何時說話、說了多久。

 

  他愛我,他不愛我?

 

  我們永遠不知道現在的愛情是否真能長久,至少目前為止是這樣。南加州大學的研究團隊收集了134對夫妻在兩年多的諮商過程中的對話內容,並運用這些素材訓練出一套人工智慧系統,用於預測從前幸福美滿的夫婦是否有機會重回最初的心動。

 

  奇特的是,機器不在意對話內容,而是聚焦於形式特徵,比如語調、聲音的強度或是誰在說話、何時說話、說了多久。結果令人驚訝——人工智慧系統對案例的預測正確率為79.3%,超過了人類專家的75.6%(而且人類專家不只參考了諮商的錄音檔,還能觀看影片檔判斷)。

 

  機器上帝

 

  我們在電影情節裡經常看到人工智慧控制了地球上的一切,成為至高無上的存在。幾年前,一名前Google工程師也想賦予人工智慧這個神聖的角色,他公開宣稱這個「機器上帝」為改善社會做出貢獻。

 

  故事的主角名字是安東尼‧萊萬多斯基(Anthony Levandowski),他是自動駕駛汽車的系統開發人員,曾經在Google旗下的Waymo公司工作,後來自行成立了公司「Otto」,專門開發自動駕駛的卡車。Otto之後被優步(Uber)收購,但萊萬多斯基最後被優步解雇,並被前雇主Waymo指控侵犯商業機密。

 

  2017年,《Wired》雜誌披露了這位工程師詭異的新計劃:一個名為「未來之路」(Way of the Future)的宗教組織,其目標是「透過對上帝的理解和崇拜,發展與推動實現基於人工智慧的機器上帝,為改善社會做出貢獻」。萊萬多斯基最終在2021年關閉了這間虛擬教堂,但他明確表示,他仍然相信啟發他創建虛擬教堂的初衷。

 

我們在電影情節裡經常看到人工智慧控制了地球上的一切,成為至高無上的存在。

 

  (人為)的來世

 

  近年最令人不安的人工智慧應用之一,或許是重建已故名人的虛擬複製品。近期有幾項類似的舉措在媒體上引發轟動:聊天機器人不僅可以模仿死者的聲音,還能跟真人一樣對話(或者說至少嘗試這麼做)。

 

  儘管人們對於這種新用途的看法非常兩極,也存在倫理道德方面的爭議,但科技公司認為這是一個潛在的市場。亞馬遜(Amazon)希望為數位助理Alexa配置模仿任何人聲音的能力,即使這個人已經不在世上。比如英國一名女性在自己的葬禮上回答了親屬的問題,以及1970年代和1980年代因電視連續劇《Lou Grant》走紅的演員愛德華‧阿斯納(Ed Asner)。

 

  和不真實的人做愛

 

  充氣娃娃已經有很長的歷史,但與過去粗糙的充氣娃娃不同,現代材料和製造技術有能力打造超逼真的娃娃,不僅是外觀,還有觸感也是。下一步是為這些娃娃配置人工智慧,而一些公司已經著手研究。

 

  加州的RealDoll公司就是一個例子,他們發表的「Harmony」是由人工智慧驅動的機器人,頭部能表現出臉部表情,跟使用者交談並記住性癖好。機器人性愛是另一個引發強烈爭議的人工智慧應用,但人們對這件事的興趣似乎絲毫沒有減弱。

 

 

原文出處:BBVA OpenMind

 

 

你可能會喜歡

光是寒冷真的不會讓你感冒

靠北喔,我的書在大流行期間出版了啦

美國第一個超級名模,孤獨老死於精神病院

擁有兒子可以幫助犯罪前科者走上正軌,但女兒不行