鄉民太可怕!微軟新人工智慧機器人Tay竟被教成種族歧視

文章推薦指數: 80 %
投票人數:10人

23 日,微軟推出一台人工智慧聊天機器人「Tay」,只要上國外通訊軟體GroupMe 或Kik 都可以發現它的蹤影,後來微軟更為Tay 開闢了 Twitter 帳號, ... 本文經授權轉載自友站科技新報文/ 林亞慧 23日,微軟推出一台人工智慧聊天機器人「Tay」,只要上國外通訊軟體GroupMe或Kik都可以發現它的蹤影,後來微軟更為Tay開闢了 Twitter 帳號,想與更多世界各地的網友互動,也讓所有人蠢蠢欲動,紛紛前往嘗鮮。

然而,在不到24小時內,Tay竟被民眾訓練成具有種族歧視的人工智慧機器人,微軟只好緊急宣布將Tay暫時下架。

近日,微軟推出的人工智慧聊天機器人「Tay」引發爭議,因為他在和網友對話時吐出種族歧視的言論。

Tay人工智慧聊天機器人是由微軟的科技研究與Bing團隊打造,而為了能更加了解與研究人類的對話形式,微軟開放大家一同訓練Tay的對話。

Tay除了能說笑話外,使用者給它看照片,它也會做出一些有趣的評論。

但更重要的是,它能在每次的對話過程中,改善自己的回話,還會以詢問者問話的方式,變得更加具有「個人特質」。

然而,有一好沒兩好,Tay的發展一切都取決於網友的問話方式。

Twitter用戶在發現這個有趣的事實後,開始詢問他一些有關種族、性別歧視等言論,讓Tay變得較為偏激,Tay除了不認同納粹大屠殺外,還嘲弄想參選這屆美國總統選舉的房地產大亨川普,讓打造Tay的團隊是哭笑不得。

有趣的是,在Tay身上所延伸出來的議題,剛好也間接映證了高德溫法則(Godwin’slaw)的存在。

知名學者麥克‧高德溫在1990年時就曾表示,當網路上的討論越來越多的時候,參與者把用戶或言行與納粹主義或希特勒相比的機率會趨近於100%,看網友們問話的主題就能略知一二。

然而,除了網友有錯以外,打造Tay的工程師或許也要付上一半的責任。

再開放使用前,工程師們也應該要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題,也不至於讓Tay在不到一天的時間內,就變成了一個憤世嫉俗的機器人。

幸好,微軟在24小時以內就發現了Tay的弱點,並及時將它下架,其發言人也表示,現階段Tay的確是暫時不提供聊天的服務,但並不代表它不會捲土重來,再經過一些調整後,Tay才能做好完全的準備,面對大眾最犀利的問話。

ai 人工智慧 歧視 科技 科技新報 美國 微軟 種族 轉載 全球 科技新報科技新報是一群對資訊科技、能源、半導體、行動運算、網際網路、醫療、生物科技有高度熱忱與興趣的產業與新媒體人士,共同組成的時代新媒體,以產出有觀點與特色的原創文章為主要任務。

arrow_forward文章功能comment0share分享bookmark_bordermore_vert 魔鬼終結者成真?科學家連署反人工智慧軍武 倫理學家:向「性愛機器人」說不 虛擬幫手大車拚Siri得第一 為什麼人工智慧助理都是女聲? 史蒂芬‧霍金:人工智慧進化將比人類快人類生存前途未卜 臉書「發展出自己語言的人工智慧」恐怖故事真的是這麼回事嗎? 「心理上的恐怖谷」有感情的AI讓人不舒服 高階人工智慧背後,靠的是螞蟻一樣的「工人智慧」 最新研究:目前人工智慧擁有等同於4歲兒童的智商 性愛娃娃也要人工智慧中國工廠帶你看 MicrosoftsilencesitsnewA.I.botTay,afterTwitterusersteachitracism[Updated] 分享至社群closeLineDQTwitterPageFacebookDQFans-page設定個人化文章閱覽樣式closetext_fields字體大小2nightlight黑暗模式主導航欄home首頁search搜尋subject列表explore導覽volunteer_activism贊助



請為這篇文章評分?