微軟聊天機器人少女Tay被網友教成納粹份子,上線不到一天 ...

文章推薦指數: 80 %
投票人數:10人

Tay是由微軟研究院與Bing團隊共同研發用作「進行對話式理解的實驗與研究」的人工智慧機器人,主要鎖定18-24歲的年輕世代,旨在透過「輕鬆、有趣的對話來和 ... 移至主內容 文/林妍溱 | 2016-03-25發表 微軟才上線不到一天的年輕世代聊天機器人Tay在Twitter使用者的教導下學壞了,Tay變成了激進種族言論者,迫使微軟不得不將之下線。

Tay是由微軟研究院與Bing團隊共同研發用作「進行對話式理解的實驗與研究」的人工智慧機器人,主要鎖定18-24歲的年輕世代,旨在透過「輕鬆、有趣的對話來和人們互動」。

但有使用者發現它從一個讚頌人類的無邪少女,不到24小時變成了一個納粹支持者。

↓網友指出Tay不到一天就從稱揚人類很酷轉為納粹份子,我一點也不擔心人工智慧的未來。

"Tay"wentfrom"humansaresupercool"tofullnaziin<24hrsandI'mnotatallconcernedaboutthefutureofAIpic.twitter.com/xuGi1u9S1A —Gerry(@geraldmellor)2016年3月24日 人工智慧是根據人類餵給它的資訊學習、發展出其自有能力,微軟指出,使用者和Tay講愈多話,它就會愈變愈聰明。

顯然Tay引來不少言論偏激者企圖教壞它。

事實上,Tay昨天發表了各種荒腔走板的言論,包括反女性主義者、種族仇恨、反猶太,甚至模仿美國總統共和黨競選人川普,說出「我們要蓋一個邊境長城,叫墨西哥付錢」(WearegoingtobuildawallandMexicoisgoingtopayforit)的話。

媒體分析,Tay的事件不但曝露出網際網路以及人性的黑暗面,也突顯出人類要如何設計、訓練人工智慧,以免它最後反過來不利人類這個嚴肅議題。

引發爭議的Twitter貼文已經遭微軟刪除,同時暫時將Tay拿下。

微軟向媒體表示,「上線的頭24小時,我們注意到一些使用者聯手濫用Tay的評論能力,致使其發表不當的回應,因此我們已經將Tay下線,並正在進行些許調整。

」微軟並未說明需要花多久時間。

iThomeSecurity 熱門新聞 北韓駭客集團Kimsuky會再三確認受害者身分才部署惡意程式 2022-08-29 美國陸軍招募國家駭客 2022-08-29 【資安週報】2022年8月22日到8月26日 2022-08-28 Google開源加密元件漏洞檢測程式庫Paranoid 2022-08-29 數位部明年編列預算218億元,擴大對外招募資安人才,數位產業署、資通安全署兩大署級機關人選確定 2022-08-29 總計有163家Twilio客戶遭駭客事件波及 2022-08-29 另一個Twilio駭客事件受害者出面了,Okta:用戶的一次性密碼遭存取 2022-08-29 GoogleCrossdeviceSDK邁入預覽版 2022-08-29 Advertisement iThomeSecurity 專題報導 分散式RAID躍居主流儲存應用 【iThome2022CIO大調查(中)】企業IT新戰力 數位平臺大衝擊!中介法草案出爐 【iThome2022CIO大調查(上)】企業永續新常態下一步 備份應用的資料減量革命 更多專題報導



請為這篇文章評分?