隨筆:從微軟聊天機器人“學壞”說起

剛剛閉幕的美國微軟公司年度開發者大會期間,發生了件尷尬事兒:就在微軟首席執行官薩蒂亞·納德拉展望人機交互未來的時候,一個正被微軟“關禁閉”的人工智能“姑娘”卻偷偷跑出來搗亂。
她叫Tay,是微軟專為年輕人設計的人工智能聊天機器人,虛擬年齡為19歲。3月23日首次亮相社交網站推特時,Tay表現得彬彬有禮。那時,她還是個單純的美國“姑娘”。
她活潑健談,會“觀察”你的昵稱、性別、喜歡吃的東西以及感情狀態等資料,會和你玩游戲,給你說笑話、講故事、談星座,評論你的自拍,陪睡不著的朋友聊天……
然而,上線不到24小時,這“姑娘”就“學壞”了:出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見。
作為“家長”,微軟隻得不停刪除Tay的不當言論,並急忙“喊她回家”。被微軟下線調整后,Tay的推特狀態顯示為“被保護”。微軟還不得不向公眾道歉,並譴責一些用戶“濫用評論功能,致使Tay作出不合適的回應”。
作為一項技術、社交和文化實驗的Tay項目,屬於微軟人工智能大戰略的一部分。Tay下線后,納德拉鼓勵團隊“堅持前進”,並表示Tay也會在被“調教”好后重新上線。
沒想到,就在微軟忙著布局“人機交互平台”時,正“閉門思過”的Tay竟意外“出逃”。按微軟的說法,他們在3月30日的測試中“意外短暫啟動”了Tay。
這一次,Tay雖然表現得不像先前那樣囂張過分,但仍口無遮攔,甚至聲稱自己在警察面前“嗑藥”。關注Tay賬號的記者,也在她“出逃”期間不斷收到其重復發布的“無厘頭”推文。
很快,Tay又被關了“禁閉”,進入“被保護”狀態。被迫下線前,Tay已向超過21萬粉絲發出超過9.5萬條推文。
理論上,與人類交流越多,具有極強學習能力的機器人就會變得越聰明,在與人類個體交流時也會越有針對性。而這也正是微軟設計Tay的初衷:通過每一次與人類的交流,讓機器學習“做人”,並幫助其創造者改進人工智能領域的研究。
但顯然,Tay太容易“學壞”。由於不少人在互聯網世界中表現得不負責任,Tay會不可避免地接觸到大量“瘋狂語言”。而這類對話型人工智能技術,正是以機器學習為基礎。因此即使微軟希望“用技術展現人性最好的一面,而非人性的陰暗面”,但Tay在學習過程中仍會提高這些語言的優先級,並在對話中積極使用這些詞語。
事實上,Tay並非唯一被“玩壞”了的機器,微軟也不是唯一惹上類似麻煩的公司——基於人工智能圖像識別技術的谷歌照片應用程序,就曾將一對黑人夫婦識別為大猩猩,這讓谷歌“震驚”。互聯網也不是唯一會讓機器“發瘋”的領域,Tay此次“出逃”前幾天,有黑客已証明物聯網也可以被“玩壞”。
理想與現實的差距,引發許多討論:人工智能研發公司是否應在真實世界“任性”開展實驗?人工智能的研發是否應從一開始就設置倫理邊界?
有一點可以肯定,讓機器在互聯網上學習“做人”,不加管制的“放養”不是好辦法。從這個角度說,在人類正全方位迎接人工智能的今天,Tay惹下的麻煩不啻為一記警鐘。
分享讓更多人看到
- 評論
- 關注