隨著科技的不斷發展,現在的很多的應用軟件可以說是遍地都是,但是最近竟然傳出了一個軟件全別人自殺的消息,這讓不少的人都是為之震驚。那么,智能助手勸人自殺到底是怎么回事呢?
智能助手勸人自殺
近日,有報道稱亞馬遜的Alexa人工智能助手竟然“勸”主人自殺。 據報道,護理人員丹妮·莫瑞特(Danni Morritt)決定問Alexa一些關于心臟的信息。Alexa卻突然表示:“心跳是人體最糟糕的過程”。 “人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。”
智能助手勸人自殺
丹妮表示十分害怕,因為Alexa正身處在世界各地成千上萬的家庭中。而亞馬遜則回應稱,確認存在一個已經修復的“bug”。Alexa似乎從任何人都可以編輯的維基百科上下載了有爭議的文本。 此前,為了讓Alexa看起來更人性化一點,亞馬遜更新了功能,宣布語音助手將能夠在一些語句中添加語調,表達失望或興奮等情緒。