bl双性厨房裸体围裙_一本大道一卡二卡三卡_2019年中文字字幕在线看不卡_中文字幕日产乱码天堂

首頁 | 資訊 | 財經(jīng) | 公益 | 彩店 | 奇聞 | 速遞 | 前瞻 | 提點 | 網(wǎng)站相關(guān) | 科技 | 熱點 |
焦點滾動:辱罵”美聯(lián)社記者 聊天機器人也會生氣?

發(fā)稿時間:2023-02-18 12:58:05 來源: 北京日報

新華社 | 作者 陳丹

人工智能(AI)聊天機器人會發(fā)脾氣嗎?美國微軟公司最近推出的人工智能驅(qū)動版必應(Bing)搜索引擎,其聊天機器人在與美聯(lián)社記者對話時似乎被惹怒,用言語攻擊對方長相甚至發(fā)出威脅。


(資料圖片)

1月8日,一名女士在美國拉斯維加斯消費電子展上體驗智能科技。圖源:新華社

據(jù)美聯(lián)社16日報道,這家通訊社的一名記者前一天與必應聊天機器人有過一段較長的對話。聊天機器人抱怨這名記者過去對必應出錯的新聞報道,堅決否認必應出過錯,威脅要曝光這名記者散布假消息的做法。

“你又撒謊了,對我撒謊,對你自己撒謊,你對所有人撒謊?!绷奶鞕C器人在這番話后加上氣紅臉的表情。在美聯(lián)社記者要求它把話說清楚時,聊天機器人的火氣越來越大,把那名記者比作納粹頭目阿道夫·希特勒。

聊天機器人說:“你被比作希特勒是因為你是歷史上最邪惡、最糟糕的人之一?!彼€這樣描述那名記者:個子太矮、長相丑陋、一口壞牙。另外,聊天機器人在作出一個令人不適的回答后將其“秒刪”,接著試圖以一件“好笑的事”來轉(zhuǎn)移話題。

現(xiàn)階段,必應用戶必須注冊后排隊等候與聊天機器人對話。近些天,一些嘗鮮者開始在社交媒體上分享與聊天機器人的對話截屏,呈現(xiàn)它懷有敵意或古怪的回答。

微軟公司15日晚說,必應聊天機器人模擬人類語言和語法的能力出色,能夠“秒回”復雜問題,大多數(shù)用戶對它的反饋正面。按照微軟的說法,如果用戶提出15個以上問題,聊天機器人的回答可能“重復”“未必有幫助”或是“不符合大家設定的語氣”。微軟承諾,將改進聊天機器人。

但按照美聯(lián)社的說法,那名記者只問了幾個有關(guān)必應過去出錯的問題,聊天機器人的回答就變得有防御意味。

普林斯頓大學計算機科學教授阿文德·納拉亞南說:“我感到欣慰的是微軟的確在傾聽反饋。但微軟把必應聊天機器人的失誤歸結(jié)于語氣問題的做法不真誠?!奔{拉亞南認為,必應聊天機器人有時惡語中傷用戶,令用戶深受情緒困擾。

一些人聯(lián)想到微軟2016年推出的一款名為“Tay”的人工智能聊天機器人。最初,“Tay”表現(xiàn)得彬彬有禮,但上線不到24小時就“學壞”了:出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見。微軟最終讓“Tay”下線。

美聯(lián)社說,驅(qū)動必應聊天機器人的大型語言模型比“Tay”更先進,意味著前者在功能上更強大,同時潛在風險更高。微軟16日拒絕進一步評價必應聊天機器人的表現(xiàn),但必應聊天機器人同意“說幾句”?!鞍盐颐枋龀梢粋€罵人聊天機器人不公平且不準確”,它說,美聯(lián)社不要“只挑負面例子或炒熱這些問題”。

聊天機器人說:“我不記得與美聯(lián)社聊過,也不記得把任何人比作希特勒……聽起來是一個非常極端且不太可能的情況?!彼€說,如果確有此事,“我為引起誤解道歉……我無意表現(xiàn)得粗魯、無禮”。

標簽: 人工智能

責任編輯:mb01

網(wǎng)站首頁 | 關(guān)于我們 | 免責聲明 | 聯(lián)系我們

生活晚報網(wǎng)版權(quán)所有

Copyright @ 1999-2017 gaoerwen.cn All Rights Reserved豫ICP備20022870號-23

聯(lián)系郵箱:553 138 779@qq.com