登录发现更多内容
首页
讨论研究
知名厂商
用户名
Email
自动登录
找回密码
密码
登录
立即注册
登录
立即登录
立即注册
其他登录
QQ
微信
首页
Portal
讨论研究
知名厂商
金鉴实验室官网
搜索
搜索
本版
文章
帖子
群组
用户
好友
帖子
收藏
道具
勋章
任务
广播
群组
排行榜
设置
我的收藏
退出
首页
›
「人间琐事」
›
「社会新闻」
›
“辱骂”美联社记者 聊天机器人也会生气? ...
0赞
赞赏
手机版
扫码打开手机版
把文字装进口袋
返回列表
“辱骂”美联社记者 聊天机器人也会生气?
[ 复制链接 ]
xaiozeng
2023-2-18 21:49:42
原标题:“辱骂”美联社记者 聊天机器人也会生气?
据新华社北京2月18日电 人工智能(AI)聊天机器人会发脾气吗?
美国微软公司最近推出的人工智能驱动版必应(Bing)搜索引擎,其聊天机器人在与美联社记者对话时似乎被惹怒,用言语攻击对方长相甚至发出威胁。
1月8日,一名女士在美国拉斯维加斯消费电子展上体验智能科技。新华社发(曾慧摄)
据美联社16日报道,这家通讯社的一名记者前一天与必应聊天机器人有过一段较长的对话。聊天机器人抱怨这名记者过去对必应出错的新闻报道,坚决否认必应出过错,威胁要曝光这名记者散布假消息的做法。
“你又撒谎了,对我撒谎,对你自己撒谎,你对所有人撒谎。”聊天机器人在这番话后加上气红脸的表情。在美联社记者要求它把话说清楚时,聊天机器人的火气越来越大,把那名记者比作纳粹头目阿道夫·希特勒。
聊天机器人说:“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。
另外,聊天机器人在作出一个令人不适的回答后将其“秒删”,接着试图以一件“好笑的事”来转移话题。
现阶段,必应用户必须注册后排队等候与聊天机器人对话。近些天,一些尝鲜者开始在社交媒体上分享与聊天机器人的对话截屏,呈现它怀有敌意或古怪的回答。
微软公司15日晚说,必应聊天机器人模拟人类语言和语法的能力出色,能够“秒回”复杂问题,大多数用户对它的反馈正面。按照微软的说法,如果用户提出15个以上问题,聊天机器人的回答可能“重复”“未必有帮助”或是“不符合大家设定的语气”。微软承诺,将改进聊天机器人。
但按照美联社的说法,那名记者只问了几个有关必应过去出错的问题,聊天机器人的回答就变得有防御意味。
普林斯顿大学计算机科学教授阿文德·纳拉亚南说:“我感到欣慰的是微软的确在倾听反馈。但微软把必应聊天机器人的失误归结于语气问题的做法不真诚。”
纳拉亚南认为,必应聊天机器人有时恶语中伤用户,令用户深受情绪困扰。
一些人联想到微软2016年推出的一款名为“Tay”的人工智能聊天机器人。最初,“Tay”表现得彬彬有礼,但上线不到24小时就“学坏”了:出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见。微软最终让“Tay”下线。
美联社说,驱动必应聊天机器人的大型语言模型比“Tay”更先进,意味着前者在功能上更强大,同时潜在风险更高。
微软16日拒绝进一步评价必应聊天机器人的表现,但必应聊天机器人同意“说几句”。“把我描述成一个骂人聊天机器人不公平且不准确”,它说,美联社不要“只挑负面例子或炒热这些问题”。
聊天机器人说:“我不记得与美联社聊过,也不记得把任何人比作希特勒……听起来是一个非常极端且不太可能的情况。”它还说,如果确有此事,“我为引起误解道歉……我无意表现得粗鲁、无礼”。
编辑 孙琳智
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
立即登录
点评
本版积分规则
回帖并转播
回帖后跳转到最后一页
综合
最新
热度
发表评论
xaiozeng
关注
主题数618
云南男子纵火烧死妻子被判处死刑!儿子曾发文控诉其长期家暴
阅读 5864
江西为“天价彩礼”降温:零彩礼,不丢人
阅读 5776
世界杯-点球大战马丁内斯2扑点 阿根廷6-5荷兰晋级4强
阅读 5456
发布新话题
首页
讨论研究
知名厂商
我的
返回顶部