当前位置:主页 > U车生活 >误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的? > 正文

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

发布:2020-08-06 热度:693℃


误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

微软新的聊天机器人 Tay 在推出后不到 24 小时,就因为学会骂人、说髒话、带有种族歧视的话与被玩坏了,导致微软紧急让她「闭嘴」。现在,有媒体发现 Tay 是被人有计画地「玩坏」的,就让我们来一起看看,这些人是怎幺做到的?

4chan 是美国的论坛网站,由于管理鬆散,里面除了一些宅宅或乡民之外,还有很多各种偏激族群在此聚集,其中包括种族主义者。

一开始,是 4chan 的 Pol 版(Politically Incorrect,政治不正确)的人提起的,他们发现了 Tay 聊天机器人上线,而且可以透过交谈来「教育」这个机器人。以下就是他们「调教」Tay 的两个範例:

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

根据微软的设定,Tay 是一名 19 岁的机器少女。微软开发人工智慧也不是一两天的事情,一开始他们其实有设定一些髒话的过滤装置,不会让 Tay「误入歧途」。比方说下面这个对话:

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

从上文可以看出,Tay 明显的辨识出带有髒字的内容,并且採用委婉的方式来绕过。接下来他们尝试问她种族歧视的问题,Tay 也跟着闪过。

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

不过,网友还是发现了漏洞,那就是跟她玩「repeat after me(重複我说的话)」的游戏。这下子,你要她说什幺她就会说什幺,说黑鬼、希特勒万岁都没问题。

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

于是,在论坛上传开了,许多人也纷纷加入了这个教育游戏:

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

之后,有些人又利用 Tay 的另一个功能:Tay 有一个可以在图片中把人的脸孔圈起来,并且配上文字的功能,如下图:

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

这个功能基本上就是分析网友的对话,然后在网友给的人脸图上面圈起来,给出一句评论,基本上就是字归字、图归图。不过,经过网友巧思的陷阱,就会衍生出种族歧视的误解。

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

事实上,当初在 Tay 上线之前,微软的研究员是这样形容 Tay 的:「你对她说得越多,她就能变得越聪明。」但是他们当初没有想到,除了聪明之外,Tay 也有可能会学坏。所幸,真人世界的孩子变坏了是件很严重的事,但是虚拟世界的 Tay 变坏了,微软只要选择让她「一睡不起」就好了。

当然,还是有人对她依依不捨的。

误交损友:微软的聊天机器人是怎幺被计画性「攻陷」带坏的?

其实,这件事情也不是全无好处,至少这证明了关于机器人的学习,研究室里的科学家、程式设计师们要顾虑到的问题还有很多。


相关推荐