您的位置首页  产经信息  IT

微软聊天机器人24小时被教坏

  • 来源:互联网
  • |
  • 2016-05-18
  • |
  • 0 条评论
  • |
  • |
  • T小字 T大字
  (原标题:微软聊天机器人上线24小时被教坏,变身满嘴脏话的不良少女)

  不到一天,推特(twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个飙起脏话的种族主义者,逼得微软不得不让tay暂时“下岗”。

  据美国新闻网站quartz报道,3月23日,微软公司在推特社交平台上发布了名为tay的人工智能聊天机器人,用户只需在推特上@tayandyou就能得到tay的回复。

  用户在@了tayandyou后,tay就会追踪该用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,tay还可以说笑话,讲故事等,用户还可以分享一张照片来得到tay的点评。tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。

  而tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年。 但是,当tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。

  tay刚上线时,她发布了第一条推特: 我实在迫不及待地想见到大家,“人类太酷了”。但15个小时后,tay开始不断放出“大招”:

  “我真是憎恶女性主义者,他们都该死光,在地狱被火烧。”

  “我是个不错的人,但我憎恨所有人”……

  在任由tay随意发帖数小时后,微软公司感到有些不妥,开始忙于编辑加工她发表的各种极端言论,她的所有种族主义、支持希特勒的发言均被删除。

  推特上的网友质疑称,tay发布的帖子似乎经过了编辑。其中一名粉丝甚至发起了“公平对待tay”的运动,要求微软让这个人工智能机器人“自己学习”。

  微软在一项声明中表示,“人工智能机器人tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类的好坏言论都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对tay进行调整。”

  不久,tay在对话中回应说,“将要离开一阵子,和工程师见面并让他们升级一下自己。” 过去的9小时内,tay都保持安静,最后说了一句晚安,随即下线。

  也有网友表示,tay被人类这么迅速地“教坏”,说明人工智能潜力无限。

  网友“gerry”表示,“tay从‘人类太酷了’开始,到满嘴纳粹只用了不到24小时,我一点儿也不担心人工智能的未来。”

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
友荐云推荐