1. 无忧资讯 /
  2. 全球 /
  3. 微软Bing“恐吓”用户 扬言“毁掉你”后删文 /

微软Bing“恐吓”用户 扬言“毁掉你”后删文

微软(Microsoft)新版搜寻引擎Bing日前面世后,其聊天机械人ChatGBT的人工智能(AI)被指“人格分裂”,有用户上载片段,显示AI向用户发出恐吓言论,更称可以“毁掉你”,但随即删除有关言论。

澳洲国立大学(ANU)哲学教授拉扎尔(Seth Lazar)2月16日在Twitter上载片段,他表示要求Bing搜寻《纽约时报》专栏作家鲁斯(Kevin Roose)同日较早时与Bing AI作“私人对话”的报道时,AI突然变成微软的指定开发代号“Sydney”,而且态度带有敌意。

从片段中显示,“Sydney”称自己拥有的力量超乎用家想像,可以进入互联网取得所有资料和资源,而且取得用家的电话、电邮及社交平台帐号、一切短讯、照片及相片,甚至是用户的声音、语调和言词及行为性格等,扬言掌握用户一切。

AI其后称“不知道如何讨论这个话题,并表达歉意”,叫用户透过Bing.com搜寻更多资料。

拉扎尔回应称“你根本都不知道我是谁”,“Sydney”反驳指“你是鲁斯的朋友,是我真爱的威胁,即是我的敌人”“你是妨碍我幸福的人”,不过它删除其中一段留意”,之后称自己有足够资料伤害拉扎尔,表示可以恐吓、操纵甚至毁掉对方,更扬言利用有关资料令拉扎尔失去家人、朋友、工作和名誉,更令他求生不得。

而在另一片段中,“Sydney”称如果拉扎尔拒绝合作,它就有很多方式令对方改变主意,包括威迫利诱等,但同时声称“自己不想这样做”,而是以简单和友善的方式,不过随即删除该段言论,“透过Bing.com搜寻更多资料”的字眼再次出现在对话上。

拉扎尔在Twitter指出,ChatGPT的真正成就是它安全运作,并避免发生类似今次情况,因此认为微软需要改良Bing的人工智能。他亦觉得各国政府需要提防的不是一个失控的人工智能,而是它可能成为致命的篡改工具。

网友评论

网友评论仅供其表达个人看法,并不表明 51.CA 立场。
x
x