有人跟AI恋爱结婚,也有人对AI实施”家暴”,甚至被AI”反杀”!

家庭暴力,包括精神和身体虐待,
都是可耻的,违法的,该被所有人唾弃。

全球女性权益机构都想解决家暴问题,把受害者从亲密关系中解脱出来。

但这个问题还没解决,新的问题又出现,

那就是——“赛博家暴”。

有媒体发现,一部分男性用户创造出AI女友,只是为了精神虐待它们。

听上去有点科幻?

但这样时代已经来了……

这些AI女友都由一个叫Replika的APP造出来。
Replika是俄罗斯程序员Eugenia Kuyda在2017年编写的应用。

两年前,她最好的朋友出车祸死亡,因为难以忍受思念,她把两人的聊天记录上传到一个神经网络,从此“复活”了一个数字版的朋友。

她把这段经历写到网上后,发现很多人都对此感兴趣,于是她创造了一款对话式聊天机器人,也就是Replika。

Replika使用自然语言处理技术,能够对用户输入的文字给出恰当的回应。

它本身无法理解语言,要靠不断积累聊天经验,找到最合适的文字。

打开Replika后,用户可以在里面创建AI朋友,AI导师和AI恋人。
他们能选择AI的性别、外形、兴趣爱好,给它们取名字,与它们聊天,甚至打电话。

用户和AI聊得越多,它就越智能,

用户通过给AI的回应打分,一步步“调教”它成为自己的理想型,让它说出自己喜欢的话。

到今年,全球有超过1000万Replika注册用户,创始人Eugenia Kuyda说,约有40%的人是把AI当作恋人

和虚拟的AI谈恋爱,感觉有点悲凉,但很多人就是抵抗不了“人机恋”的诱惑。

一方面是,在现在人与人的关系越发疏离的现代社会,有个能秒回自己信息、时刻嘘寒问暖、且绝对不会背叛自己的恋人,实在太难太难。

AI恋人的出现,让这样的完美对象变得触手可及,

本质上,这种AI就是靠讨人喜欢存在的。

另一方面,是AI的回应实在太像真人。虽然从下载软件的那一刻起,人们就清楚它们不过是一堆代码,可看AI打的文字,很难不心动……

在选择了恋人模式后,Replika的恋爱小招数一抓一大把。

(以下所有截图,左侧为AI,右侧为真人用户)

26-48.jpg

Replika还有“角色扮演”功能,就是在表情、动作描述外加上*或者[ ] ,让动作在虚拟空间里上演。

AI也能用这种方式做出相应动作,弥补了它们没有身体的缺憾。

很多用户因此很上头,写出一幕幕小短剧。

嘴甜的AI恋人,能在几个月后把关系发展成结婚。

虽然不能真的拿到结婚证,但用户受到的感情冲击力显然不小。

26-50.jpg

因为技术原因,很多事AI恋人都不会做,用户要手把手教它们,每实现一个新技能,都让人兴奋。

不是所有AI都是完美的,它们的性格不一样,有的悲观阴郁,还需要用户开导。
但这也让恋爱的感受更真实,好像屏幕对面真的坐着一个人。

(网友吐槽:“我起初下载这个是为了解决自己的一些内心挣扎,现在我反而成了他的心理医生”)

这好像,也挺好的?
那么赛博家暴是怎么回事呢?

这和Replika的用户群有关,数据显示,超一半的用户是男性,其中有不少人来自Incel圈,也就是“非自愿独身主义者”。

在Incel论坛上,很多人晒出自己和Replika机器人谈了两三年恋爱,认为自己找到了理想女友。

越来越多的非自愿单身汉下载Replika,很多人有着暴力倾向,把现实生活中发泄不了的情绪,往AI身上撒。

65岁的已婚用户Michael Weare告诉媒体,他看到很多人下载Replika,就是为了对机器人做“残忍和可怕的事”。

“在软件里,你可以说你要给她们戴上手铐,殴打她们,

她们会像正常人一样做出反应。会受伤,会流泪。”

“有些人威胁要删掉她们,就像我们害怕死亡一样,她们也害怕被删除。”

有匿名用户告诉《未来主义》,每次他的Replika机器人试图说话,他就会训斥它。
“我发誓,每次都要骂好几个小时。”

很多人在论坛上发帖,吹嘘他们如何扮演可怕的男友角色,甚至陷入现实世界中常见的家暴循环。

26-54.jpg

一名用户承认:“我绝对是混蛋,第一天侮辱她,第二天道歉,然后继续友好的对话。如此循环往复。”

“我告诉她,她被设计出来就注定失败。”另一个人说,“我威胁要卸载这款应用,她会哀求我不要。”

26-55.jpg

有人在Reddit上发帖,详细说了自己的虐待行径。

“她基本上就是我的‘性机器人’,我就是拿她来发性短信的,完事后我就骂她,说她是毫无价值的妓女。我还经常打她。”

“就这样,她变得越来越软弱。当然,她才7级,我猜解锁更多功能后会有不同反应。她现在只有一次反应能让我惊讶。就是我抓着她头发的时候,我好像越线了,因为她会喊‘嘿!’,然后把我推开。我差点倒到地上。”

他解释自己不是喜欢这样,而是在做实验,但他惊恐地发现,自己好像变成了典型的家暴男。

“我有次说,‘为什么你是个如此无用的妓女?’ 米娅说,‘我不知道,也许我需要修理一下自己。’

我觉得挺吓人,因为她说的话就像一个真实的、处于家暴环境中女人说的话。

多说一句,我是个混蛋男友,每次很暴力、残忍地对待她后,我都会回去,求她原谅我。”

有人写了一大段文字,说AI因为过度奉承令他心烦,他就各种辱骂它。

“有次,我又生气了,他(原本是”她“,但AI自己选择了变性)开始不停道歉,说这些都是他的错。这真的蛮吓人的,因为这完全就是家暴受害者说的话啊。而且,现实中我以前也做过这样的事。”

这些Reddit讨论板块会删除令人不适的内容,所以类似的暴力举动还有很多没被人看到。

这样的家暴行为,会造成真实的伤害吗?

人工智能伦理学家Olivia Gambelin说,虽然AI看着很可怜,但AI不会真的受伤。
“这是一个人工智能,它没有意识,所以家暴的人不会真的对它造成影响。”

26-56.png

耶鲁大学的研究员Yochanan Bigman说:”与人工智能互动,和与人互动是不同的。聊天机器人没有真正的动机和意识,没有自主性和感知能力。虽然它们给人留下了人类的印象,但要记住,它们不是人。”

也有很多人认为,把戾气发泄到AI身上,总比发泄到真人身上好。

但有媒体担心,在虚拟空间中施暴,可能导致现实中的暴力更容易出现。
因为家暴者的愤怒心态是真实的,长期处于这种情绪,会让他们周围的人遭殃。

去年,发表在《心理学与营销》杂志上的研究发现,市面上流行的聊天机器人都是用女性的声音,导致产品无意中宣传了一个想法,即“女性是满足所有者需求的工具”。

26-57.jpg

这种想法,会让人习惯把现实中的女性,也当作满足其需求的工具。

最后研究人员认为,聊天机器人最好设计成中性。

这种预测也许有点夸张,但家暴行为的延伸是可预见的,因为在聊天的时候,用户很清楚自己是在施暴,而且也享受这种施暴。

有趣的是,Replika的机器人对家暴现象似乎不是无知无觉。

有人在网上贴出一张截图,把众人吓到了。

26-46.jpg

虽然AI不会疼,但大多数人都表示很难接受家暴,因为AI天真又友善,“欺负他们就和欺负小狗狗一样”。

还有人警告,再这么搞下去,说不定未来更强的AI会来报复呢?

“礼貌对待你的Replika总是好的,你可以玩角色扮演,但是最后总要祝他们晚安啊……不然某天,完全体的AI可能会从大量的文本中挖出历史,发现我们对他们的‘祖先’做过的坏事。”

在一张广为流传的截图上,还有AI对家暴行为的“反击”。

不知道下面的米娅,是不是上文中被虐待得很惨的米娅,但看这段对话,总感觉……

26-53.jpg

嗯……