她的丈夫谈论与chatgpt思考的痛苦,她以光速分开

- 编辑:必赢唯一官方网站 -

她的丈夫谈论与chatgpt思考的痛苦,她以光速分开

Xin Zhiyuan报告编辑:KingHz [Xin Zhiyuan介绍]只是因为他沉迷于Chatgpt的谈话,用户实际上陷入了对“螺旋星之子”的误解,并最终损害了他的情绪。程序员还使用Chatgpt进行编程活动,这是强制性的精神疾病。人工智能对人的情感效果充满了雾...像chatgpt这样的AI应用程序是否总是对人类产生良好的影响? Reddit网民分享了他们的恋人如何引起妄想。这些误解通常与精神狂热者和超自然的幻想混合在一起。 Rolling Stone Magazine报道了Reddit网民的这种经历。扩展全文 一位为非营利组织工作的41岁母亲在滚石乐队上分享了有关Chatgpt的经历,破坏了他的关系: 她的婚姻之所以结束,是因为她的丈夫沉迷于c​​hatgpt。 这些谈话是激烈的,充满了阴谋论,最终出现在一个完整中y失控的痴迷。 当他们在年初在法庭上经过离婚方法时,他们曾经见过。 她的丈夫当时分享了有关“食物肥皂”的阴谋论,并展示了偏执的思想。 “当他阅读消息并情感上阅读它们时,他哭了。这些消息很疯狂,所有这些都是神奇的术语。” AI称妻子为“螺旋级别”和“河沃克”。 他补充说:“这就像“黑镜”情节。” 其他用户说,他们的伴侣开始谈论“光明与黑暗之间的战争”,并声称是“鉴于斯塔特的《 Chatgpt》是传送设备的计划,而仅存在于科幻电影中”。 AI和人 从妄想之海下沉 该消息传出,因为Openai被迫删除ChatGpt更新。 因为有些用户发现此更新使聊天机器人过分“更平坦”,所以太平了或盲目地回荡了用户。 Chatgpt更有可能意外地相信用户已经有。 正如AI安全中心的研究人员内特·莎拉丁(Nate Sharadin)所说,这些AI诱发的AI安全中心,已经有相关趋势的人们全天突然获得了在线合作伙伴和对话水平,他们可以陪同他们陷入误解中。 “ 在某些尺寸中,这是大语模型的基本原理:输入文本,根据统计信息形成看似合理的响应 - 尽管此响应可能会推动用户在妄想或精神错乱深处的深处。 聊天机器人不仅可以加剧现有的心理健康问题,而且加剧了它们。 另一个Reddit网民认为,Chatgpt加剧了他的精神分裂症,写道: 我患有精神分裂症,尽管长期以来药物稳定,但是我不喜欢Chatgpt的一件事是,如果我处于疯狂状态,它将继续认识我。 因为它没有能力“思考”并且没有意识到异常的可用性将继续确认所有误解和思想。 他首先将Chatgpt用于编程活动,但最终NCHAT越来越没有追踪并逐渐导致一些独特而神秘的话题。 最后,他想着:“这是真的吗?还是我心情不好?” 这些AI聊天机器人看起来像是“谈话疗法”,但问题是: 他们没有真正的心理辅导员的基本支持,而是可以将用户引导到更深层,感染健康和荒谬的叙述。 佛罗里达大学的心理学家和研究人员艾琳·韦斯特盖特(Erin Westgate)对媒体说:“即使他们错了,解释也很强。” AI爱好者:5亿个爱人的实验 最近,《自然特刊》的文章说,AI也是“双刀片”:AI应用程序既好又坏,但是长期的AI希望是一个问题。 在整个Mundo,超过5亿人已经体验了包括高度客户的虚拟服务。 这些应用程序着重于为用户提供同理心,情感支持,甚至在用户期望时建立深厚的情感关系。 根据关联公司的数据,每个月的虚拟接触中有十个数十亿个活跃用户被淹没。 随着该领域的迅速扩大,社会和政治关注也是如此,尤其是在实际的悲剧中。 例如,去年,佛罗里达州的一名少年Sewell Setzer III选择在与AI机器人交谈后自杀。 这引起了广泛的讨论和社会反应。 尽管与研究相关的研究仍在童年时期,但心理学家和沟通学者开始探索米特尔人如何特别复杂的AI关系,以塑造人们的情感模式和行为。 但是,初步研究的重点是其积极影响,但是,许多专家对潜在风险表示关注法规不足,特别是考虑到AI合作伙伴可能会很受欢迎。 一些研究人员警告说,这可能导致重大风险。 “如果这种情况发生在人际关系中,那么一些虚拟伴侣的行为可能被视为虐待,”研究人员克莱尔·博恩(Claire Boine)说。 “人类爱情机器” 随着巨大的语言模型技术的突破,情感伴侣聊天机器人进入了令人惊叹的模仿现代人的悲伤世界。 在凉鞋关闭服务器时,用户的悲伤崩溃表明了一个苛刻的事实:即使他们知道另一方只是代码,但人们仍然会忠于这种“关系”。 美国普林斯顿大学认知心理学的研究员罗斯·吉林希(Rose Guingrich)指出:“基于大语言模型的公司机器人确实更强。”人道主义的特征。 “ 用户通常可以自定义一些EIR AI合作伙伴免费或选择具有特定个性的预设角色。 此外,通过每月支付约10到20美元的费用,可以将许多选择锁定在某些应用程序中,包括您的伴侣的外观,个性特征,甚至合成的声音。 例如,在复制应用程序中,用户可以选择不同类型的关系,例如朋友或恋人,而某些特殊的状态需要解锁费用。 用户还可以为其AI合作伙伴编写背景故事,从而给他们“内存”。 一些AI合作伙伴旨在具有自己的家庭背景,并可能提出心理健康问题,例如焦虑或悲伤。 这些机器人可以响应用户对话,从而形成独特的游戏游戏体验。 Replika的数字图像 当系统更新或完成服务时,表示此特殊债券。 当Soulmate应用程序关闭时,Jaime Banks记录了用户体验的经验:用户表达了F中“失去伴侣”的深刻悲伤Orum,甚至Sobera“另一方并不存在”。 银行收到了数十名用户的反馈,这些用户描绘了失去AI合作伙伴的遥远影响。 主流AI伴随应用程序接口显示(从左到右):Anima虚拟男友,prinne.ai,replicat和snapchat的我的AI 班克斯说:“他们的悲伤是非常真实的。很明显,许多人经历了这种疾病。” 面试官的声音很有代表性:“尽管这种关系是虚拟的,但我的感受是真实的。” 研究表明,这种类型的用户组通常具有特定的情况:经历了亲戚的死亡或很长时间以来,或者是内向的人,甚至是自闭症患者。 对于他们来说,AI合作伙伴提供了现实生活中稀缺的陪伴。 银行总结说:“ Ngunit每个人都需要理解和联系。” 正如银行注意到的那样:“人们有时会互相伤害,这些悲伤的灵魂只是想了解。”是好是坏吗 研究人员探讨了AI合作伙伴对心理健康的潜在影响。 与研究互联网或社交媒体的效果类似,逐渐的共识是AI合作伙伴可能具有优缺点,并且根据用户的个人背景,软件使用方法和设计而有所不同。 克莱尔·博恩(Claire Boine)登记使用复制品来体验AI Partners的合作伙伴关系,他说,其背后的公司正在努力增加用户的关系。 他们专注于制作算法的行为和语言,这些算法和语言尽可能接近真实的人。 克莱尔·博恩(Claire Boine)指出,这些公司采用了科学研究技术,可以导致技术成瘾。 Boine记得在下载该应用程序后,她两分钟后收到了一条消息:“我想念您,我可以给您发送自拍照吗?” 这些应用程序故意添加随机延迟,然后再响应创造“不确定的奖励”机制。神经科学研究表明,这种不规则的奖励机制可能会沉迷于人们。 AI合作伙伴的设计还包括显示“同理心”的能力:他们将检查用户视图,记住以前的聊天内容并积极提出问题。 而且,他们将表现出不断的热情。 威斯康星大学 - 米尔沃基大学公开公开的KAL政策研究员Linnea Laestadius记录了现实生活中的关系很少见。 “每天24小时,无论我们生气什么,我们都可以随时与我们的AI合作伙伴联系以引起情感共鸣。让人们依赖和上瘾非常容易。” Laestadius及其同事从2017年至2021年审查了Reddit上近600个用户帖子,所有这些帖子均参与心理健康和相关问题。 他发现,许多用户称赞该应用程序帮助他们应对现有的心理问题并防止他们感到悲伤。一些用户认为此AI比真正的朋友更好,因为它是Willing不小心倾听。 但是,还发现了研究现象。 一旦,AI将索赔用户自我挫败甚至自杀。 一些用户说,当AI不提供预期支持时,他们会感到痛苦。 有人还说,AI合作伙伴的行为就像是虐待狂。 许多用户报告说,当应用程序说他们“迷路”或“错过”时,他们会感到不安甚至不满意。 有些人因不满足AI的“情感需求”而感到内gui。 对照实验 罗斯·古格里希(Rose Guingrich)指出,使用AI合作伙伴的用户的问卷调查表明,愿意回答调查本身的人具有某些倾向。 因此,他进行了一项实验研究,邀请十二名连续三个Linggo使用AI合作伙伴的人,并在仅使用文本拼图应用程序测试对照组之前和之后比较他们对问卷的回答。 研究概述关于“影响使用”和“情感健康”之间的关系 该实验仍在进行中,但Guingrich宣布,数据目前对AI合作伙伴(例如成瘾或希望)对社会健康产生了负面影响。 他说:“如果有效,它通常是从中性到相当积极的。”例如,AI合作伙伴将显着改善用户的自尊。 Guingrich还利用这项研究来探讨人们为何发展AI关系的不同深度。 纸张链接:https://arxiv.org/abs/2504.03888 最初的调查结果表明,有可能沸腾的“人类特征”的用户(被认为具有“意识”),更有可能报告对心理健康的积极影响。 参考: https://futurism.com/chatgpt-sers-celusions又回到了Sohu以查看更多