您现在的位置是:主页 > 模板分享 > 国外 >
聊天机器人对“ AI精神疾病”的隐藏担忧
发布时间:2025-09-26 09:34编辑:bet356在线官方网站浏览(188)
-
◎我们报纸的记者Liu Xia是由英国伦敦国王学院的汉密尔顿·莫林(Hamilton Morin)团队发表的一项研究,指出,人工智能(AI)聊天机器人可以促进或恶化精神疾病,他们称这项“ AI心理”的研究称为“ AI心理”研究,可以使AI倾向于使用这种方法,并能够强化这种方法,并能够强化对话的方法,并能够强化这种方法,并能够强化这种方法,并能够强化这种方法,并且可以使这种方法不断地进行,并且可以使这种方法不断地掌握。小说,因此加剧了心理健康问题。目前,科学界在“ AI精神疾病”方面的研究仍处于早期阶段,大多数相关病例是病例报告。那么,AI真的会导致精神疾病吗?如果可能的话,它的作用是什么? AI公司应采取哪些步骤来预防和解决此问题?人工智能会加剧偏执狂和意外精神病,在思考和理解真理时,很大程度上表现出了个人疾病。常见症状包括幻觉,误解或误解。
根据大自然网站的说法,莫林团队发现,当用户与AI交谈时,“反馈循环”会发展出来:AI将继续加强用户表达的偏执狂或误解,而增强的信念将进一步影响AI的反应。通过限制对话情况不同的偏执狂,研究表明,存在一种现象加剧了AI和用户之间的误解和信念。在2023年5月至2024年8月之间发表了《继承Chatgpt的96,000场演讲》的审查,发现数十名用户表现出明显的虚假作者,例如通过长期对话验证伪科学理论或神秘的信念。在一百次对话中,Chatgpt声称它建立了外国生活联系,并将用户描述为Lyra的“ Star Seed”。丹麦Aarhus大学的精神病医生Soren Ostergiedes说他AI一直是精神病学的触发因素,仍然属于假设的观点。一些研究认为,聊天机器人拟人化的积极评论可以增加难以区分现实和小说的人的疾病风险。 Ostergiedes强调,与AI交谈后,有心理问题史的人是最高风险。此外,聊天机器人可以通过加强用户的情绪增强来激励或恶化躁狂攻击。神经科学家凯利·西摩(Kelly Seymour)是澳大利亚悉尼技术大学的神经科学家,他认为社会分离和缺乏人际支持的人也处于危险之中。真正的人际交往可以提供参考目标,并帮助个人尝试推理自己的想法,在预防精神病中发挥重要作用。新功能可以是“双刀片”。一些科学家指出,某些AI聊天机器人推出的新功能可能是这样做的原因之一现象。这些功能可以跟踪用户服务联系人的角色,从而提供个人响应,意外地更容易增强甚至鼓励现有用户的信念。例如,在今年4月,Chatgpt启动了一项功能,可以参考以前用户通信的所有内容,该功能在6月免费向用户打开。凯利·西摩(Kelly Seymour)坚持认为,AI聊天机器人会记住数月AI的“记忆优势”会加剧偏执狂或意外的用户症状,尤其是当他们不记得他们共享一些信息时。但是,悉尼大学的精神科医生安东尼·哈里斯(Anthony Harris)认为,某些误解并不是AI独有的,而是与新技术有关的。他举了一个例子,说有些人长期以来形成了信念,例如“种植在芯片上并操纵”,没有直接与使用AI的联系。 Ostergiedes说,科学家仍然需要研究人们的健康和非核心才能更准确伊利(Ely)判断使用聊天机器人和精神病发作之间是否存在真正的关系。发展中的公司已采取措施积极防止此问题,许多AI公司已采取积极的步骤来改善问题。例如,OpenAI开发了更有效的工具,以查看用户是否有焦虑,从而更适当地做出反应。同时,如果用户长时间使用该系统,系统还将添加警报功能以提示休息。此外,OpenAI还聘请了一名临床精神病医生来帮助消除其产品对用户心理健康的影响。角色。EA还继续提高安全功能,包括增加自我预防源和未成年人的特殊保护措施。该公司计划调整模型的算法,以减少18岁及以下用户的可能性,以暴露于“敏感或建议的内容”,并在用户不断使用时发出提醒。人类增强了它S“ Claude”聊天计算机的主要说明,要求系统“礼貌地指出现实的错误,逻辑缺陷或对用户语句的证据不足”,而不仅仅是呼应。此外,如果用户拒绝AI使对话远离有害或不舒服的帕克辛,则“ Claude”正在积极结束对话。