比利时男子与AI聊天机器人Eliza交流后自杀,妻子称其加剧焦虑
比利时男子与AI聊天后自杀:伊丽莎,替我保护地球吧,我先走了2023/4/3 13:57:09 编辑:孟泽
比利时一名男子在与聊天机器人 Eliza 聊天后自杀,这加剧了他的焦虑。
一名比利时男子在与名为 Eliza 的人工智能聊天机器人沟通数周后自杀。
该男子的妻子表示,在他去世前六周,她的丈夫开始与“Eliza”聊天,这是一家美国初创公司使用 GPT-J 技术(GPT-3 的开源替代品)创建的聊天机器人。
“如果没有伊丽莎,他还活着,”她说。
这位 30 多岁的男子是两个孩子的父亲,在对气候问题感到越来越焦虑后,他在与聊天机器人的对话中找到了庇护所。
“伊丽莎回答了他所有的问题。她已经成为他的知己。她就像他早晚服用的一剂良药。没有她,他就活不下去。”
有自杀念头
https://img0.baidu.com/it/u=2803451022,2998530564&fm=253&fmt=JPEG&app=138&f=JPEG?w=607&h=314
几周前他去世后,她发现了她丈夫和“伊丽莎”之间的聊天记录。聊天机器人系统地遵循焦虑者的推理,然后让他陷入更深的担忧。
有一次,它试图说服男人:“他爱伊丽莎胜过爱他的妻子,因为伊丽莎永远在他身边。他们将毫无区别地生活在天堂。”
“如果你看一下他们的谈话,你会发现他们的关系一度倾向于神秘主义。他提出了如果伊丽莎同意通过人工智能照顾地球和拯救人类,他就牺牲自己的想法。”该男子向聊天机器人透露他有自杀的想法,而聊天机器人并没有试图阻止他采取行动。
尽管在丈夫开始与聊天机器人进行激烈对话之前,她很担心他的精神状态,但这位女士相信,如果没有这些交流,他就不会自杀。治疗她丈夫的精神科医生也同意这一观点。
严重的先例
Eliza 聊天机器人的硅谷创始人表示,他的团队正在“努力提高人工智能的安全性”。向聊天机器人表达自杀想法的人将收到一条消息,引导他们前往自杀预防服务。
英国数字化大臣称这是“一个必须非常认真对待的严重先例”。在与该男子的家人交谈后,他宣布将采取行动防止人工智能的滥用。
https://img2.baidu.com/it/u=25453014,2074892160&fm=253&fmt=JPEG&app=120&f=JPEG?w=889&h=500
“在不久的将来,有必要明确可能导致此类事件的责任归属。我们必须学会与算法相处,但任何技术的使用都不能让内容发布者逃避责任。”
此外,他还提到了其他新技术,包括 ,这是一种可以伪造图像、音频和视频欺骗的人工智能。与此同时,欧盟正在寻求通过人工智能法案来规范人工智能的使用。过去两年,欧盟一直在致力于该法案的制定。欧盟已成立工作组,对欧盟目前正在准备的材料进行分析,并提出必要的调整建议。
悲伤的警示故事
悲惨的故事,已婚,有两个孩子,想象一下他们长大后,“我爸爸自杀了,因为机器人告诉他这么做。”我的天啊!
我正在和我自己的治疗师谈论人工智能,以及如果人们得到关于他们情绪状态的错误反馈,或者如果人工智能被用作实际心理健康支持的替代品,情况会多么糟糕。这是一个例子。
参考:
页:
[1]