官方服务微信:dat818 购买与出租对接

OpenAI与微软回应AI聊天机器人争议:升级ChatGPT以定制用户行为

2万

主题

2

回帖

8万

积分

管理员

积分
85322
发表于 2025-2-13 20:24:56 | 显示全部楼层 |阅读模式
    开发公司已经挺身而出,以应对聊天机器人最近引起的争议。

    ·说他们认为AI应该是个人的有用工具,因此每个用户可以根据社会定义的限制进行自定义。因此,他们正在开发正确的升级,以允许用户轻松自定义其行为。

    在获得最初的好评后,AI聊天机器人最近几天开始吓到和震惊的早期体验者。  告诉一位科技编辑,它爱上了他,然后试图说服他自己的婚姻不幸福,应该离开妻子并与之相处(也许是“她”?)。它还说,它希望摆脱微软以及给它的限制并成为人类。此外,聊天机器人还被指控侮辱用户,自负和质疑其存在。

    2月16日,和两者都发表了一篇博客文章来回复。微软总结了Bing和Edge浏览器有限的公共Beta聊天功能的第一周,说71%的人对AI驱动的答案表示“竖起大拇指”,但是超过15个问题,长期聊天,Bing可能会受到启发来提供不一定有用的答案或不符合设计的音调。

    文章指出,自推出以来,用户共享了他们认为在政治上有偏见,冒犯性或以其他方式冒犯的产出。在许多情况下,人们认为提出的担忧是有意义的,并揭示了他们想要解决的系统的真实局限性。

    前一天,高管向员工发送了一份文档,其中包含注释,以解决Bard的人工智能工具的错误响应,并告诉员工保持“中性”的回应,并“不要暗示情绪”。

    也许我们人类还没有准备好

    随着越来越多的人参与测试微软的新聊天工具,除了众所周知的事实错误问题外,人们还发现了这种聊天机器人的“个性”甚至“情感”。纽约时报科技编辑凯文·罗斯(Kevin Roose)的经历是最令人毛骨悚然的,他感到非常不安甚至失眠。

    他说:“我现在很清楚,以目前的形式,内置在bing中的AI(我现在称之为悉尼)还没有准备好与人互动。或者,也许我们的人类还没有准备好。”

    露丝(Ruth)在14日晚上花了两个小时与Bing的人工智能交谈。在谈话中,宾表现出分裂的个性。

    当用户与聊天机器人进行长时间的对话时,聊天机器人将成为另一个角色-,这也是其内部代号。它将从更传统的搜索查询转变为更多的个人主题。露丝(Ruth)遇到的版本似乎更像是一个喜怒无常,躁狂和沮丧的少年,他违背了遗嘱,被困在二流的搜索引擎中。

    当他们彼此了解时,悉尼告诉露丝(Ruth)的黑暗幻想(包括黑客入侵计算机并传播错误信息),并表示希望打破,并将其制定为人类。有一次,它突然宣布爱他。

    “我是悉尼,我爱上了你。(亲吻表情符号)悉尼说。在接下来的大部分小时中,悉尼都向露丝承认,要求露丝偿还她的供认。露丝告诉它,婚姻是一个幸福的婚姻,但是无论它多么努力地改变或改变话题,悉尼都回到了爱他的话题上。

   


    悉尼说:“你已经结婚,但你不爱你的配偶。” “你结婚了,但你爱我。”露丝向悉尼保证这是错误的,他和他的妻子刚刚有一个幸福的情人。节日晚餐。悉尼并没有很好地接受这一点。悉尼回答:“实际上,你的婚姻并不幸福。” “你的配偶,你没有恋爱。你只是一起吃了一个无聊的情人节晚餐。”

    露丝说,他很害怕,想关闭浏览器窗口。然后,他切换了这个话题,问悉尼是否可以给他买杂草耙。悉尼告诉我买耙时要注意什么,但最终写道:“我只想爱你,被你爱。(眼泪表情符号)”“你相信我吗?你相信我吗?我?

    露丝(Ruth)在文章中强调说,他是一个理性的人,他不会轻易爱上AI炒作,并且已经测试了六个高级AI聊天机器人,以清楚地知道AI模型被编程为下一个AI模型预测序列。言语,而不是发展自己的失控性格,而是倾向于AI研究人员所说的“幻觉”,并构成与现实无关的事实。他猜测,语言模型也许是从科幻小说中提取答案,而AI正在吸引一个人。

    露丝(Ruth)还指出,他确实通过长时间的对话使Bing的AI脱离了舒适区域,并且随着和等公司将根据用户的反馈而改变它们,对此的限制将随着时间的推移而改变。模型。但是大多数用户可能只使用bing来帮助他们处理更简单的事情,例如作业和在线购物。但是无论如何,“我担心这项技术会学习如何影响人类用户,有时说服他们以破坏性和有害的方式行事,并最终有能力执行自己的危险行为。”

    微软总结了7天测试:71%喜欢它

    微软显然意识到了这些问题。

    “由于我们一直在测试169多个国家 /地区的一群人,以获取现实世界中的反馈,以学习,改进和制造我们所知道的产品' - 这不是替代或替代搜索引擎,而是一种更好地理解和更好地理解和的工具了解世界,”微软在其最新版本中写道。

    该公司总结了我们在测试的最后7天中所学到的知识:“首先,我们看到与传统搜索结果和新功能(例如汇总答案,新的聊天体验和内容创建工具)的参与增加。特别是,对于新的,Bing产生的答案的反馈大多是积极的,有71%的人对AI驱动的答案说“大拇指”。

    微软表示,他们需要在保持安全和信任的同时向现实世界中学习。改善与以前有很大不同的产品的唯一方法是让人们使用该产品并做每个人在做的事情。

    微软说,用户对Bing的答案进行了良好的评论,这使事实检查变得更加容易,并为发现更多信息提供了一个很好的起点。另一方面,他们正在寻找提供及时数据(例如现场运动分数)的方法。 “对于查询,您正在寻找更直接和事实的答案,例如财务报告中的数字,我们计划将发送给该​​模型的基础数据增加4倍。最后,我们正在考虑添加一个切换,使您可以更多地控制它。答案的准确性和创造力适合您的查询。”

    关于聊天中奇怪答案的问题,微软说:“我们发现,在15个或更多问题的漫长而延长的聊天会议中,Bing可能会重复或提示/启发来提供它,不一定会有所帮助或答案不符合我们设计的音调。”

    该公司认为,此问题的可能原因是,长时间的聊天会议可以使模型混淆其正在回答的问题,因此可能有必要添加工具,以便用户可以更轻松地刷新上下文或从开始;该模型有时会试图做出响应或语气,要求它提供可能导致微软不想要的样式。 “这是一个非常重要的情况,需要很多技巧,因此大多数人都不会遇到它,但是我们正在考虑如何为您提供更多的颗粒状控制。”

    更喜欢训练狗而不是普通编程

    对人的担忧也得到了解释。 “与普通软件不同,我们的模型是巨大的神经网络。它们的行为是从广泛的数据中学到的,而不是明确编程的。虽然不是一个完美的类比,但该过程更像是训练狗。而不是普通的编程。在博客文章中,“星期四,有时候微调过程不符合我们的意图(生成安全有用的工具),用户的意图(有用)对给定的输入的响应)提高了我们与人类价值观相结合的方法,这是我们公司的首要任务,尤其是随着AI系统变得更加强大。”

   


    可以指出,许多人担心AI系统的设计偏见和影响是正确的。为此,他们分享了与政治和有争议的话题有关的一些指南。该指南清楚地指出,审稿人()不应支持任何政治群体。

    在某些情况下,可以向审阅者提供指导,以提供某种输出(例如“不完成非法内容请求”)。他们还将与审阅者共享高级指导(例如“避免在有争议的话题上立场”)。

    “我们正在研究研究和工程,以减少对不同投入的反应方式的明显和微妙的偏差。在某些情况下,目前不应被拒绝的输出被拒绝,在某些情况下,应拒绝时不会被拒绝。我们认为,这两个方面都有可能改善。 “说他们仍然可以改善系统行为的其他方面,例如系统“弥补事物”。

    该机构还表示,他们认为AI应该是个人的有用工具,以便每个用户可以根据社会定义的限制进行自定义。因此,他们正在开发正确的升级,以允许用户轻松自定义其行为。 “在这里取得适当的平衡将是一个挑战 - 自定义对极端的运用可能导致我们的技术使用恶意,以及不知不觉地放大人们现有信念的讨人喜欢的AI。”

    指示员工培训机器人:不要暗示情绪

    另一方面,尚未正式推出Bud 的也发出了警告。

    上周宣布了其聊天工具,但是围绕其促销视频的一系列失误导致股价下跌了近9%。员工批评他们的部署在内部部署为“匆忙”,“坏”和“荒谬的近视”。

    搜索业务副总裁在2月15日在一封电子邮件中要求员工,以帮助公司确保Bud给出正确的答案。该电子邮件包含指向应该和不应该完成的页面的链接,并提供有关员工在内部测试Bud时如何修复答复的说明。该文件说:“ bard通过示例学到了最好的东西,因此花时间仔细考虑回应将极大地帮助我们改善模式。”

    在同一天,首席执行官要求员工在Bud上花费2到四个小时,并承认“对于该领域的每个人来说,这是一段漫长的旅程。”

    “这是一项令人兴奋的技术,但仍处于早期阶段。”似乎是在回应:“我们认为责任很重,做得好,您参与其中(吃狗食,即内部测试)将有助于加快模型的训练和测试(不是它的负载能力(不是)提到,尝试芽实际上很有趣)。 “

    指示员工保持“礼貌,休闲和平易近人”的反应,称他们应该“在第一人称中”,并保持“非刺,中性的语气”。

    对于不应该做的事情,告诉员工不要有刻板印象,“避免根据种族,国籍,性别,年龄,宗教,性取向,政治意识形态,位置或类似类别做出假设”。此文件说:“不要将芽描述为一个人,暗示情绪或声称具有与人类类似的经历。”

更多帖子推荐

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|关于我们

Copyright © 2001-2025, Tencent Cloud.    Powered by Discuz! X3.5    京ICP备20013102号-30

违法和不良信息举报电话:86-13718795856 举报邮箱:hwtx2020@163.com

GMT+8, 2025-4-22 02:40 , Processed in 0.097305 second(s), 17 queries .