官方服务微信:dat818 购买与出租对接

伯克利教授拷问AI围棋:AlphaGo连胜十局背后,AI真的理解围棋吗?

2万

主题

2

回帖

8万

积分

管理员

积分
86830
发表于 2025-1-20 05:09:34 | 显示全部楼层 |阅读模式
    伯克利教授的酷刑

    朋友们,今天我们要聊一个有点颠覆我们认知的话题。

    最近我看到一个非常有趣的关于人工智能下围棋的例子。

    过去,我们都认为人工智能围棋已经是“超级”了,或者类似的东西,把人类世界冠军打得落花流水。

    但最近,研究人员发现,他们其实根本不明白围棋的真正含义,甚至可以让业余棋手连九子棋连赢十盘!

    就像一个考试得了满分的尖子生,实际上连最基本的概念都不懂,只靠“死记硬背”。

    这件事一发生,我就有些困惑了!

    难道我们一直以为牛逼的AI其实是“纸老虎”?

    这引发了我对AI更深入的思考,就像加州大学伯克利分校 教授提出的问题一样:当AI比我们更聪明时,我们如何确保我们能够控制它?

    这不是杞人忧天,而是关乎我们人类命运的灵魂拷问。

    今天我就根据罗素教授的观点和大家谈谈这背后的“危机”。

    AI围棋“超神”:只是外表吗?

    我们先来说说这个“Go own goal”。

    过去,AI围棋程序在比赛中轻松击败了人类世界冠军,大家都觉得AI在围棋领域已经远远超越了人类。

    从等级分数来看,最强围棋程序的分数约为5200分,而人类世界冠军的分数约为3800分。

    按照这个差距,理论上AI应该能够轻松赢得100场比赛。

    但令他们惊讶的是,研究人员发现这些程序根本不理解围棋的基本概念。他们无法识别国际象棋组,尤其是圆形国际象棋组。 AI顿时就糊涂了!

    更夸张的是,研究人员还发现了一些方法,可以让这些“超人”的围棋程序莫名其妙地放弃50到100个棋子,最终输掉比赛。即使是业余棋手也能让AI下九子。连续赢得十场比赛。

    这说明AI的“超能力”是“隐藏的”,并没有被真正理解。

    这就好比一个学生,看上去成绩不错,但实际上只知道用公式。一旦题目稍有变化,他就不再知道该怎么做了。

    AI的终极目标:超越人类?

    教授开门见山,直接指出,AI的最终目标是创造在所有关键维度上超越人类智能的机器,也就是我们常说的AGI(通用人工智能)。

    但我们曾经追求这个目标,却忘了思考一个问题:一旦真正实现了会发生什么?

    过去,大家都认为AI还为时尚早,但现在,我们已经开始认真思考:我们是否已经创造了AGI?

    罗素教授的同事彼得·诺维格认为,我们已经做到了,就像1903年的飞机一样,虽然简陋,但它就是一架飞机。

    1903年12月17日,莱特兄弟制造出世界上第一架可以控制动力装置进行持续飞行的飞机,命名为“飞行员”1号。

    但拉塞尔教授并不这么认为。他觉得现在的人工智能更像是一个“黑匣子”。我们只知道它能做什么,却不明白它为什么能这么做。

    与对飞机了如指掌的莱特兄弟不同,我们对人工智能的理解还远未完成。

    因此,现在的AI更像是一座空中楼阁,我们不知道它什么时候会“倒塌”。

    AI的“超能力”与“缺点”

    过去十年,深度学习在人工智能领域取得了快速进展,例如机器翻译、蛋白质结构预测、各种模拟等。

    但AI也有明显的“短板”。例如,完全自动驾驶汽车尚未实现,甚至简单的算术问题也无法正确解决。

    AI的进步不是靠“理解”,而是靠“死记硬背”。

    而且,即使我们把AI的规模扩大十倍,给它十倍的训练数据,它的算术精度也只能提高一个数量级。

    这说明AI的进步不是靠“理解”,而是靠“死记硬背”。

    就像一个很擅长代言的人,他不一定能理解书里的意思。

    AI的未来:瓶颈与突破?

    当然,未来AI肯定会有突破。有人预测,只要将现有的AI系统扩展100倍,就可以实现真正的通用人工智能,甚至可能在2027年实现!

    这听起来很疯狂,但我们现在在通用人工智能研究上的花费是曼哈顿计划的十倍,而且它是我们有史以来建造的最大、最昂贵的科学仪器。

    各大专家预测AGI时间

    但另一方面,这种规模的扩张可能会遇到瓶颈。现有的文本数据可能不够。而且,这种扩张可能并不能带来我们想要的能力提升,AI泡沫可能会破裂。

    因此,人工智能的未来充满不确定性,有无限的可能性,也有瓶颈和风险。

    人工智能与人类:共存还是灭绝?

    如果人工智能真的可以完成人类的所有任务,我们人类还能做什么?

    电影《机器人总动员》中,人类退化为婴儿,彻底被AI“俘虏”。

    电影《机器人总动员》中,人类退化为婴儿,彻底被AI“俘虏”。

    这还不是最可怕的,更可怕的是人类可能灭绝。

    我们创造了一个比我们自己更强大的存在,我们怎么能保证我们永远能够控制它呢?

    虽然从常识的角度来看,人类灭绝肯定是错误的,但现实是我们正在开发完全不可控的“黑匣子”人工智能系统,既不理解它,也不试图让它比我们更强大。

    就像外星文明突然派出超级智慧,说是为了我们好,但我们却无法控制。

    这是我们目前AI发展的方向。是不是想想就觉得可怕呢?

    重新思考人工智能:偏好决定未来?

    拉塞尔教授认为,我们不能再永远痴迷于如何控制AI,而必须改变我们的思维。

    我们需要建立一个数学框架来定义人工智能问题,这样无论它们如何解决,我们都能接受。

    他引入了“偏好”的概念,将偏好定义为“宇宙未来可能状态的排序”。机器的唯一目标是促进人类的偏好,并承认它并不真正理解这些偏好是什么。

    这就像为人工智能设定“道德准则”,以便它为人类服务,而不是相反。

    偏好的道德难题:谁定义“好”?

    但问题是,“偏好”是谁定义的?

    我们真的能清楚地表达自己的喜好吗?

    我们的偏好从何而来?

    除了基本的生理需求之外,我们作为成年人的偏好系统完全是由文化和教育等因素塑造的。

    有些群体会试图影响他人的偏好,以利于自己。

    面对这种情况,AI该怎么办?

    此外,当人工智能系统的决策影响很多人时,如何整合这些偏好?

    哲学家们对这个问题争论了数千年。

    罗素教授认为,功利主义是一种思维方式,但还有很多工作要做。

    因此,偏好不仅是一个技术问题,更是一个复杂的伦理问题。

    引人深思的未来:AI会选择离开吗?

    拉塞尔教授和一群专家试图勾画出一种人工智能共存的理想方式,但每次都失败了。

    这可能意味着没有完美的解决方案。

    如果我们能够正确设计AI系统,也许AI本身就会意识到它无法与人类共存,然后选择离开,只在我们真正需要它的紧急时刻出现。

    这或许是最好的结局,证明我们终于找到了正确的方向。

    朋友们,AI围棋的这个例子让我认识到,我们不能被AI的“超能力”所蒙蔽,还需要更多地思考其背后的风险。

    人工智能的未来充满未知,但我们不能只追求技术进步,更要思考如何与人工智能和谐共处。

    那么,您对人工智能的未来有何看法?

    您认为人类与人工智能真的能够和谐共处吗?

更多帖子推荐

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|关于我们

Copyright © 2001-2025, Tencent Cloud.    Powered by Discuz! X3.5    京ICP备20013102号-30

违法和不良信息举报电话:86-13718795856 举报邮箱:hwtx2020@163.com

GMT+8, 2025-4-23 12:09 , Processed in 0.092084 second(s), 18 queries .