官方服务微信:dat818 购买与出租对接

DeepSeek本地化部署教程大热,如何将AI大模型安装到本地计算机

2万

主题

2

回帖

8万

积分

管理员

积分
85460
发表于 2025-2-10 20:49:18 | 显示全部楼层 |阅读模式
    随着人们继续流行,人们对使用网络和应用程序不满意,并尝试进行本地化部署。本地化部署是指在不依赖网络或云服务的情况下将AI模型安装到本地计算机中。记者搜索了视频网站,发现许多用户上传了有关如何部署到本地计算机的教程,许多视频观看了超过100万。

    导致本地部署繁荣

    教人们部署也已成为一项业务。记者在电子商务平台上搜索了“本地部署”,发现许多商店已经开设了本地部署业务,单价从几元到几十元人民币不等,其中一些人最近购买了1,000人。

    试图部署的AI爱好者告诉记者,当网络方面运行缓慢并且访问的数量太大时,“服务器很忙,请稍后再试。”为了获得更好的用户体验,他尝试使用本地部署。据了解,本地部署不需要深入的编程知识,并且可以逐步通过教程成功部署。

     首席分析师张Yi告诉记者:“当地部署支持个人根据他们的需求进行一些定制的修改,这也是驱动力之一。”张Yi补充说,云无法满足隐私需求,本地部署中的个人数据无法获得。

    释放具有不同参数的模型,范围从10亿到6710亿参数。参数越大,需要计算资源的越大。由于个人计算机,手机和其他设备的计算资源有限,因此参数6710亿个型号通常无法在本地部署。 “普通笔记本电脑只能部署10亿个参数。如果个人计算机配备了良好的GPU图形卡或更高的内存(例如32GB),则它可以运行70亿个参数。”上述AI技术爱好者告诉记者。

   


    就本地部署效果而言,版本越小,大型模型的答案质量越糟。 “我试图在本地部署70亿个参数版本,并且操作更加顺畅,但是答案质量比云版本差得多,较小的参数版本的效果会更糟。”上述AI爱好者说。

    随着本地部署的普及,专门为PC添加NPU的AI PC有望看到销售增长。据了解,华为,联想和戴尔等计算机品牌已经推出了AI PC。这台新的PC配备了专门处理本地部署AI大规模计算的处理器芯片。这些处理器芯片由Intel,AMD和等芯片制造商提供。 。

    这些AI PC可以在本地部署并平稳运行具有数万个参数的AI模型。例如,在此CES 2025中,AMD启动了Ryzen AI Max系列处理器,据说该处理器在计算机上本地有700亿个参数运行AI型号。 。但是,配备此处理器芯片的AI PC昂贵。据了解,华硕的游戏笔记本电脑的价格为近15,000元。此外,有些人质疑花费大量资金购买AI PC在本地部署AI模型,但是实现功能与Cloud AI模型高度吻合。 AI PC只是制造商的头。

    企业试图在本地部署

    除了开始本地部署的个人外,公司还渴望尝试。在蛇的一年的第一天,蒂姆·韦阿奥(Tim Wei'ao)的创始人王·贾(Wang )发布了一个微信的时刻:“大型模型的本地计算机部署体验已成功地部署,进口到煤矿知识安全数据库中,以备问答,下一步是将其与工业现场运营相结合。”

    Tim Viao是一家提供工业管理解决方案的企业。它使用AR眼镜和AI软件为工业现场人员维护,质量检查和故障排除提供实时观察和指导。 Wang 告诉记者,他只使用  AI模型来创建当地知识库的问答。鉴于他更好的推理能力,他正在考虑与企业深入融合。

    “我们将根据特定工业场景的需求和数据微调特定参数,或进行二级开发以适应IT系统并实施新功能。” Wang 告诉记者:“我们的目标是将其与现场相机进行本地联系,以更好地确定现场危险的操作,并实现诸如隐藏危险检查和产品质量检查之类的功能。”

    他认为,工业客户是否采用本地部署主要取决于数据的机密性。 “一些国有企业,军事行业和医疗设备公司通常要求我们实施当地部署解决方案,因为它们对数据安全有很高的要求。”他进一步补充说:“云访问解决方案可以在非固定场景中使用,尽管会有某些情况下会有云访问的情况。操作延迟不错,但影响不大,解决方案价格是降低。”

   


    如果采用本地部署,这些客户需要具有4或8张GPU的服务器来实现本地推理服务。 “我的客户通常选择的消费级图形卡来配置服务器,例如4090,这更具成本效益。” Wang 说:“如果客户有国内配置要求,我们将购买更高价格的国内GPU图形卡。”

    除行业外,越来越多的企业开始在本地部署。郭金证券表示,它可以应用于信息检索,文档处理,行业研究,市场分析和其他方案。此外,医疗行业,网络安全和其他行业的公司最近也进行了本地化,包括Wanda ,Qihoo 360,Etch。

    张Yi告诉记者,随着企业扩大对本地化部署的要求,对国内推理计算能力的需求将增加。此外,美国已禁止高端芯片,国内芯片计算电源公司将带来巨大的机会。

    AI应用程序将爆炸

    高通首席执行官克里斯蒂亚诺·阿蒙( Amon)表示,-R1是AI行业的转折点,AI推理将迁移到最终方面,基于特定方案,AI将变得更小,更高效,更定制和大型AI。模型和AI应用程序将出现。 AVIC证券的一份研究报告认为,-R1表明,末端AI的部署将变得更具包容性,并且所有事物的智能时代都将加速。

    开源将吸引更多开发人员基于它们构建应用程序。国内GPU卡(例如华为上升,摩尔线,Biren 和  Core)已得到了改编;云制造商(例如腾讯云,阿里巴巴云,移动云和华为云)也得到了改编。国内计算能力的适应优化有望进一步降低推理方面的成本。

    由于支付申请的国内习惯尚未完全成熟,因此AI应用的商业化可能会受到阻碍。郭金计算机负责人孟·坎(Meng Can)认为,美国有10年甚至20年的申请付款基础,这有助于AI申请的商业化。由于中国没有这样的基础,因此AI应用程序的时间和进度将被实施和商业化。慢点。但是,该国一直在追赶,预计时间的进度将缩短到不到半年。

更多帖子推荐

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|关于我们

Copyright © 2001-2025, Tencent Cloud.    Powered by Discuz! X3.5    京ICP备20013102号-30

违法和不良信息举报电话:86-13718795856 举报邮箱:hwtx2020@163.com

GMT+8, 2025-4-22 05:40 , Processed in 0.076787 second(s), 17 queries .