31
May

星期六

“80元部署个人语音助手”!DeepSeeek开启人工智能普惠时代 端侧应用程序打开想象空间

今日都市网 2025-02-08 2.15w

《科技创新板日报》2月8日讯(编辑 郭辉) “80元打造个人语音助手”、“150块DIY豆包智能机器人”...随着DeepSeek的爆发,个人用户一夜之间部署了AI大模型“出圈”。

科技界围绕人工智能降低成本的工作不是一蹴而就的。业内人士表示,DeepSeek在算法层面的推理成本优化为国内计算能力芯片和计算集群网络等硬件端的发展赢得了更多的空间,软硬件成本的降低也将为国内人工智能应用带来机遇,从而形成产业发展的积极循环。

越来越多的个人开发者部署低成本的人工智能模型实践,让公众更清楚地认识到人工智能包容性时代已经到来,终端人工智能着陆箭在弦上。PC产品被认为是终端人工智能模型着陆的第一站。接受采访的供应链人士认为,目前更大的想象空间仍在智能眼镜、人工智能玩具等智能身体的应用中,DeepSeek带来的轻型模型将对智能终端行业产生积极的影响。

个人用户部署大模型很受欢迎 40元开发板月售万件

“80元买一块开发板,按照教程连接硬件和烧录固件,就可以访问DeepSeek等大型模型,打造个人语音助手系统。”在技术社区,一些开发者分享了部署人工智能的技术帖子。

不仅如此,《科技创新委员会日报》编辑还注意到,花150元建造一个豆袋智能机器人,358元建造一个接入大型模型和手势识别、触摸交互的机器人。可以说,最近的持续爆炸使得人工智能模型部署的知识交流也很热,也使人工智能智能工具的低成本建设进入了更广泛的公众视野。

“万能淘宝”和技术开源贡献加速了这一切进入现实。

据了解,以上方案都是基于乐信科技的ESP系列芯片。在淘宝上搜索ESP32关键词,可以看到很多商家卖开发板或者套件,包括乐信的官方企业店。不同套件的价格可以低至20元,屏幕、扬声器、麦克风套件的价格可以高至340元。

《科技创新板日报》编辑注意到,一套价格80元的聊天机器人ESP32-S3开发套件,全网销量已超过1000件;价格40元的ESP32-S3开发板显示月销量超过1万件。

在评论区,大多数消费者都是个人开发者。购买商品后,商家将附上教学视频,并为用户提供技术支持。

“新手小白也可以一站式操作”、“老板教我12:30(晚上)、“老板还在教我晚上10点烧录”...很多买家反馈产品购买体验。

据乐信科技报道,其ESP32-S3芯片硬件具有加速神经网络计算和信号处理的向量指令,人工智能开发者通过ESP-DSP和ESP-使用这些向量指令,NN库可以实现高性能的图像识别、语音唤醒和识别。

一些开发者表示,ESP32-S3支持在本地离线运行一些人工智能模型,如语音识别、人脸识别和移动检测。然而,大多数自然语言对话交互仍然需要在线访问大型语言模型。

恒玄科技、中科蓝讯、聚芯科技等公司的SOC芯片除乐信科技外,还应用于终端AI部署。

其中,恒玄科技应用于可穿戴设备中的BECO嵌入式AI协处理器,可以与主CPU核心合作,完成基于神经网络AI算法的音频处理,同时保持较低的功耗水平。

聚芯科技将低功耗人工智能加速引擎集成到最新一代产品中,采用基于SRAM的存储计算技术,并逐步将产品升级为CPU、DSP加NPU三核异构计算架构,打造低功耗端AI计算能力。

产业链人士:看好DeepSeek对AI端侧的积极影响

DeepSeek的诞生,进一步为端侧AI落地应用开辟了想象空间。

据了解,通过蒸馏,大模型推理能力可以迁移到小参数模型,可以大大提高人工智能部署的灵活性。根据光大证券分析师刘凯2月6日发布的研究报告,蒸馏模型为1.5B、7B、8B、14B、32B、70B和其他版本,虽然蒸馏会失去一些能力,但更小的参数意味着更大的灵活性。第三方可以从DeepSeek-R1中蒸馏出更多版本的小参数模型,并部署到手机、笔记本电脑、智能家居产品等终端产品中。预计它将有助于提高硬件销售,并出现更多基于人工智能服务的付费点。

端侧人工智能的落地来势汹涌,其前景也得到了产业链人士的证实和乐观。

一家存储芯片制造商告诉《科技创新委员会日报》,DeepSeek对人工智能侧存储有积极的影响,目前对端侧人工智能智能眼镜产品的着陆特别乐观。从行业的角度来看,海外公司Meta的人工智能眼镜是32GB容量+2GB配置,大型模型可以作为本地化工具使用,未来智能眼镜的存储容量可能会增加。

该人士表示,“预计今年国内智能眼镜肯定会爆发,至少在2026年。”

国内消费电子配套芯片公司的一位人士告诉《科技创新委员会日报》,尽管他们的产品几乎在产业链的顶端,但他们仍然可以感受到DeepSeek对智能终端行业的积极影响。”在人工智能降低成本后,终端应用程序预计将大幅爆发,并继续对眼镜、玩具、人工智能手机持乐观态度AI PC等消费电子产品。

华安证券分析师陈耀波在2月6日发布的研究报告中表示,端侧人工智能能力的实现需要端侧人工智能模型的实施。从国内手机制造商的角度来看,他们都推出了文档摘要、人工智能修复等端人工智能功能,包括华为的盘古模型和小米的MiLM、基于DeepSeeekR1,vivo的蓝心大模型在推理能力上表现出色。如果能进入AI智能终端,就会推出AI功能强大的产品,有望提升用户体验。

以人工智能眼镜产业链为例,光大证券表示,对与日常需求相结合产生的巨大市场空间持乐观态度。建议关注恒轩科技、中科蓝讯、星辰科技、富汉微、云天励飞-U、聚芯科技等SOC芯片制造商;以及普然股份、兆易创新、百维存储、长盈精密等部件。

Deepseek为国内硬件端的发展争取更多的空间

PC产品还包括两个属性:生产力工具和个人智能管家,被认为是端侧模型的第一站。在一些PC主机制造商的领导下,DeepSeek模型和国产计算芯片的适应性进展超出了许多人的想象。

《科技创新委员会日报》编辑了解到,最近配备龙芯中科3A6000处理器的新创PC宣布实现本地化部署。据成迈科技报道,实现本地部署后,DepSeek不需要依赖云服务器,避免了网络波动或服务器过载造成的服务中断,确保了信息安全。例如,在涉及大量敏感信息和个人隐私的场景中,用户可以完成文档处理、数据分析、内容创建、图片编辑和代码生成,防止数据泄露。

国内GPU制造商沐曦与联想合作,推出DeepSeek智能一体机,解决快速部署的问题。该产品配备了联想AI Force智能体开发平台深度整合DeepSeek等主流大型模型库,通过私有化部署实现安全合规、高度定制和再开发能力。测量数据显示,在相同的并发条件下,沐曦Xin260 Qwen2GPU.5-14B模型推理实测性能达到NVIDIA L20 GPU的110%-130%可以支持DepSeek各种参数蒸馏模型推理的本地部署。

DeepSeeek作为开源模型,除了本地化部署外,还通过各大云计算平台为中小企业和个人用户提供人工智能服务资源。

一些业内人士告诉《科技创新委员会日报》,从商业模式的角度来看,DeepSeek目前处于开源状态,云计算平台可以遵循开源协议。对于用户来说,计算平台可能会增加计算成本或相关服务成本,但考虑到算法模型公司的资产投资,云计算平台作为一个“卖家”,仍然是一个相对高效和稳定的选择。事实上,“最近的热点使得对计算平台的需求显著增加”。

该消息人士还表示,基于主流云平台的异构计算方案,DeepSeek也在一定程度上推动了国内大型计算芯片和异构计算方案被市场接受,进一步降低了人工智能培训成本。

目前,阿里巴巴、腾讯、超级计算机互联网等计算能力平台已经推出了DeepSeek系列模型。在算法和计算能力网络的共同优化下,云计算平台适应了DepSeek模型,并提供了服务,降低了终端访问大型模型的成本和部署阈值。

以阿里云为例,用户可以一键部署DeepSek-V3,无需编写代码。、DeepSeek-R1,实现了从模型培训到部署再到推理的整个过程,大大简化了人工智能模型的开发过程。在价格成本方面,阿里巴巴云服务用户可以选择公共资源组来节省计划,或购买预付费EAS资源组来节省成本。超级计算互联网平台不需要用户部署或复杂操作。它可以使用DeepSeek模型打开盒子,并提供无限的免费体验服务。

“与本地部署相比,端侧大模型的在线访问更容易,但总的来说,DeepSeek确实降低了更多人工智能应用程序的软硬件成本。”一些计算能力行业人士表示,DeepSeek在算法层面的优化为国内硬件端的发展赢得了更多的空间,也为国内人工智能应用带来了机遇,进一步加强了国内人工智能从算法、计算能力到应用的生态闭环。

编辑:金杜

时代 空间 想象 程序 语音 部署 助手 开启

相关推荐

【免责声明】今日都市网刊载内容均来源于网络公开渠道,不代表本站的立场和观点。今日都市网致力于提供准确和有价值的信息,但无法对所有内容的真实性进行完全验证。如有内容存在侵权、失实等问题,请及时联系我们 ahmmzs_tousu@163.com ,我们将尽快处理并采取相应措施。