为什么最新AI模型并不总能最适合边缘AI

智能计算 时间:2025-07-22来源:

当您准备在家度过一个放松的夜晚时,您可能会要求您的智能手机播放您最喜欢的歌曲或告诉您的家庭助理调暗灯光。这些任务感觉很简单,因为它们是由人工智能 (AI) 提供支持的,人工智能 (AI) 现在已融入我们的日常生活。这些流畅交互的核心是边缘人工智能——直接在智能手机、可穿戴设备和物联网设备等设备上运行的人工智能,提供即时、直观的响应。

什么是边缘人工智能?

边缘AI是指将AI算法直接部署在网络“边缘”的设备上,而不是依赖中心化的云数据中心。这种方法利用边缘设备(例如笔记本电脑、智能手机、智能手表和家用电器)的处理能力在本地做出决策。

边缘人工智能为隐私和安全提供了关键优势:通过最大限度地减少通过互联网传输敏感数据的需要,边缘人工智能降低了数据泄露的风险。它还提高了数据处理和决策的速度,这对于医疗保健可穿戴设备、工业自动化、增强现实和游戏等实时应用至关重要。边缘人工智能甚至可以在连接间歇性的环境中运行,以有限的维护支持自主性并降低数据传输成本。

虽然人工智能现在已集成到许多设备中,但在日常设备中启用强大的人工智能功能在技术上具有挑战性。边缘设备在处理能力、内存和电池寿命的严格限制下运行,在适度的硬件规格内执行复杂的任务。

例如,智能手机要执行复杂的面部识别,必须使用尖端的优化算法在几毫秒内分析图像并匹配特征。耳塞上的实时翻译需要保持低能耗,以确保延长电池寿命。虽然基于云的 AI 模型可以依赖具有广泛计算能力的外部服务器,但边缘设备必须凑合使用手头的东西。这种向边缘处理的转变从根本上改变了人工智能模型的开发、优化和部署方式。

幕后花样:针对边缘优化人工智能

能够在边缘设备上高效运行的 AI 模型需要大幅减小大小和计算能力,同时保持类似的可靠结果。这个过程通常称为模型压缩,涉及神经架构搜索 (NAS)、迁移学习、修剪和量化等高级算法。

模型优化应首先选择或设计专门适合设备硬件功能的模型架构,然后对其进行优化以在特定边缘设备上高效运行。NAS 技术使用搜索算法来探索许多可能的 AI 模型,并找到最适合边缘设备上特定任务的模型。迁移学习技术使用已训练的较大模型(教师)训练小得多的模型(学生)。修剪涉及消除不会显着影响准确性的冗余参数,量化将模型转换为使用较低精度的算术来节省计算和内存使用。

在将最新的 AI 模型引入边缘设备时,人们很容易只关注它们执行基本计算的效率,特别是“乘法累加”运算或 MAC。简单来说,MAC 效率衡量的是芯片完成 AI 核心数学运算的速度:将数字相乘并相加。模型开发人员可以获得“MAC 隧道视野”,专注于该指标而忽略其他重要因素。

一些最流行的 AI 模型(如 MobileNet、EfficientNet 和用于视觉应用的 transformers)旨在在这些计算中非常高效。但在实践中,这些模型并不总是在我们手机或智能手表内的 AI 芯片上运行良好。这是因为实际性能不仅取决于数学速度,还取决于数据在设备内部移动的速度。如果模型需要不断从内存中获取数据,那么无论计算速度有多快,它都会减慢所有速度。

令人惊讶的是,像 ResNet 这样较旧、体积更大的型号有时在当今的设备上效果更好。它们可能不是最新或最精简的,但内存和处理之间的来回更适合 AI 处理器规格。在实际测试中,这些经典型号在边缘设备上提供了更好的速度和准确性,即使在经过修剪以适应之后也是如此。

教训?“最好”的人工智能模型并不总是具有最华丽的新设计或最高的理论效率的模型。对于边缘设备来说,最重要的是模型与其实际运行的硬件的契合程度。

而且这种硬件也在迅速发展。为了满足现代人工智能的需求,设备制造商已开始在智能手机、智能手表、可穿戴设备等中加入称为人工智能加速器的特殊专用芯片。这些加速器是专门为处理 AI 模型所需的计算和数据移动而构建的。每年都会在架构、制造和集成方面取得进步,确保硬件跟上人工智能趋势。

边缘人工智能的未来之路

由于生态系统的碎片化性质,在边缘设备上部署人工智能模型变得更加复杂。由于许多应用程序需要自定义模型和特定硬件,因此缺乏标准化。需要的是高效的开发工具来简化边缘应用程序的机器学习生命周期。此类工具应该使开发人员更容易针对实际性能、功耗和延迟进行优化。

设备制造商和人工智能开发人员之间的合作正在缩小工程和用户交互之间的差距。新兴趋势侧重于上下文感知和自适应学习,使设备能够更自然地预测和响应用户需求。通过利用环境线索和观察用户习惯,边缘人工智能可以提供直观且个性化的响应。本地化和定制化的智能将改变我们对技术和世界的体验。

关键词: AI模型 边缘AI 硬件受限 优化模型

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版