主题大会盛况
2024年7月4日至7月6日,以“以共商促共享,以善治促善智”为主题的2024世界人工智能大会(WAIC 2024)暨人工智能全球治理高级别会议在上海圆满落幕。作为国内领先的智能芯片和基础算力平台企业,爱芯元智在此次大会上举办了“芯领未来 | 智能芯片及多模态大模型论坛”,旨在探索人工智能革新与普惠智能生活的新机遇。
论坛以“引领人工智能革新,造就普惠智能生活”为核心,汇聚了芯片、大模型、智能制造等领域的专家与意见领袖,共同探讨大模型时代的技术创新与实践成果。爱芯元智创始人、董事长仇肖莘在主旨演讲中强调了AI发展从云端向端侧迁移的趋势,并指出智能芯片与多模态大模型的结合是人工智能时代的黄金搭档。
仇肖莘指出,在AI芯片领域,更经济、更高效、更环保成为了关键要素。他提出,搭载AI处理器的高效推理芯片对于大模型的落地至关重要。在边缘和端侧应用中,高能效的边端AI芯片能够显著提升智能设备的性能与能效比。
面对GPGPU与DSA路线的选择,仇肖莘认为,随着算法结构的稳定与大模型架构的固定,DSA架构在运算效率和能耗控制上优于GPGPU,尤其适用于边缘和端侧的推理任务。爱芯元智推出的采用DSA架构的推理芯片AX650N,以其出色的性能与能效比,展示了AI芯片在实际应用中的潜力。
爱芯元智联合创始人、副总裁刘建伟进一步阐述了AI计算与处理器的发展趋势。AI计算的基本构成是算子与张量数据的流动,而AI处理器需要具备强大的算力与能效比,以适应AI程序计算的需求。未来,AI处理器将与CPU、GPU共存,协同处理各自擅长的任务。
在智慧物联与智能驾驶领域,爱芯元智的合作伙伴分享了AI处理器的应用前景。智慧物联和人工智能创新融合专家殷俊指出,视觉大模型在城市治理与生产生活中的广泛应用,尽管面临挑战,但通过大小模型协同与模型小型化,可以有效加速大模型在行业应用的落地。
面壁智能副总裁贾超提出了“模型知识密度平均每8个月提升1倍”的新摩尔定律,强调企业在开发端侧大模型时应兼顾算法与芯片层面的优化,以实现高效落地。贾超还展示了爱芯元智AI芯片上成功运行的全球最强端侧多模态模型“小钢炮”MiniCPM系列。
随着RISC-V架构在全球的落地与普及,尚云海分析指出,它在适应AI算法和算子快速变化方面展现出优势,有望满足大模型对AI算力和芯片架构的需求。尽管在开发工具和软件环境方面仍有一定差距,但RISC-V架构的自定义与可扩展性使其在AI芯片领域展现出巨大潜力。
爱芯元智将智能芯片与大模型的深度融合视为推动AI落地与普惠深化的关键。面向未来,爱芯元智将携手产业界,坚定推进云边端一体化,加速大模型的落地进程,深化AI技术在各行业的应用,为构建更加智能、高效的未来社会贡献力量。