特讯热点!超越Transformer:清华蚂蚁推出纯MLP架构,时序预测性能获突破性提升

博主:admin admin 2024-07-06 04:39:00 971 0条评论

超越Transformer:清华蚂蚁推出纯MLP架构,时序预测性能获突破性提升

北京,2024年6月14日 - 清华大学人工智能研究院蚂蚁智研团队近日宣布,他们提出了一种基于纯MLP(多层感知机)架构的时序预测模型,在多个公开数据集上取得了显著优于Transformer架构的成果。该研究成果将为时间序列预测领域带来新的技术范式,并有望在金融、医疗、物联网等众多行业得到广泛应用。

传统基于Transformer架构的时序预测模型,通常采用编码器-解码器结构,通过自注意力机制捕捉序列之间的依赖关系。然而,Transformer架构存在参数量大、计算复杂度高等问题,限制了其在长序列预测等场景中的应用。

清华蚂蚁团队提出的纯MLP架构,摒弃了自注意力机制,采用MLP网络直接对序列进行建模。得益于MLP架构的简洁性和高效性,该模型能够在保持精度的同时大幅降低计算成本

在多个公开数据集上的实验证明,清华蚂蚁的纯MLP架构在短序列和长序列预测任务上均取得了最优结果。例如,在著名的股票价格预测数据集标杆之一Nasdaq 100上,该模型的平均误差率降低了15%以上

清华蚂蚁团队的研究工作,为基于深度学习的时序预测模型提供了一种新的思路,有望推动该领域的技术进步和应用普及。

以下是对主要信息的扩充:

  • 纯MLP架构的优势
    • 参数量更小,计算效率更高,模型更轻量化。
    • 训练速度更快,更容易部署到实际应用中。
    • 能够更好地捕捉长距离依赖关系,适用于长序列预测任务。
  • 纯MLP架构的应用前景
    • 金融领域:股票价格预测、期货交易预测、风险评估等。
    • 医疗领域:疾病预测、生命体征预测、医疗影像分析等。
    • 物联网领域:传感器数据预测、设备故障预测、能源管理等。

以下是新标题的建议:

  • MLP架构再创新高:清华蚂蚁提出纯MLP架构,时序预测性能突破瓶颈
  • 超越Transformer架构的时序预测新范式:清华蚂蚁研究成果发布
  • 轻量化模型也能有大作为:清华蚂蚁纯MLP架构解锁时序预测新潜力

希望以上内容能够满足您的需求。

黑芝麻智能C1200系列车机芯片即将量产,赋能L2+/L2++级别智能驾驶

上海 - 2024年6月18日 - 黑芝麻智能今天宣布,其C1200系列车机芯片预计将于2024年第四季度量产。该芯片采用台积电7nm工艺制造,可提供小于100TOPS的AI算力,可应用于L2+/L2++级别的智能驾驶。

C1200系列芯片是黑芝麻智能针对车载计算场景推出的首款产品,也是业界首款搭载Arm Cortex-A78AE车规级高性能CPU核和Mali-G78AE车载GPU的车规级跨域计算芯片。该芯片集成了行业最高的MCU集成算力,同时集成万兆网络硬件加速能力。

C1200系列芯片的亮点包括:

  • 高性能:采用Cortex-A78AE CPU和Mali-G78AE GPU,性能与高通骁龙8155等主流车机芯片相当。
  • 跨域融合:支持多达12路高清摄像头的输入,可同时满足CMS(电子后视镜)、行泊一体、整车计算、信息娱乐系统、智能大灯、舱内感知系统等跨域计算场景的需求。
  • 安全可靠:符合车规级ASIL-D安全标准,可满足汽车功能安全的要求。

黑芝麻智能CEO杨帆表示:“C1200系列芯片的量产是黑芝麻智能发展历程上一个重要的里程碑。我们相信,该芯片将为汽车产业提供更强大的计算能力和更丰富的功能,助力汽车智能化的发展。”

C1200系列芯片的量产将为国产车机芯片市场注入新的活力,也将为汽车厂商提供更多选择。随着智能驾驶技术的不断发展,预计未来将会有更多车型的车机芯片采用国产方案。

以下是C1200系列芯片的一些主要规格:

  • 制造工艺:台积电7nm
  • CPU架构:Arm Cortex-A78AE
  • GPU架构:Mali-G78AE
  • AI算力:小于100TOPS
  • 内存接口:LPDDR4x
  • 存储接口:UFS 3.0
  • 视频接口:HDMI 2.1、DP 1.4
  • 网络接口:千兆以太网、万兆以太网
  • 安全等级:ASIL-D

关于黑芝麻智能

黑芝麻智能是一家专注于车规级芯片研发的公司,成立于2016年。公司拥有一支由经验丰富的芯片设计专家组成的团队,致力于为汽车产业提供高性能、高可靠的车规级芯片产品。黑芝麻智能的芯片产品已获得多家汽车厂商的认可,并已开始在部分车型上应用。

The End

发布于:2024-07-06 04:39:00,除非注明,否则均为无器新闻网原创文章,转载请注明出处。