近日,“2024人工智能大模型基准测试科创发展大会”在成都高新区成功举办。此次大会以“大模型.大未来”为主题,汇聚了众多高校学者和行业专家,共同探讨了大模型技术的最新进展及其对未来的影响。会上,红星新闻发起了“高校大模型创新发展联盟”,旨在整合高校资源,推动产学研用深度融合,加速大模型技术的创新和应用。
为了表彰和总结过去一年中的重大突破,联盟成员评选出了“2024年度十大突破技术和进展”。以下是详细内容:
大模型推理技术的飞跃
以OpenAI的o1为代表,这一技术将大模型从简单的聊天工具提升至具备复杂推理能力的新层次。它不仅能够进行多步骤的问题求解,还能处理更为复杂的推理任务,极大地扩展了大模型的应用范围。
多模态生成式AI的提升
GPT-4V和Sora是多模态生成式AI的杰出代表,它们将文本到图像、视频的生成能力提升到了新的高度。这种进步不仅丰富了生成式AI的表现形式,还为创意产业带来了更多可能性。
具身智能的进化
RoboPoint、Manipulate Anything等项目展示了大模型如何通过与物理世界的互动实现自我进化。这些系统可以通过操作物理设备、感知环境变化来调整策略,从而在开放环境中实现自我学习和优化,某些场景下的表现已接近甚至超越人类。
推理时扩展法则的应用
研究发现,扩展法则不仅适用于预训练阶段,还可以在推理过程中发挥作用。这意味着随着推理时间的增加,大模型的性能会进一步提升,有助于解决更加复杂的问题。
小语言模型的崛起
Phi-4、MobileLLM等小型语言模型在保持高性能的同时,大幅减少了模型规模。这使得大模型能够在资源有限的终端设备上运行,既保护了用户隐私,又降低了云端推理的成本。
AI合成数据的重要性
Hugging Face的Cosmopedia v0.1等项目解决了“人类数据耗尽”的问题,通过生成合成数据为大模型提供了持续的学习材料,增强了其自我改进的能力。
大规模社会模拟的进步
Oasis项目成功实现了百万级智能体的开放模拟,这对社会模拟和数字孪生技术产生了深远影响,为研究复杂社会现象提供了强有力的支持。
机械可解释性的突破
稀疏自编码器的研究成果使得大模型内部结构变得更为透明,增强了模型的可信度和安全性,有助于消除人们对“黑箱”算法的担忧。
长窗口大语言模型的发展
YaRN、LongRoPE等模型将处理窗口扩展至数百万词元,显著提升了大模型处理长文本和复杂任务的能力,为个性化模型的开发提供了更多灵活性。
新型模型架构的创新
Mamba、RWKV等新型架构在长序列建模方面表现出色,相比传统的Transformer架构有了显著改进。这些创新为自然语言处理、语音识别等多个领域提供了更高效的选择,也为未来的模型设计指明了方向。
展望未来,联盟将继续关注并发布大模型领域的年度十大突破性技术和进展,帮助国内企业掌握全球技术动态,制定科学的研发策略,推动我国大模型技术的原创性和突破性发展。