2023年,《人工智能现状报告》再次揭示了AI行业的最新动态和发展趋势。报告显示,尽管AI安全问题逐渐成为焦点,但全球范围内仍未达成统一的监管共识。与此同时,OpenAI的GPT-4依然在各种基准测试和人类评估考试中表现优异,巩固了其作为最强大型语言模型的地位。
GPT-4仍是顶尖模型
根据10月12日发布的《2023年人工智能现状报告》,OpenAI的GPT-4不仅在经典基准测试中表现出色,还在模拟人类能力的多项考核中名列前茅。随着技术的进步,评估这些模型的能力变得越来越复杂,传统的基准测试方法逐渐失去效力。因此,行业内开始采用更加主观的“基于氛围”的评价方式。
开源与闭源的竞争
尽管开源社区在过去一年中持续活跃,但在计算资源和资本储备方面,大型科技公司凭借其雄厚的实力占据了主导地位。由于高性能计算机芯片的短缺以及训练成本的上升,只有少数几家巨头能够承担得起大规模AI模型的研发费用。此外,这些公司对于最先进技术的保密态度也日益明显,不再像以前那样公开分享研究成果。
生命科学领域的突破
大型语言模型和扩散模型不仅推动了理论上的创新,还在实际应用中取得了显著成就,尤其是在生命科学领域。例如,在分子生物学和药物发现方面,AI的应用已经带来了实质性进展。这表明,AI不仅仅是实验室里的玩具,它正在改变我们的生活。
风险投资的复苏
尽管整个科技行业的估值有所下降,但专注于生成式AI的初创企业在过去一年中却成功吸引了超过180亿美元的投资。这股热潮尤其体现在视频、文本和代码生成等领域,证明了市场对这类技术的高度认可。
全球治理的困境
面对快速发展的AI技术,各国政府和监管机构开始意识到制定规则的重要性。然而,由于缺乏全球范围内的协调,不同国家和地区采取了截然不同的策略。特别是中美之间的芯片竞争,使得跨国合作变得更加困难。因此,尽管AI安全问题受到了广泛关注,但具体的监管措施尚未取得实质性进展。
未来展望
展望2024年,《人工智能现状报告》提出了几项预测:预计会出现一部好莱坞级别的电影完全依靠生成式AI完成视觉特效;一家AI媒体公司可能因为在2024年美国总统选举期间违规而遭到调查;某个团队可能会投入超过10亿美元用于训练单一的大型模型;全球AI治理仍将面临诸多挑战,难以达成广泛共识;一首由AI创作的歌曲有望进入Billboard前十或Spotify年度热门歌曲榜;最后,由于执行和解释上的难题,欧盟《人工智能法》不太可能成为普遍接受的监管框架。