AI大模型应用:现状与未来展望

AI头条6个月前发布 InkWhisperer
1.9K 0

大模型技术的应用已经渗透到我们的日常工作中,显著减少了撰写方案时的恐惧心理。在过去的工作中,许多人未曾有过撰写大量方案的经历,但现在,借助AI大模型的帮助,即使是毫无头绪的需求,也能迅速生成初步版本。如果一家应用的效果不尽如人意,还可以尝试其他平台,切换成本极低。然而,对于笔者而言,写作任务如将采访录音整理成稿件,依然是AI难以胜任的工作。因此,尽管AI在某些方面提供了便利,但从消费者角度来看,为其付费仍显得不太实际。对于大模型公司而言,现阶段的主要收入来源依然是为企业客户提供私有模型部署服务,尤其是那些出于安全考虑不愿直接调用API接口的大型企业。然而,由于底座模型的缺陷、高昂的成本、难以深入的场景应用等因素,这些企业在部署私有模型时也面临诸多挑战。

商业化之路漫长

技术的快速发展促使大模型应用逐步普及,无论是面向企业和消费者的AI应用都在广泛推广。然而,真正实现商业化的道路依然遥远。许多公司尚未找到依赖大模型盈利的有效途径,主要原因在于高昂的训练、推理和人力成本。例如,OpenAI尽管年化收入超过34亿美元,但预计年底将有50亿美元的亏损,投入高达85亿美元用于模型训练和人员配置。对于创业公司而言,训练大模型所需的算力投入巨大,动辄数千万元,一般企业难以承受。这种高投入对于尚未实现盈利的企业来说,无疑是一次巨大的冒险。

焦虑与期望并存

今年6月,创新工场联合CEO汪华在AGI Playground 2024上指出,很多人感到焦虑,担心在算力上的巨额投资最终只成就了英伟达,而非自身的应用爆发。这种焦虑源于对大模型应用何时能真正爆发的不确定性。事实上,进入2024年后,人们的关注点已从底座模型转向AI应用的商业化。尽管如此,很少有公司能够依靠大模型实现盈利。汪华认为,焦虑的存在是正常的,但大模型的应用发展需要时间和耐心。

数据与场景的双重挑战

海通证券自2023年初开始布局大模型建设,与商汤合作,构建了证券领域的垂直大模型。该模型已在内部启动了多项应用,如投顾知识库和研报资讯生成等。然而,进一步的功能实现仍需攻克数据质量的问题。算力问题可以通过资金解决,但高质量的语料数据却难以获取。此外,行业语料无法共享,导致各企业只能依赖自身拥有的有限数据。对于大模型服务商而言,筛选适合介入的场景并与企业共同完成应用开发,是当前的关键挑战。

前景与机遇

尽管面临诸多挑战,但大模型技术的发展前景依然广阔。达观数据董事长陈运文认为,大模型的成熟速度可能比预期更快,未来的技术迭代将克服现有问题。陈运文将大模型比作汽车的发动机,强调其强大的潜力,但也指出需要配套功能模块的支持才能真正落地应用。科大讯飞的相关负责人表示,B端市场仍然是大模型落地最快的领域,通过与各行业的深度合作,大模型的能力将不断提升。正如汽车技术的进步最终实现了对马车的替代,大模型技术也有望在未来几年内迎来爆发式增长。

结语

大模型应用的到来既近又远,虽然已经在多个领域展现出巨大潜力,但要成为一门好生意,还需克服诸多挑战。技术的迭代和应用场景的拓展将是未来发展的关键。给技术多一点时间,相信大模型将在不久的将来带来更多的惊喜。

© 版权声明

相关文章