全球著名调研机构WEKA近日正式发布《2024年全球人工智能趋势报告》,该报告是基于全球1500+人工智能决策者的深度调查,覆盖金融、政府、医疗保健等多个行业,解锁了人工智能领域的关键见解和策略。
人工智能正成为许多组织战略的一个基本面,被视为关键战略。报告显示,认为人工智能是其组织中"更广泛战略的次要组成部分"的受访者比例比去年的调查减少了一半,而表示人工智能"广泛实施,推动关键价值"的受访者比例从28%增加到33%,成为最常见的答案。
生成式人工智能是2024年企业人工智能战略的驱动力。绝大多数组织 (88%) 正在积极研究生成式人工智能模型,以创建全新的数据或内容。这种兴趣远远超过了人工智能的长期存在形式,例如预测模型(61%)、分类(51%)、专家系统(39%)和机器人(30%)。未来12个月内,生成式AI平均预算将从AI总预算的30%增长到 34%。
并且,大多数受访者还对通用人工智能(在所有认知任务上都可以超越人类的模型)表示了兴趣,这表明许多组织都在不断关注人工智能的发展前景。
在人工智能技术研发及性能优化中,GPU发挥着重要作用,为模型训练和推理提供了加速。对于AI工作负载,GPU比传统CPU更快、更高效。据调研数据显示,40%的受访组织表示GPU是其基础设施决策中的首要考虑因素,30%的组织将GPU列为AI 模型投入生产过程中面临的三大最严重挑战之一。超大规模公共云为寻求GPU的组织提供了有效途径,呈爆炸性增长的CPU云也显示出了人工智能对GPU的高需求。但云端算力仍存在着网络延迟、数据传输限制、数据安全隐患等不容忽视的客观缺陷,本地端算力部署依然是不少组织用户的第一选择。
据报告预测,未来12个月内人工智能技术发展将带来更多的训练和推理诉求,在这种增长环境下,GPU算力需求将迎来进一步增长。
面对当下日益严峻的算力挑战,暴雨信息作为我国优秀的智算解决方案提供者,带来了全新高性能智算服务器解决方案——暴雨G400-B2。
G400-B2搭载双路5th Gen Intel® Xeon® Scalable系列处理器,同时兼容4th Gen Intel® Xeon® Scalable系列处理器,高密设计下单机可最高可搭载10张专业级GPU,坐拥128核心256线程及15 PFLOPs混合算力,可大幅提升算力建设密度,轻松应对模型训练等计算密集型工作负载、助力各类专业AI应用落地。
同时,大模型推理时不仅需要将数据量极大的大模型加载到内存中,而且为避免使用外存进行存储和读取,造成推理降速,还需将输入数据和输出结果也都完全加载到内存中,因此需要占用大量内存空间。G400-B2拥有高达32个DDR5 DIMM内存插槽,内存容量最高可达4TB,超大容量及超高带宽可有效满足推理场景下的需求。
随着人工智能技术的不断进步,其应用范围日益扩大,生成式人工智能的兴起是一个重要的转折点。面对技术发展的复杂性和挑战,我们站上了新时代的门槛。在追求人工智能更高层次通用性和智能的道路上,暴雨信息将继续为客户提供专业、全面、高效的算力支持,共同开启智能科技的新篇章。