2024年8个AI商业趋势 最先进的AI模型变得越来越昂贵

2024-04-24 13:44
摘要:划重点:⭐️ 人工智能在许多任务上仍然优于人类⭐️ 最先进的人工智能模型成本不断攀升⭐️ 人工智能提高生产力,但缺乏监管斯坦福大学人类中心人工智能研究所发布的2024年人工智能指数,报告揭示了人工智能在商业领..

划重点:

⭐️ 人工智能在许多任务上仍然优于人类

⭐️ 最先进的人工智能模型成本不断攀升

⭐️ 人工智能提高生产力,但缺乏监管

斯坦福大学人类中心人工智能研究所发布的2024年人工智能指数,报告揭示了人工智能在商业领域的八大趋势,涵盖了人类优势、成本、监管、投资增长、工作效率提升等方面的关键问题,为企业和决策者提供了重要的参考和启示。

1. 人类在许多任务上仍然优于人工智能

研究表明,在高级数学问题解决、视觉常识推理和规划等复杂任务上,人工智能仍然不如人类。为了得出这个结论,研究人员将模型与许多不同业务功能的人类基准进行了比较,包括编码、基于代理的行为、推理和强化学习。

人工智能模型在不同任务中相对于人类的表现。图片:2024年人工智能指数报告/斯坦福大学 HAI

虽然人工智能在图像分类、视觉推理和英语理解方面确实超越了人类的能力,但结果表明,企业有潜力利用人工智能来完成人类员工实际上表现更好的任务。许多企业已经开始担心过度依赖人工智能产品的后果。

2. 最先进的人工智能模型变得越来越昂贵

AI Index 报告称,到2023年,OpenAI 的 GPT-4和Google 的 Gemini Ultra 的训练成本分别约为7800万美元和1.91亿美元。数据科学家 Rahman 在一封电子邮件中告诉 TechRepublic:“按照目前的增长率,到2026年,前沿人工智能模型的成本将约为50亿至100亿美元,届时很少有公司能够负担得起这些培训费用。”

2017年至2023年人工智能模型的训练成本。图片:2024年人工智能指数报告/斯坦福大学 HAI/Epoch,2023年

2023年10月,《华尔街日报》报道称,谷歌、微软和其他大型科技公司正在努力将其生成式人工智能产品货币化,因为运行这些产品的成本高昂。存在这样的风险:如果最好的技术变得如此昂贵,以至于只有大公司才能获得它们,那么它们相对于中小企业的优势可能会不成比例地增加。世界经济论坛早在2018年就指出了这一点。

然而,拉赫曼强调,许多最好的人工智能模型都是开源的,因此可供所有预算的企业使用,因此该技术不应扩大任何差距。他告诉 TechRepublic:“开源和闭源人工智能模型正在以相同的速度增长。最大的科技公司之一 Meta 正在开源其所有模型,因此那些无力自行训练最大模型的人可以下载他们的模型。”

3.人工智能提高生产力和工作质量

通过评估一些现有的研究,斯坦福大学的研究人员得出结论,人工智能使工人能够更快地完成任务并提高他们的产出质量。观察到的职业包括计算机程序员(其中32.8% 的人表示生产力有所提高)、顾问、支持代理和招聘人员。

人工智能对客户支持代理生产力的影响。图片:2024年人工智能指数报告/斯坦福大学 HAI/Brynjolfsson 等人,2023年

就顾问而言,GPT-4的使用弥合了低技能和高技能专业人员之间的差距,低技能群体的绩效得到了更大的提升。其他研究还表明,生成式人工智能尤其可以发挥均衡器的作用,因为经验不足、技术水平较低的工人可以从中获得更多收益。

使用人工智能时,提高低技能和高技能顾问的工作绩效。图片:2024年人工智能指数报告/斯坦福大学 HAI

然而,其他研究确实表明,“在没有适当监督的情况下使用人工智能可能会导致性能下降,”研究人员写道。例如,有广泛的报道称,在执行法律任务的大型语言模型中普遍存在幻觉。其他研究发现,我们可能在未来十年内无法充分发挥人工智能带来的生产力提升的潜力,因为产出不理想、指导方针复杂以及缺乏熟练程度继续阻碍工人的发展。

4.美国人工智能监管不断加强

AI指数报告发现,2023年,美国活跃的人工智能相关法规有25项,而2016年只有1项。不过,这并不是一个稳定的增长趋势,仅2022年至2023年,人工智能相关法规的总数就增长了56.3%。随着时间的推移,这些法规也从对人工智能发展的扩张性转变为限制性,其中最普遍的主题是对外贸易和国际金融。

2016年至2023年间美国现行的人工智能相关法规数量。图片:2024年人工智能指数报告/斯坦福大学 HAI

欧盟与人工智能相关的立法也在不断增加,2021年、2022年和2023年将分别通过46项、22项和32项新法规。在该地区,监管往往采取更广泛的方法,通常涵盖科学、技术和通信。

请参阅:NIST 成立人工智能安全联盟

对于对人工智能感兴趣的企业来说,必须及时了解影响他们的法规,否则他们将面临严重的违规处罚和声誉受损的风险。2024年3月发布的研究发现,英国和欧盟只有2% 的大公司了解即将出台的欧盟人工智能法案。

5、生成式人工智能投资不断增加

从2022年到2023年,根据提示生成内容的生成式 AI 产品的资金几乎增加了八倍,达到252亿美元)。 OpenAI、Anthropic、Hugging Face 和 Inflection 等都获得了大量融资。

2019年至2023年全球生成式人工智能私人投资总额。图片:2024年人工智能指数报告/斯坦福大学 HAI/Quid,2023年

生成式人工智能功能的构建可能会满足希望将其纳入流程的企业的需求。2023年,财富500强公司的所有财报电话会议中有19.7% 提到了生成式人工智能,麦肯锡的一份报告显示,55% 的组织现在至少在一个业务部门或职能中使用人工智能,包括生成式人工智能。

2022年11月30日ChatGPT推出后,人们对生成式 AI 的认识迅速增强,从那时起,各组织就一直竞相将其功能融入到自己的产品或服务中。麻省理工学院技术评论洞察与 Telstra International 合作最近对300家全球企业进行的一项调查发现,受访者预计其部署生成式人工智能的职能数量到2024年将增加一倍以上。

然而,根据人工智能权威人士加里·马库斯的说法,有一些证据表明,生成式人工智能的繁荣“可能会很快结束”,企业应该保持警惕。这主要是由于当前技术的局限性,例如潜在的偏见、版权问题和不准确性。根据斯坦福大学的报告,可用于训练模型的在线数据数量有限可能会加剧现有问题,从而限制改进和可扩展性。报告指出,人工智能公司可能会在2026年耗尽高质量的语言数据,在20年内耗尽低质量的语言数据,并在2030年代末至2040年代中期耗尽图像数据。

6. LLM责任的基准差异很大

根据该报告,科技公司在评估其法学硕士的可信度或责任方面的基准存在显着差异。研究人员写道,这“使得系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。”这些风险包括有偏见的输出以及从训练数据集和对话历史记录中泄露私人信息。

用于开发流行人工智能模型的负责任的人工智能基准。图片:2024年人工智能指数报告/斯坦福大学 HAI

斯坦福大学智能系统实验室的博士生鲁埃尔在一封电子邮件中告诉 TechRepublic:“目前没有报告要求,我们也没有可靠的评估,可以让我们自信地说,如果一个模型通过了这些评估,那么它就是安全的。”第一名。”

如果没有这一领域的标准化,一些不值得信赖的人工智能模型可能会漏网而被企业整合的风险就会增加。报告补充说:“开发人员可能有选择地报告能够积极突出其模型性能的基准。”

Reuel 向 TechRepublic 表示:“有害模型漏掉的原因有多种。首先,没有标准化或必需的评估,因此很难比较模型及其(相对)风险;其次,没有可靠的评估,特别是基础模型的评估,无法对模型的绝对风险有可靠、全面的了解。”

7. 员工对人工智能感到紧张和担忧

该报告还追踪了随着意识的提高,人们对人工智能的态度如何变化。一项调查发现,52% 的人对人工智能产品和服务表示紧张,并且这一数字在18个月内上升了13%。研究还发现,只有54% 的成年人认为使用人工智能的产品和服务利大于弊,而36% 的成年人担心人工智能可能会在未来五年内夺走他们的工作。

全球对2023年人工智能对当前工作影响的看法。图片:2024年人工智能指数报告/斯坦福大学 HAI/Ipsos,2023年

人工智能指数报告中引用的其他调查发现,53% 的美国人目前对人工智能的担忧多于兴奋,他们最普遍的担忧是人工智能对就业的影响。当人工智能技术开始融入组织时,这种担忧可能会对员工的心理健康产生特殊影响,企业领导者应该对此进行监控。

8. 当今最受欢迎的LLM大多由美国和中国创建

TechRepublic 的 Ben Abbott 在其有关在亚太地区构建人工智能基础模型的文章中介绍了斯坦福大学报告中的这一趋势。他部分写道:

“美国在人工智能领域的主导地位持续了整个2023年。斯坦福大学2024年发布的人工智能指数报告发现,2023年美国发布了61个值得注意的模型;这领先于中国的15款新车型和法国,最大贡献者来自欧洲的8款车型(图一)。英国和欧盟作为一个地区生产了25个著名模型——自2019年以来首次击败中国——而新加坡则拥有3个模型,是亚太地区唯一另一个生产著名大型语言模型的国家。”

美国在人工智能模型的开发方面正在超越中国和其他国家。

更新于:6个月前