硅谷公司和风险投资基金投入了数十亿美元来训练越来越大的模型,他们能否从中获得投资回报?高盛不确定,红杉资本也不确定,这一点让我非常惊讶,一年前我还没有提到过。
我最近说过,存在一个巨大的问题,即整个AGI 炒作将损害 AI 的机会,我确实这么认为。但我还有另一个想法:
如果风险投资公司和硅谷巨头在创建大型模型上亏损,而这对人工智能在商业领域的成功应用并不重要,那该怎么办?
如果这就像阿波罗太空计划,但成本更高,而且无法“登上月球”,那会怎样?如果最终有少数大公司(拥有巨额现金储备)受到影响,因为它们无法证明炒作的回报,而我们所说的受影响只是“仍然利润丰厚,只是没有证明 70 亿美元是一种学习盈利”,那会怎样?如果正如许多研究人员预测的那样,这种当前的方法绝对不是通往 AGI 的途径,因此它永远无法证明炒作的合理性,也无法证明为获得越来越大的边际回报而花费越来越多的钱是合理的。
我们其他人会在意吗?
我不这么认为,让我解释一下为什么,以及为什么我认为 Gary Marcus 的预测中的 1 和 3 对我们其他人来说是积极的,所以他在收养问题上是错误的。
电传飞行业务就足够了
航空业影响最大的技术之一就是阿波罗计划中的电传操纵系统。这项技术让计算机负责控制表面,将宇航员的指令解读为表面、发动机等的动作。
如今,这种技术在军用和商用飞机中已无处不在。固定电缆和直接连接的想法已经过时,所有这一切都基于一项技术,该技术是人类登月和返回月球所投入的 3200 亿美元(按今天的货币计算)的副产品。此外,还有许多其他进步,从储存食物的新方法到保护建筑物免受地震影响。
那么,我们是否关心对 AGI 的投资是否“仅仅”导致一种新的“电传操纵”商业方式,即代理协作能够由人来管理和指导,但更有效地将这种指导转化为行动?我们是否能够更好地与其他国家的人交流,并更好地为无障碍需求准备内容?如果我们从这场 AGI 竞赛中获得的“全部”是一个可以更好地预测天气、更好地支持药物研究的人工智能技术新平台,或者“仅仅”为人机交互创造了一种新方法,这对企业来说会是一个巨大的问题吗?
如果你正在制造飞机,那么阿波罗计划在开发电传操纵系统方面所做的工作绝对是一个福音。我认为对 AGI 的追求已经为许多商业挑战做出了同等的贡献,就像地球上绝大多数人一样:
大多数人不需要去月球
“然后再回来”——挑战?
当肯尼迪让美国踏上登月之路时,他也提出了一个非常重要的警告:
“然后安全返回地球”
这是我们 AGI 火星探测计划的一个风险,其目标似乎只是到达那里,而不是安全到达那里。如果你不担心他们回来,那么将某人送上另一个星球其实很容易。目前看来,投资不成比例地集中在“到达那里”部分,而很少投资于“安全返回”。
关注风险
这意味着,作为一家公司,你的重点不需要放在训练大型模型上,其他人会为此提供资金,你需要考虑如何将它们用于业务中的特定目的。但你需要关注的是风险,因为如果你要使用这些 Mars Shot 规模的人工智能,那么业务的安全将成为你的挑战。
驾驭火箭,管理风险
所以这就是我认为 Gary Marcus 错了的原因,主要是因为他是对的。我们将看到这些用于训练大型模型的巨额投资的回报递减,我们将看到价格竞争加剧,因为它们会推动更多的收入。我们将看到从“我的模型比你的更大”到“我可以让我的模型比他们更快地为你工作”的转变。
因此,我们将看到企业采用率的上升,因为您能够负担得起的用例数量将会增加,如果使用适当的成本管理方法,这一数字将显著增加。这反过来意味着企业将需要更多地关注人工智能的系统风险管理。
因此,我非常有信心,我们将获得“大量资金用于大规模模型的微小改进”的人工智能寒冬,但我认为这与前几代有很大不同,因为这并不是说企业无法使用计算能力,只是花费 70 亿美元在单一学习上以获得 0.5% 的总体性能提升,而你可以花费 10 万美元获得 500% 的特定性能提升,这显然是不合理的。
或者用 AI Winter 来类比一下,现在他们正在铺设一层新鲜的粉雪,而我们在已填满的雪基上已经铺了 9 英尺厚的粉雪,而炒作声称你真的需要 20 英尺厚的粉雪。因此,当指数级成本意味着他们停止时,我们都有 9 英尺厚的原始粉雪可以雕刻,说实话,即使只有几英尺也是一件非常刺激的事情。
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/4887