我们似乎经常看到人工智能的进步被吹捧为机器真正变得智能的一大飞跃。我将在这里挑选其中的一个例子,并确切解释为什么这种态度会为人工智能的未来埋下隐患。
这很酷,这是一个非常困难且非常具体的问题,这个团队花了3 年时间才解决。他们一定深入研究了人们如何玩游戏的大量元素,了解需要什么,了解哪些策略会影响人们,然后将其与可以连贯地传达这些内容的东西联系起来。
这很酷,也很具体。
我是一名工程师,脑子不太好,但简单来说……人们学习了大量关于外交和如何玩游戏的知识,将其编码成一些非常智能的模型,这些模型解决了游戏的多个方面,然后将其与可以构建策略的部分链接在一起,然后在其上添加自然语言,这有助于实现该策略。
这令人印象深刻,而且需要做大量工作。
然后措辞变得模糊
因此,对于特定游戏来说,我们已经做了一些很酷的事情,其中意图和谈判非常重要。
我们先来看一下第一个语句:
“CICERO,一个可以与人谈判和合作的人工智能代理”
其次是
“这是第一个在流行战略游戏《外交》中达到人类水平表现的人工智能系统。”
作为该领域的领军人物,这两句话的含义是,CICERO 是一个可以进行谈判和合作的人工智能代理,其成就的一个例子就是它在外交方面所做的努力。
这与研究人员所说的不一样,他们说他们的意图是创建一个可以玩外交游戏并与外交游戏周围的人们进行谈判和合作的AI。
我想再次明确一点,我认为 CICERO 非常酷,我迫不及待地想听到更多关于他们做了什么以及我们可以从中学到什么的信息。然而,有一件事我没有从公告中得到,那就是现在有一个人工智能代理可以与人们就外交游戏以外的任何事情进行谈判。
承诺不足,交付过度——在人工智能领域你不需要
如今,人工智能有很多非常好的用途。但问题是,其中很多用途并不十分诱人,而且距离需要某种完全自主的、有感知能力的人工智能机器人还相去甚远。
然而,令人遗憾的是,上一代人工智能的资金来自对市场的疯狂承诺,而这些承诺并未兑现。在赚钱容易的时代,这还算不错,但我们正在目睹它最终会如何收场。
无人驾驶汽车从炒作到现实
快到 2022 年了,无人驾驶汽车已经进入寒冬。还记得 2016 年吗?2017 年就会到来。
Tesla FSD Beta v11 即将广泛发布
特斯拉的全自动驾驶 (FSD) Beta 版本 11 于 11 月 11 日 11:11 发布,这可能是对我们老手的致敬……
其他方面的情况也并没有好转,如果我们将 L4 作为自动驾驶的合理水平,那么以下是目前提供自动驾驶作为生产支持选项的汽车列表:
以上就是全部原因。出现这种情况确实有充分的理由,其中很大一部分原因是过度承诺可以做什么,因此人们一直追求梦想却无法实现,而我们本可以瞄准月球并实现梦想。
福特放弃无人驾驶之路
哪里出了问题?福特高管在本周与投资者的电话会议上直言不讳:他们认为……
因此,结果是人们放弃了追求,他们得到了无法实现的承诺,而当无法实现时,他们并不太愿意放弃追求其他东西。
不管有多少暗示,法学硕士和艺术生成器都不具备 Sentient 性
大型语言模型和图像生成器可能是对正常业务应用最少的最大领域,但它们也是不断被认为是有感知的东西。
谷歌解雇一名声称其人工智能技术具有感知能力的工程师 | CNN 商业
谷歌已解雇一名声称未发布的人工智能系统已具备感知能力的工程师,该公司证实,并称他……
不,它没有知觉,这也不是什么新鲜事。因为人们几乎想相信他们能看到知觉。20 世纪 60 年代,人们就用没有鱼条那么聪明的东西做过这件事。
伊丽莎效应:20 世纪 60 年代,聊天机器人如何让人们相信它是真实的
上周,谷歌的一名高级软件工程师被停职,因为他确信……
这是人工智能研究人员所知道的事情,然而……
“如今的大型语言模型 (LLM) — 从 OpenAI 的 GPT-3 到 Google 的 PaLM 再到 Facebook 的 OPT — 都拥有令人眼花缭乱的语言能力。它们几乎可以就任何话题进行细致入微且深入的交流”
这是福布斯的报道,完全是错的。这些法学硕士无法就任何话题进行细致入微的深度交流,甚至差得远。他们可以做一些很酷的事情,但他们能在自杀求助热线上进行细致入微的交流吗?和医生?和计算机科学家讨论建筑?那么在当前世界杯上做出的 VAR 决定呢?不行。但对于他们经过训练和调整的特定任务,他们可以做得很好。
炒作需要资金来获得这些边际收益
深度学习很酷,有很多很酷的事情可以做,但它不是免费的,今天我们看到收益越来越少,而计算需求却在激增。远远超出了普通企业或大多数大学的能力范围。
左边的刻度呈指数级增长,这不是计算需求的轻微上升,而是计算需求的大幅上升。如果你想进一步了解这到底有多疯狂,请阅读这篇论文本身。
机器学习三个时代的计算趋势
计算、数据和算法的进步是指导现代机器学习进步的三大基本因素……
这里的挑战在于,人们追求越来越大的规模,并采取一种生硬的方法,认为如果你对足够多的参数进行足够多的学习,那么就会有一个临界点,即它从特定于上下文转变为普遍适用。没有证据表明这是真的。
就处理器能够实现的性能而言,这些型号的倍增要求远远超过了摩尔定律。这意味着,该处理器促进了增长,同时也为增长提供了资金。如果资金枯竭,增长就会崩溃。
过度营销掩盖了真正的价值
所有这些的风险在于,当资金枯竭时,我们将看到市场崩溃和反弹,因为它未能与荒谬的营销声明相匹配。这将是一个遗憾,但即使在今天,我也看到炒作影响人们实际目标的问题。
例如,大多数组织尽管没有可用的计算资源,但仍然会踏上深度学习之路,因为他们相信这是推动价值的最佳方式,只有通过自己的深度学习才能获得“更好”的模型。事实是,我认为 CICERO 的例子表明,根据问题陈述,您可以使用大量不同的选项,而深度学习本身不太可能是答案。
还有一种挑战是“无聊”的挑战,例如规范性维护、故障模型、调度和技能识别等人们熟知的领域,这些领域并没有受到太多的关注。我见过人们考虑是否可以使用 LLM 来创建故障/修复工单,然后不得不首先被推向实际解决故障/修复工单的问题。
当用于炒作和营销的资金枯竭时,企业就有可能失去对价值的追踪,并认为由于人们没有创建越来越大的模型,人工智能作为一个行业总体上已经失败了。
新一代大型模型可以做很多很酷的事情,它们为人工智能工具箱添加了更多工具。但工具箱里已经有很多了,而且很有可能你不需要这些新工具就能解决很多问题,也不需要投资来采取针对具体情况的解决方案来发挥外交作用并帮助进行土地租赁合同谈判。
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/4890