Odilon Redon,《眼球气球》(来源:WikiMedia Commons)
当人工智能 (AI) 不断蚕食我们宝贵的智力成就时,我们人类会紧张地回头张望。人工智能聊天机器人可以通过律师资格考试和行医执照考试,撰写文章,按顺序生成图像,并总结从会议记录到科学论文的文本。末日预言者不仅担心失去工作和人类的目的,还担心人类本身的毁灭。一旦我们的机器学会了自我保护作为目标,也许它们就会完全摆脱我们的控制,让我们无法关闭它们。
末日怀疑论者说,别担心,今天的人工智能并没有真正思考——强大的聊天机器人只是经过训练,根据查询本身和逐步构建的答案猜测下一个单词,从而对你的查询做出类似人类的响应。明天的人工智能可能会做得更好,但不会有根本的不同。即使它能读懂你的想法,它也只不过是将你的输入处理成响应输出。
那么究竟是哪一种情况呢——我们是在玩火,还是这里没什么可看的?也许两者都有。
无论是否有可能创造出《2001:太空漫游》中那个有意识的杀人人工智能 HAL 9000 ,让我们做出一个合理的假设:人类重视生存,不会通过人工智能来策划自己的灭绝。但即使我们让自己远离计算机,我们是否能远离自己呢?
预言家们警告不要低估人工智能能力的迅猛发展速度,这是对的。
是的,大型语言模型 (LLM) 背后的原理可能很简单,但当归结为神经元信号传导的生物学基本原理时,人类思维也很简单。认知源于大量神经元在多个组织层级上进行相互通信。同样,LLM 对数十亿个文本构建块(称为“标记”)进行操作,这些构建块组织在高维空间中,以捕捉单词的含义和关系。对于人类和 LLM 来说,这种更高级别的组织都是可塑的,并通过学习而发展。经过大量积累的人类知识的训练,基于 LLM 的聊天机器人展现出或令人信服地模拟了类似人类的推理能力和情境意识。即使它们实际上不推理,它们也会表现出色。也许最令人不安的是,它们可以表现出创造力——发明新想法的能力,而不仅仅是综合现有想法,这可以说是智力的试金石。在设计日常物品替代用途的能力(创造力的常见测试)测试中,聊天机器人的表现优于大多数人类。人工智能最近为计算几何学中一个长期存在的问题找到了比(人类)数学家更好的解决方案。
但知道所有问题的答案并不意味着你很聪明,只是让你很得心应手。从冲突到疾病再到栖息地破坏,困扰人类的问题都没有现成的答案。难题往往得不到解决,直到为时已晚,无法防止造成后果。人工智能只能学习它被告知要学习的东西;它无法进入人类这个问题丰富的领域。幼儿在充满危险、同龄人和陌生成年人的令人困惑的世界中学习要学的东西。这使得幼儿比人工智能更聪明,也更危险。ChatGPT 永远不会为了好玩而发脾气或弄脏地毯。
人工智能最适合处理特定类型的任务,而且(法学硕士除外)通常就是为处理该类型的任务而开发的。每种人工智能的存在都归功于人类创造者已经认识到的一类难题。“深度学习”使用多层类似大脑的组织来检测模式并从复杂输入中提取特征。它催生了各种各样的应用,包括识别语音、在语言之间进行翻译、在照片中寻找猫以及诊断疾病。所有这些都具有一个共同的祖先范式——“感知器”,它诞生于第二次世界大战期间,用于对物体进行分类。在早期以及随后的几十年里,没有人会将感知器的学习能力与对它可以分类的物体的理解相混淆。今天的神经网络是单神经元感知器的更复杂的继承者,可以检测到非常微妙的模式——微妙到足以逃避人类的识别,并使计算机能够与人类专家相媲美或超越人类专家。人工智能在执行迄今为止委托给具有专业技能和知识的人的任务时,给人一种“机器中的幽灵”的感觉。
问题在于,AI 的表现并不能真正达到专家的水平,它只是以专家的水平识别模式。我自己在 AI 方面的工作包括分析医学图像以寻找癌症迹象。作为副业,我和我的艺术史学家妻子使用 AI 来解决绘画和素描的真实性和归属问题。这两项工作都使用类似的 AI 架构和图像预处理策略。在这两种情况下,AI 都不“了解”相关领域。更重要的是,我们不知道也无法知道它如何区分恶性和良性、伦勃朗和伪造者。我们可以识别 AI 做出判断的图像区域,但无法识别判断的基础 — — 至少现在还不能。由于 AI 模型日益复杂,开发“可解释”AI 的努力失败了。
人工智能非常擅长识别我们从未见过的模式,但是,由于对世界或其内部的狭窄专业一无所知,人工智能无法聪明地了解它所看到的东西。它太笨了(在两种意义上),无法为其决策提供依据。因此,我们对人工智能的信任几乎完全来自于它的成功记录。一旦这一记录达到足够高的水平,盲目依赖其判断的诱惑可能会变得无法抗拒。这种能力可能导致人类专业知识的流失(“技能下降”)和过度依赖人工智能支持(“自动化自满”)。在医疗保健领域,面对可疑的人工智能输出,临床医生可能会失去纠正它所需的临床知识,或者由于自动化自满而甚至可能没有注意到错误。没有一个人工智能系统是完美的。出错的可能性总是存在的,随之而来的是过度依赖的可能性。
前特朗普律师迈克尔科恩 (Michael Cohen) 为寻求缩短自己的缓刑期,找出了支持自己立场的案例并将其发送给他的律师,律师将这些案例纳入了他们提交的辩护状中。当法官发现这些案例并不存在时,他大发雷霆。科恩使用谷歌的 Bard 聊天机器人找到了这些案例,而这些案例是它编造的。因此,两层级的律师重复了出了名的不可靠的人工智能的产出,而没有履行最基本的律师职责 —— 核实事实。我们必须比我们的计算机更聪明,不能让它们让我们变得愚蠢或懒惰。医疗人工智能系统不会编造事情,但也会犯错;这意味着我们应该用它们来决策支持,而不是决策。人工智能并非万无一失,因此艺术品经销商和博物馆在使用人工智能之前,仍将需要研究出处并使用更普通的科学工具,比如碳测年和颜料分析。对人工智能导致大规模失业的担忧可能被夸大了(有警告);如果使用得当,就更有可能提高生产率并减少人为疏忽。特别是在涉及健康和安全的情况下,人们将(并且必须)保持知情。
如果我们并不真正理解人工智能——也就是说,如果我们完全理解它的低级配置,但不知道特定高级输出的基础——我们就不能放弃基于经验和领域理解的人类能力,独立思考,更好地了解。当然,如果我们不了解我们极其复杂的聊天机器人,我们怎么能确定它们在某种意义上不会像我们一样思考呢?我之前说人工智能不会发脾气,这可能言过其实。另一个聊天机器人失控的例子是,一名律师发现聊天机器人歪曲了他自己处理过的一宗案件的事实。这位律师告诉记者:“我对它说,‘你错了。我为这个案子辩护。’人工智能说,‘你可以坐在那里吹嘘你处理过的案子,帕布罗,但我是对的,这是证据。’然后它给了一个 URL,但什么都没有。”律师的语气听起来就像一位愤怒的家长看着飞机残骸一样,他补充道:“这是有点反社会。”
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/3286