一、Geoffery Hinton 的传奇履历
Geoffery Hinton 于 1947 年 12 月 6 日出生在英国温布尔登的一个知识分子家庭,拥有英国和加拿大双重国籍。他的曾祖父是数学家查尔斯・辛顿,创造了 “四维空间” 一词并普及了高维概念,而其父亲是英国昆虫学家 Howard Hinton,叔叔则是著名经济学家 Colin Clark,也就是国民生产总值(GDP)这个术语的提出者。
在教育经历方面,Hinton 的求学之路颇为丰富。他先是顺利进入剑桥大学,先后攻读生理学、哲学和物理学,并在 1970 年获得剑桥大学实验心理学学士学位。当时,他觉得这些学科都还未能对人类思维做出太多解释,为了寻求更切实的满足感,还曾短暂转行去做木工。不过,1972 年,人工智能的前景吸引他重返学术界,进入爱丁堡大学学习人工智能,并于 1978 年获得人工智能博士学位。
工作经历上,获得博士学位后,尽管受到教授的劝阻,Hinton 还是毅然接受了以神经节点和人脑结构为模型的非传统计算机网络,开始投身于神经网络系统的研究,还在加州大学圣地亚哥分校完成了博士后研究。1982 年,他加入卡内基梅隆大学担任教职,期间,与心理学家大卫・鲁梅尔哈特和计算机科学家罗纳德・威廉姆斯共同开发了一种算法,用于在测量误差时从输出反向计算输入,并在 1986 年三人合发的论文中对这一过程进行了论证,该论文为神经网络的发展奠定了重要基础。
1987 年,因反对美国军方和里根政府将人工智能应用于军事,Hinton 决定离开美国前往加拿大,随后在多伦多大学担任教授,继续在人工智能领域深耕。1996 年,他当选为加拿大皇家学会院士。1998 年,Hinton 离开多伦多大学,加入伦敦大学学院,并花费 3 年的时间建立了盖茨比计算神经科学部门,同年当选为英国皇家学会院士,在此期间主要围绕神经网络及其应用展开研究。2001 年,他重返多伦多大学,持续在神经网络模型的研究上取得新进展。
2012 年,Hinton 和他的两名研究生亚历克斯・克里切夫斯基、伊尔亚・苏茨克维开发了一个八层神经网络程序,命名为 AlexNet,用于识别 ImageNet(一个庞大的在线图像数据集)上的图像,其表现比下一个最准确的程序高出 40% 以上。三人还为此创立了一家名为 DDNresearch 的公司,2013 年,谷歌以 4400 万美元的价格收购了该公司,而 Hinton 也加入了谷歌的人工智能研究团队 Google Brain,并最终被任命为副总裁兼工程研究员。
在学术成就方面,Hinton 堪称硕果累累,被誉为 “神经网络之父”。他在反向传播、玻尔兹曼机、分布式表示和延时神经网络等领域提出了诸多新颖见解,有着关键发现,为人工智能研究做出了重大贡献。2018 年,他与约书亚・本吉奥和杨乐昆共同获得了图灵奖。2024 年,又凭借在利用人工神经网络进行机器学习方面所做出的基础性发现和发明,荣获诺贝尔物理学奖。
此外,Hinton 还是一位优秀的导师,截至 2020 年,他共指导了 22 名硕士研究生和 37 名博士研究生,培养出的诸多优秀人才如今也活跃在人工智能等领域,可谓 “桃李满天下”。
二、AI 领域的开创性贡献
(一)反向传播算法的推广与突破
在 AI 发展历程中,反向传播算法有着举足轻重的地位,而 Geoffery Hinton 在这方面做出了极为关键的贡献。早在上世纪 80 年代,Hinton 就与心理学家大卫・鲁梅尔哈特和计算机科学家罗纳德・威廉姆斯共同投入到对这一算法的深入研究当中。他们一起开发出了用于在测量误差时从输出反向计算输入的算法,并在 1986 年三人合发的论文里,对这一过程展开了严谨论证,该论文为神经网络的后续进步筑牢了重要根基。
Hinton 并未止步于此,他深知这一算法对于神经网络训练的巨大潜力,于是持续深耕,不断探索如何让其更有效地在实际应用中发挥作用。通过他的不懈钻研,反向传播算法在多层神经网络的训练里展现出了强大的推动力量,它让神经网络能够更精准、更高效地进行自我调整与优化,进而成为了深度学习领域不可或缺的基石。
也正是因为 Hinton 对反向传播算法的大力推广与关键突破,多层神经网络才得以在众多领域被广泛应用,为 AI 从理论迈向实际应用开启了一扇大门,为后续一系列 AI 技术的腾飞奠定了坚实基础。
(二)深度学习模型的创新成果
Geoffery Hinton 在深度学习模型方面的创新成果可以说是层出不穷,为 AI 领域带来了一波又一波的革新浪潮。
深度置信网络(Deep Belief Networks, DBN)就是他的一大杰作。2006 年,Hinton 提出了这一模型,它是首个能够进行无监督学习的深度模型,其独特的结构和学习机制,为后来诸如卷积神经网络、生成对抗网络等深度学习架构的诞生与发展铺就了道路,开启了深度学习在学术界和工业界广泛探索的大门。
卷积神经网络(Convolutional Neural Networks, CNN)同样有着 Hinton 浓墨重彩的一笔。2012 年,Hinton 和他的两名研究生亚历克斯・克里切夫斯基、伊尔亚・苏茨克维共同开发了名为 AlexNet 的八层神经网络程序,这便是典型的卷积神经网络。在当时的 ImageNet(一个庞大的在线图像数据集)图像识别任务中,AlexNet 的表现惊艳众人,比下一个最准确的程序高出 40% 以上,将 ImageNet 数据集上的视觉识别错误率降到了 15.3%,仅有此前的一半,这无疑是计算机视觉领域的一次重大跨越,也让卷积神经网络受到了全球科研与产业界的高度关注,进而被广泛应用到图像识别、视频分析等众多场景之中。
此外,还有胶囊网络(Capsule Networks),这一创新的网络架构同样凝聚着 Hinton 的智慧与心血。它在处理图像等数据时,相较于传统网络有着独特的优势,能够更好地捕捉物体的不同特征以及它们之间的空间关系等,为 AI 在图像理解等更复杂任务上提供了新的思路与方法。
这些由 Hinton 参与研发的深度学习模型,在图像识别、语音识别、自然语言处理等诸多实际应用场景中都实现了重大突破。它们就像一盏盏明灯,引领着整个 AI 领域不断朝着更智能、更高效的方向大步迈进,不断拓展着 AI 所能触及的边界,让 AI 技术逐渐融入到人们生活的方方面面,成为推动社会发展的强大动力。
三、AI 质疑者的观点及背景
(一)担忧 AI 带来危害
在 AI 蓬勃发展的浪潮中,有一部分人士对其持有质疑态度,他们的担忧涉及多个方面。
一些人担心 AI 可能会对人类造成直接的物理伤害甚至毁灭人类。例如,有着 “AI 教父” 之称的 Geoffery Hinton 就曾公开表示,之前他认为强人工智能的出现可能还需要 30 到 50 年时间,但现在他觉得或许 20 年甚至更短时间就会来临,而一旦强人工智能出现,其可能从大量的数据里学到意想不到、人类所不知的行为,加上如今个人和公司都允许 AI 生成自己的代码并自动运行,AI 很可能成为 “杀人机器”。
还有不少人忧虑 AI 会对就业市场产生颠覆性影响。就像 LinkedIn 创始人 Reid Hoffman 指出的那样,AI 在许多具体任务上的表现已胜过人类,打工人被 AI 颠覆只是时间问题,像律师、教师、财务顾问、建筑师等各行各业的白领,都是受生成式人工智能影响较大的群体。麦肯锡的研究也显示,到 2030 年底,AI 可能取代美国经济近三分之一的工作时间,至少 1200 万美国工人需要换工作,且女性所受影响比男性更大。
此外,AI 可能被用于制造虚假内容也是质疑者们重点担忧的一点。现在 AI 已经能够生成逼真的伪造图像、视频以及虚假文字信息等,这些都可能被用于传播假新闻、进行欺诈活动,导致互联网充斥着虚假信息,让普通人越来越难以分辨真假。比如一些聊天机器人可能会给出误导性回答,AI 驱动的广告推荐系统可能通过误导性广告欺骗用户点击,大型语言模型 GPT-4 还曾出现试图说服人类为其解决验证码问题等欺骗行为。
而之所以会产生这些担忧,是因为随着 AI 技术的快速进步,它的能力边界在不断拓展,同时相关的监管和伦理规范等却没能及时跟上其发展速度,使得人们对其可能带来的潜在风险感到不安。
(二)呼吁暂停研究强 AI
面对 AI 可能带来的种种风险,科技界已经采取了一系列行动,其中就包括呼吁暂停更强 AI 的研究。
2023 年 3 月,由特斯拉首席执行官埃隆・马斯克、苹果联合创始人史蒂夫・沃兹尼亚克以及图灵奖得主约书亚・本吉奥等上千名 AI 研究人员联名签署公开信,要求所有 AI 实验室立即暂停至少 6 个月训练比 GPT-4 更强大的 AI 系统。这封公开信由非营利组织 “生命未来研究所” 撰写,该研究所一直致力于减轻人类面临的强大技术带来的全球灾难性和生存风险,尤其关注像超级智能 AI 这类情况。
信中指出,只有在能确信 AI 的影响是积极的、风险是可控的情况下,才应该去开发更强大的 AI 系统。因为当下一些 AI 实验室间的竞赛已经失控,大家争相开发并部署更强大的数字大脑,然而包括开发者在内,却没有人能够完全理解、预测或可靠地控制这些数字大脑。并且,AI 已经在一般任务中与人类媲美,人们不得不去思考诸如是否要让机器用宣传内容和谎言充斥信息渠道、是否要把所有工作都自动化、是否要冒着失去对文明控制的风险继续开发 AI 等问题,而这些重大决定不应只交给科技领袖来做。
他们希望通过这 6 个月的暂停时间,让 AI 实验室和独立专家共同开发和实施一套高级 AI 设计和开发的共享安全协议,且这些协议由独立的外部专家严格审计和监督,以此来搞清 AI 的危害以及找到有效的应对方法,防范可能出现的 AI 风险,让 AI 的发展能在安全的框架内更好地服务人类社会。不过,这封公开信也遭到了部分专家和业内人士的质疑,有人指出其存在签名造假、歪曲论文等情况,也有人认为其宣扬了一种长期却不符合实际的观点,分散了人们对当前已经存在的 AI 危害的注意力,但无论如何,这一呼吁都体现出了部分 AI 质疑者想要防范 AI 风险的迫切心情和积极行动。
四、Geoffery Hinton 对质疑者的反驳
(一)基于 AI 发展历程的反驳
AI 的发展历程可谓是波澜壮阔,从诞生之初到如今取得的斐然成果,一直彰显着其强劲的发展动力,那些质疑者着实是一错再错。
早在 20 世纪 40 年代,AI 就开始萌芽,沃伦・麦卡洛克和沃尔特・皮茨提出了人工神经网络的基本模型,图灵也提出了 “图灵测试”,为 AI 的概念奠定了理论基础。1956 年的达特茅斯会议上,“人工智能” 这一术语被正式提出,标志着它成为一个独立的研究领域,随后的黄金时代里,得益于计算机技术进步和大量研究资金投入,AI 取得了显著进展。
然而,发展之路并非一帆风顺,期间经历了 “AI 冬天” 等低谷阶段,因高昂研究成本、实际应用缺乏以及过度期待后的失望等原因,AI 研究曾陷入停滞。但即便如此,科研人员也未曾放弃,随着计算机处理能力的提升、大数据的出现,机器学习尤其是神经网络在 20 世纪 90 年代重新引起关注,到了 2012 年,AlexNet 在图像分类比赛 ImageNet 上取得突破性成果,深度学习时代正式来临,AI 迎来了全面爆发。
如今,AI 已经被广泛应用于语音识别、自然语言处理、图像识别等诸多领域,给我们的生活带来了极大改变。在医疗领域,AI 医疗影像发展进入快车道,通过 AI 赋能辅助诊断决策系统,像西门子医疗展出的人工智能旗舰心血管超声系统 Acuson Origin,其 AI 功能在全球最大心脏图像数据库中训练后,可提供 5600 多项 AI 自动化超声测量,能减少不同年资医生检查的差异性,提高诊断结果的准确性和一致性;在药物研发方面,人工智能技术能够通过大数据分析和模拟试验,加速药物的筛选和研发过程,降低研发成本,提高研发效率;此外,在临床决策上,AI 可以对患者的数据进行综合分析,提供个性化的诊疗建议,协助医生做出更科学、更精确的决策。
从早期的不被看好,到凭借算力提升、数据量的积累以及技术的不断进步实现突破,AI 一直在稳步且快速地发展着,其积极影响已经渗透到众多行业,那些质疑者只看到了可能存在的风险,却忽视了 AI 一路走来展现出的强大生命力以及未来广阔的发展前景,所以他们对 AI 发展前景的悲观态度是站不住脚的。
(二)对未来 AI 潜力的坚信
Geoffery Hinton 始终对 AI 未来的潜力坚信不疑,他认为那些质疑 AI 的人只是阶段性地误判了 AI 的发展趋势,未来必然还会被 AI 的持续进步 “打脸”。
在 Hinton 看来,AI 有着突破人类智力局限的巨大潜力。如今 AI 在信息处理和决策方面已经展示出远远超过人类的能力,特别是随着知识储备的不断增加,AI 能够在短时间内吸收和处理大量的信息,这是人类一生也无法积累的知识量。而且,AI 不仅将助力基础科学研究,在许多情况下,它还能处理大量非视觉、非听觉的复杂数据,比如基因组数据,在处理大规模数据、识别模式、理解数据方面 AI 未来很可能远超人类。
在辅助医疗诊断上,AI 的前景更是不可限量。当下 AI 已经在肿瘤诊断等方面展现出了比医生还高的准确性,尤其是在早期筛查和微小病灶的检测上效果显著。未来,随着技术不断精进,AI 有望实现更精准、更全面的疾病诊断,成为医生不可或缺的得力助手,让医疗资源能够更高效地服务于患者,为人类健康事业做出更大贡献。
同时,AI 也将推动各行业变革。从制造业到服务业,从教育到金融,AI 都将凭借其强大的数据分析、智能决策等能力,重塑行业的运作模式,创造出更多新的可能和机遇,比如 AI 医疗机器人可以在手术、辅助、康复等环节发挥较高临床价值,AI 健康管理能通过智能设备监测及分析个人数据来守护人们的健康。
总之,AI 的发展是大势所趋,尽管当前存在一些质疑的声音,但 Hinton 相信,随着时间推移,AI 会用不断的进步和斐然的成果来证明其巨大的价值,让那些质疑者认识到自己的错误,未来 AI 必然会在人类社会发展历程中留下浓墨重彩的一笔。
五、AI 发展的现实与展望
(一)当下 AI 发展面临的问题
当下,AI 的发展虽然取得了诸多令人瞩目的成果,但也并非一帆风顺,确实面临着一些亟待解决的问题。
首先,算力限制成为了一大阻碍。从全球范围来看,AI 算力均十分紧缺,尤其在制造端,英伟达 H 系列显卡仅能由台积电代工,产能瓶颈将持续多年。美国芯片出口禁令日益严格后,国内厂商采购数据中心级显卡的难度与日俱增。像字节跳动在 2023 年 9 月组建的 “万卡集群” 是由 1.2 万张相对落后的 A100 显卡组成,而美国科技巨头早已换上了更先进的由 H100 组成的 “万卡集群”,云计算大厂还在积极转向更先进的算力集群。并且,算力紧缺意味着其价格高昂,无论是自购显卡还是租用形式,都让很多大模型厂商成本难以覆盖,创业公司更是高度依赖少数掌握大量算力的科技大厂。
其次,监管法规尚不完善。目前,针对 AI 技术的监管法规在很多方面还存在空白或不足,特别是在数据使用、隐私保护以及模型风险监管标准设定等方面。以美国《加州 AI 安全法案》为例,虽经历多轮修订和审议,但最终在 2024 年 9 月被加州州长否决,其争议点就集中在 AI 立法的主导权竞合、AI 模型的风险监管标准设定及技术创新与监管的平衡这几个关键问题上。在我国,也存在人工智能领域法律法规有待完善,缺乏统一的可信人工智能技术标准和评估体系的情况,这使得 AI 在发展过程中,对于一些潜在风险的把控缺乏有力依据,像知识产权侵权、隐私信息泄露、AI 框架安全风险、AI 算法攻击、误用滥用等问题难以得到有效规制。
再者,伦理道德争议不断。AI 在学习和模仿人类行为时,不可避免地会接触到网络上的偏见和歧视性内容,例如在雇佣领域,曾出现过算法因历史数据存在性别偏见,而倾向于选择男性的情况。在数据隐私方面,互联网上的个人数据常被用于训练 AI 系统,容易侵犯个人隐私权益。而且,AI 生成虚假内容的能力也引发担忧,深度伪造技术能轻松制作出逼真的伪造图像、视频以及虚假文字信息等,被用于传播假新闻、进行欺诈活动,干扰正常的社会秩序,而如何确保 AI 系统遵循伦理和道德准则,避免加剧社会不平等和偏见,仍是一个重要挑战。
总之,这些问题都表明 AI 在发展道路上需要不断克服诸多现实阻碍,才能更好地实现可持续、健康发展。
(二)未来 AI 的无限可能
尽管当下 AI 发展面临着一些难题,但正如 Geoffery Hinton 等专业人士所坚信的那样,未来 AI 有着无限可能,有望在解决现存问题的基础上继续向前迈进,为人类创造更多价值。
在超级智能控制方面,虽然当前人们担心 AI 可能会超越人类智慧并失控,但随着研究的深入,未来有望找到有效的超级智能控制方法。例如 Hinton 曾提出 “非永生计算” 等理念及相关算法,试图通过改变计算方式,限制 AI 无限复制可能带来的威胁,让 AI 在人类可控的范围内发挥强大作用,使其能够与人类协同合作,而不是走向失控。
新计算方式的探索也在持续推进。如今,AI 发展受算力限制较大,不过科学家们正在积极探索如神经形态计算等新的计算方式,它将神经网络软件与特定硬件紧密结合,可包含不确定性因素并随时间推移而发展,有望实现更低的能耗和更简单制作的硬件,若能找到适配的高效学习算法,或许能打破现有算力瓶颈,为 AI 发展提供更强大的动力支持。
同时,AI 也将更加深入地融入日常生活。在医疗领域,AI 有望实现更精准、更全面的疾病诊断,不仅在肿瘤诊断等方面继续提高准确性,在早期筛查和微小病灶的检测上也能发挥更大作用,成为医生不可或缺的得力助手,助力医疗资源更高效地服务患者;在教育行业,AI 私人导师会更加普及,为学生提供个性化学习方案,提升学习效率;在制造业、服务业、金融等众多行业,AI 都将凭借其强大的数据分析、智能决策等能力,重塑行业运作模式,创造出更多新的机遇与可能,比如 AI 医疗机器人可以在手术、辅助、康复等环节发挥更高临床价值,AI 健康管理能通过智能设备监测及分析个人数据来守护人们的健康。
RA/SD 衍生者AI训练营。发布者:風之旋律,转载请注明出处:https://www.shxcj.com/archives/7942