NaNoWriMo组织者发表声明称他们批准人们在今年的活动中使用生成式人工智能(如 LLM 聊天机器人)后发生的争吵。
“比如,艺术往往是唯一一个可以克服残疾人身心与世界不相适应的地方,无需依赖健全人的慷慨或被迫亲密。说我们需要人工智能的帮助就是无视这一切。” – Johnathan Flowers 博士,2024 年 9 月 4 日
弗劳尔斯博士认为,组织者特别指出这一决定是为了让残疾人和边缘群体有机会参与艺术活动,其实是在低估这些群体的创造力和参与艺术的能力。作为一名残疾人,他指出,艺术是社会中为数不多的几个领域之一,在这里,残疾可能不会像其他不太方便的地方那样成为参与的障碍。
自最初宣布这一消息以及许多其他批评以来,NaNoWriMo 组织者已经软化或撤回了部分声明,本周早些时候的最新帖子似乎有所增补。不幸的是,正如经常发生的那样,社交媒体上的大部分此类对话都演变成毫无成效的讨论。
我之前曾在这里讨论过,当生成式人工智能涉及艺术时,很难评估其真正含义,我仍然坚持我的观点,即作为艺术消费者,我寻求与他人的观点和世界观的联系,因此人工智能生成的内容在这方面并不引起我的兴趣。然而,我并没有花太多时间思考人工智能作为无障碍工具的作用,这就是我今天想讨论的内容。
我不是身体残障人士,所以我只能以社会科学家和社区旁观者的身份来看待这个话题。我的观点是我自己的观点,不代表任何社区或组织的观点。
框架
在最近的一次演讲中,我被要求首先对“AI”进行定义,我总是有点害怕这个定义,因为它太过模糊和困难,但这次我进行了一次全新的尝试,并阅读了一些最近的监管和政策讨论,并得出了以下结论:
人工智能:使用某些形式的机器学习来完成原本必须由人来完成的劳动。
我仍在进行研讨,而且随着世界的变化,我可能还会一直进行下去,但我认为这对今天的讨论很有用。请注意,这并没有将我们的讨论限制在生成式人工智能上,这一点很重要。关于人工智能的讨论具体涉及应用机器学习(无论是否涉及深度学习)来完成目前我们无法通过任何其他方式自动化完成的任务。
残疾问题的社会理论本身就是一门学科,具有极大的深度和复杂性。与研究其他人群的讨论和学术研究一样,让这个社区的实际成员不仅能发出自己的声音,还能引导讨论如何对待他们以及他们在更广泛社会中的机会,这一点非常重要。根据我对这个领域的了解,我希望优先考虑残疾人是否拥有他们想要的自主权和独立性,以及获得与非残疾人相当的机会和结果所需的支持。还值得一提的是,许多最初为帮助残疾人而开发的技术对所有人都有帮助,比如自动门。
人工智能作为工具
那么,人工智能在这一目标中究竟能发挥什么作用?人工智能对残疾人有好处吗?一般而言,技术(不仅仅是人工智能相关的发展)已以多种方式应用于为残疾人提供自主和独立,而这在以前是不可能的。任何像我一样在过去几周观看过巴黎残奥会的人都能以这种方式想到技术的例子。
但我很好奇人工智能能提供什么,以及它会带来哪些缺点或风险。事实证明,关于这个问题已经有很多非常有趣的学术研究,并且还在不断发布。我将简要概述几个关键领域,并提供更多资源,如果你恰好有兴趣深入了解其中任何一个领域。
积极因素
神经和沟通问题
这似乎应该是 AI 工具的良好驾驭场所。LLM 在重述、改写或总结文本方面非常有用。当人们难以阅读长篇文章/集中注意力时,是否能够生成准确的总结可能会决定人们是否能够理解文本的主题。这不一定是整个文本的替代品,而可能只是一种增强读者理解的工具。(就像 Cliff Notes,但对于它们应该使用的方式。)我不建议直接向 LLM 提问关于段落含义的问题,因为这更有可能产生错误或不准确的信息,但总结已经存在的文本是一个很好的用例。
其次,难以进行口头交流或无法理解口头交流的人也可以从人工智能工具中获得帮助。这些技术既可以接收口头文本并生成高度准确的自动转录,这可能更适合失语症患者理解,也可以让说话困难的人写下文本并将其转换为高度逼真的人类口语。(真的,人工智能合成语音最近变得如此神奇!)
这甚至还没有涉及到人工智能如何帮助听力障碍人士!助听器可以使用模型来识别和隔离用户想要关注的声音,并减少干扰或背景噪音。任何使用过主动降噪技术的人都会受益于这种技术,它是一个很好的例子,它对残疾人和非残疾人都有帮助。
视觉与图像
对于有视力障碍的人来说,数字化参与可能会遇到障碍,包括屏幕阅读器网站设计不佳,以及缺少描述图像内容的替代文本。模型在识别图像中的物体或特征方面越来越熟练,如果能够广泛使用,这可能是一种非常有价值的人工智能形式,这样屏幕阅读软件就可以生成自己的替代文本或图像描述。
- https://tink.uk/thoughts-on-screen-readers-and-image-recognition/
- https://www.theverge.com/2022/3/18/22984474/microsoft-edge-automatic-image-labels-accessibility-feature
- 人工智能计算机视觉和图像识别的应用(2022 年 1 月)
物理假肢
还有一些形式的人工智能可以帮助假肢和身体无障碍工具更好地发挥作用。我指的不一定是使用神经植入物的技术,尽管这种技术正在研究中,但有许多模型可以学习人体运动的物理原理,以帮助计算机驱动的假肢更好地为人们服务。这些模型可以与肌肉和神经末梢整合,或者可以巧妙地自动化某些动作,帮助上肢假肢提高精细运动技能等。下肢假肢可以使用人工智能来更好地理解和产生步幅和流畅度等。
- 人工智能在假肢中的应用(2024 年 3 月)
- 人工智能如何助力下一代假肢(2023 年 1 月)
缺点
再现与擦除
好吧,这只是人工智能为残疾人需求所做的一些伟大的事情。然而,我们也应该花些时间讨论人工智能可能对残疾人和整个社会造成不利影响的领域。这些领域大多与使用人工智能进行文化生产有关,我认为它们主要是因为这些模型复制并强化了社会偏见和歧视。
例如:
- 由于我们的社会结构不优先考虑或强调残疾人及其需求,因此模型也不如此。我们的社会充斥着残疾歧视,这在人工智能生成的文本中得到了体现。我们可以在快速工程中明确尝试纠正这一点,但很多人不会花时间或思考去这样做。
- 同样,人工智能模型生成的图像往往会抹去所有在文化上不占主导地位或在媒体上不被重视的群体,包括残障人士。这些模型使用的训练数据越多,在积极的背景下包含残障人士的代表,效果就越好,但在代表比例真实与代表更多之间总是存在着一种自然的矛盾,因为我们希望有更好的可见性而不是抹去。
数据隐私和道德
该区域有两个主要主题,对残疾人具有负面影响。
- 首先,人工智能很有可能被用来假设残疾人的愿望和能力,从而导致歧视。与任何群体一样,询问人工智能该群体可能喜欢什么、需要什么或认为什么是可取的,并不能代替让该群体真正参与到会影响他们的决策中。但人们很容易懒得直接“问人工智能”,而这种情况无疑有时会发生。
- 其次,数据隐私是一个复杂的话题。具体来说,当有人使用无障碍技术(例如手机或网页的屏幕阅读器)时,这可能会产生有关残疾状况的推断数据。如果这些数据没有得到妥善保护,个人的残疾状况(或推断错误时感知到的残疾状况)可能成为一种负担,使该人面临其他领域歧视的风险。我们需要确保无论某人是否使用无障碍工具或功能,都被视为敏感的个人数据,就像有关他们的其他信息一样。
医疗偏见
当医学界开始在工作中使用人工智能时,我们应该密切关注这对边缘化群体(包括残疾人)的副作用。与法学硕士的使用可能意味着残疾人的真实声音在重要决策中被忽视类似,如果医疗专业人员使用法学硕士为残疾的诊断或治疗提供建议,这些建议将受到这些模型所携带的社会和文化负面偏见的影响。
这可能意味着,非典型或不常见的残疾表现可能会被忽视或忽略,因为模型必然难以理解异常值和特殊情况。这也可能意味着,当患者的生活经历与模型的预期或预测相反时,他们很难说服医疗服务提供者相信他们的生活经历。正如我在其他作品中所讨论的那样,人们可能对机器学习模型的准确性过于自信,而相比之下,人类的观点可能不那么可信,即使这不是一个合理的断言。
获取技术
还有很多其他技术我还没有时间在这里介绍,但我确实想指出,仅仅存在一项技术并不等同于残疾人可以轻松、负担得起地使用这些技术。残疾人往往在经济上处于不利地位,这在很大程度上是因为他们在经济参与方面存在不必要的障碍,因此许多特殊进步实际上并没有被许多可能需要它们的人所接受。认识到这一点很重要,这是我们社会需要承担责任的问题——尤其是与美国医疗保健的其他领域一样,我们在满足人们对护理和工具的需求方面做得非常糟糕,这些护理和工具本来可以让他们过上最好的生活,并以他们本来可以的方式参与经济。
结论
这只是对该领域一些关键问题的粗略回顾,我认为这对我们这些从事机器学习的人来说是一个重要的话题。我们开发的技术对边缘化人群(包括残疾人)既有好处也有风险,我们的责任是在工作中考虑到这一点,并尽最大努力降低这些风险。
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/6015