为了让关注AI的女性学者和其他人得到他们应有的——而且过去久违的——关注,TechCrunch一直在发布一系列采访,重点关注那些为AI革命做出贡献的杰出女性。我们将在AI繁荣持续的情况下,整年发布这些文章,突出那些经常被忽视的关键工作。阅读更多相关人物简介请查看这里。
今天的焦点人物是Ewa Luger,她是设计信息学研究所的联合主任,也是由艺术与人文研究理事会(AHRC)支持的“跨越负责人工智能鸿沟”(BRAID)计划的联合主任。她与政策制定者和行业密切合作,并且是英国文化、传媒和体育部(DCMS)专家学院的成员,这是一群为DCMS提供科学和技术建议的专家。
Luger的研究探讨了数据驱动系统(包括AI系统)中的社会、伦理和交互问题,特别关注设计、权力分配、排斥领域和用户同意。她曾是图灵研究所的研究员,曾在微软担任研究人员,并曾在剑桥大学克里斯蒂学院担任研究员。
问答
简要介绍一下,您是如何开始涉足AI领域的?是什么吸引您进入这个领域的?
我在获得博士学位后,加入了微软研究院,我在剑桥(英国)实验室的用户体验和设计小组工作。在那里,AI是一个核心关注点,所以我的工作自然而然地更多地发展到那个领域,并扩展到围绕以人为中心的AI(例如智能语音助手)的问题。
当我转到爱丁堡大学时,是因为我想探索算法可解释性的问题,这在2016年是一个小众领域。我发现自己身处负责AI领域,并目前共同领导一个由AHRC资助的国家级项目。
在AI领域,您最自豪的工作是什么?
我最被引用的工作是一篇关于语音助手用户体验的论文(2016年)。这是其类别的第一份研究,并且仍然被广泛引用。但我个人最引以为豪的工作还在进行中。BRAID是我共同领导的一个计划,与一位哲学家和伦理学家合作设计。这是一个真正跨学科的努力,旨在支持英国负责人工智能生态系统的发展。
与爱达·洛夫莱斯研究所和BBC合作,它旨在将文艺知识与政策、监管、行业和志愿部门联系起来。在涉及AI时,我们往往忽视了艺术和人文领域,这在我看来总是很奇怪。当COVID-19爆发时,创意产业的价值是如此重要;我们知道从历史中学习对于避免重复犯错误至关重要,而哲学是医学科学保持我们安全和明智的伦理框架的根基。像Midjourney这样的系统依赖于艺术家和设计师的内容作为训练数据,但这些学科和从业者在该领域中几乎没有发言权。我们希望改变这种现状。
实际上,我曾与微软和BBC等行业合作伙伴共同制定负责人AI挑战,并且我们一起寻找可以回应这些挑战的学者。到目前为止,BRAID已经资助了27个项目,其中一些是个人研究项目,我们即将启动新的征集。
我们正在为希望与AI交流的利益相关者设计一个免费在线课程,设立一个论坛,我们希望能吸引各行各业的人群以及其他部门的利益相关者,以支持工作的治理,并帮助消除目前围绕AI的一些神话和夸大之词。
我知道这种叙述是目前围绕AI的当前投资的推动力,但它也有助于培养那些最有可能遭受下游危害的人群之间的恐惧和困惑。BRAID将持续至2028年的末尾,在下一阶段,我们将着手解决AI素养、抵抗空间和争议和追索机制。这是一个(相对)庞大的项目,为期六年,由AHRC资助,总额为1590万英镑。
您如何应对男性主导的科技行业以及派生的男性主导的AI行业的挑战?
这是一个有趣的问题。我会从这样一些事实开始,这些问题并不仅限于实业界,尽管人们常常认为是这样。学术环境在性别平等方面也存在很多类似的挑战。我目前是一所学院的联合主任——设计信息学院——将设计学和信息学学院结合在一起,因此我会说在性别平等方面以及限制女性充分发挥职业潜力的文化问题上有更好的平衡。
但在我攻读博士学位期间,我所在的实验室是男性主导的,当我在行业工作时也是如此。撇开职业休假和照顾等明显的影响,我体验到了两种交织在一起的动力。首先,对女性有更高的标准和期望——例如要友好、积极、善良、支持性、团队合作者等等。其次,我们往往不愿意主动争取那些不那么合格的男性会积极争取的机会。因此,我不得不在许多场合大胆跨出自己的舒适区。
我需要做的另一件事是设立非常确定的界限,并学会何时说不。女性往往被训练成(并被视为)让人喜欢的人。我们很容易被视为那些对于男性同事来说不太吸引人的任务的解决人,甚至在会议中都被认为是沏茶或记录笔记的人,无论专业地位如何。只有通过说不,并确保您意识到自己的价值,您才会最终以不同的方式被人看待。总的来说,这样的问题在结构和文化上都存在,因此应对它们需要努力——首先是使其可见,其次是积极解决。没有简单的解决方案,任何应对都会对科技领域中的女性增加更多的情感劳动。
您会给想要进入AI领域的女性什么建议?
我的建议一直是去寻找让您获得提升机会的机会,即使您认为自己并不完全适合。让它们拒绝您,而不是您自己放弃机会。研究表明,男性会去做他们认为自己可能做到的工作,而女性只会去做她们觉得自己已经能够或正在胜任的工作。目前,雇佣过程和资助方面也有更多的性别意识的趋势,尽管最近的例子展示了我们还有很长的路要走。
如果您看看英国研究与创新AI中心,最近公布的一项备受关注的、价值数百万英镑的投资,所有最近宣布的九个AI研究中心都由男性领导。我们应该在确保性别代表性方面做得更好。
随着AI的发展,面临的一些最紧迫问题是什么?
考虑到我的背景,也许并不奇怪,我会说,AI面临的最紧迫问题是与设计、治理和使用AI系统相关的可能的直接和间接危害。
最紧迫的问题,也是一个长期被忽视的问题,是大型模型对环境的影响。如果应用的好处超过风险,我们可能在某个时候选择接受这些影响。但就目前而言,我们看到类似Midjourney这样的系统被广泛用于娱乐,用户在每次运行查询时在很大程度上,如果不是完全地,都没有意识到影响。
另一个紧迫问题是我们如何调和AI创新的速度和监管环境保持同步的能力。这不是一个新问题,但监管是确保AI系统负责任开发和部署的最佳手段。
很容易认为所谓的AI民主化——这指的是ChatGPT等系统如此容易地提供给任何人使用——是一个积极的发展。然而,我们已经开始看到生成内容对创意产业和创意从业者的影响,特别是在版权和归属方面。新闻界和新闻制作人也在竞相确保他们的内容和品牌不受影响。这后一个问题对我们的民主制度有着巨大影响,特别是当我们进入关键的选举周期时。从地缘政治的角度来看,这些影响可能会产生实质性的变化。回避偏见也不是问题清单中所缺少的。
AI用户应该注意哪些问题?
不确定这与公司使用AI还是普通公民有关,但我假设是后者。我认为主要问题是信任。我在这里思考的是,现在有很多学生正在使用大型语言模型生成学术作品。撇开道德问题不谈,这些模型仍然不够好。引用通常是不正确的或脱离上下文的,有些学术论文的细微差别也会失去。
但这反映了一个更广泛的问题:您仍然不能完全信任生成的文本,因此只应在上下文或结果低风险的情况下使用这些系统。另一个明显的问题是真实性和真实性。随着模型变得越来越复杂,越来越难以确定它是由人还是机器生成的。作为一个社会,我们尚未发展出必要的素养来对AI丰富的媒体环境中的内容做出理性判断。在这过渡期间,传统的媒体素养规则也适用:查验消息来源。
另一个问题是,AI不是人类智能,因此这些模型并不完美——如果有人想要,它们很容易被欺骗或破坏。
负责任构建AI的最佳方式是什么?
我们拥有的最佳手段是算法影响评估和监管合规,但理想情况下,我们将寻求积极寻求做好事情而不仅仅是寻求最小化风险的过程。
回到基础,明显的第一步是解决设计者的构成——确保AI、信息学和计算机科学作为学科吸引女性、有色人种和其他文化的代表。显然这不是一个快速的解决方案,但如果人员更加异质,我们很明显会更早调整偏见问题。这将我带到数据语料库的问题,并确保它符合要求,并且采取适当的方法来消除偏见。
然后需要培训系统架构师了解道德和社会技术问题——将这些问题放在与主要学科相同的重要位置。接着我们需要给系统架构师更多的时间和权力来考虑和解决任何潜在问题。然后我们来到治理和共同设计的问题,利益相关者应该参与系统的治理和概念设计。最后,我们需要在系统接近人类主体之前彻底对系统进行压力测试。
理想情况下,我们还应该确保有机制可供选择退出、争辩和申诉——尽管许多这些内容已经被新兴法规覆盖。这似乎是明显的,但我还想补充一点,即您应准备终止一个即将在负责任措施上失败的项目。在这里往往会涉及到“已经投入成本”的谬误,但如果一个项目未能如您所希望地发展,那么增加风险容忍度而不是继续进行它,可能会导致产品的时机不佳的终结。
欧盟最近通过了AI法案,涵盖了其中的很多内容。
投资者如何更好地