摘要: 为了使以AI为重点的女性学者和其他人的当之无愧的(又逾期)的时间,TechCrunch正在推出一系列
AI领域杰出女性:Urvashi Aneja
Urvashi Aneja是Digital Futures Lab的创始主任,致力于研究全球南方科技与社会之间的互动。她还是伦敦独立政策研究所亚太项目的副研究员。
Aneja目前的研究集中在印度算法决策系统的社会影响以及平台治理。她最近撰写了一份关于印度AI当前用途的研究,涵盖了警务和农业等领域。
Q&A
您是如何开始涉足AI领域的?对这个领域的吸引是什么?
我最初在人道主义领域的研究和政策参与中开始了我的职业生涯。多年来,我研究了数字技术在低资源环境中的长期危机中的应用。我很快意识到在处理弱势人群时,创新和实验之间存在微妙的界限。这些经验让我对围绕数字技术,尤其是AI的潜力的技术解决主义叙事深感忧虑。同时,印度启动了Digital India计划和国家人工智能战略。我对将AI视为解决印度复杂社会经济问题的灵丹妙药的主流叙事以及对这一问题完全缺乏批判性讨论感到不安。
您最自豪的AI领域工作是什么?
我为能够引起对AI生产的政治经济以及对社会正义、劳工关系和环境可持续性的更广泛影响而感到自豪。我也为能够将这些关切转化为具体政策和法规感到自豪 — 无论是为公共部门AI使用设计采购指南还是在全球南方对大型科技公司提供法律诉讼证据。
您如何应对男性主导的科技行业以及AI行业的挑战?
通过让我的工作说话。并不断问自己:为什么?
您会给想进入AI领域的女性什么建议?
发展您的知识和专业知识。确保您对问题的技术理解扎实,但不要狭隘地只关注AI。相反,广泛学习,以便能够跨越不同领域和学科之间建立联系。不够多的人了解AI作为一个社会技术系统,它是历史和文化的产物。
AI在发展过程中面临的一些最紧迫问题是什么?
我认为最紧迫的问题是少数科技公司内部权力的集中。虽然这并不新鲜,但这个问题在大型语言模型和生成式AI的新发展下变得更加严重。许多这些公司现在正在煽动人们对AI存在的潜在风险感到恐惧。这不仅是对现有危害的一种转移注意力,而且还将这些公司定位为解决AI相关危害的必要条件。在很多方面,我们正在失去在剑桥分析事件后出现的“技术批评”势头。在印度等地方,我也担心AI被定位为社会经济发展的必要条件,这为跨越持续挑战提供了机会。这不仅夸大了AI的潜力,而且忽视了发展所需的制度发展无法跨越的事实。我们没有认真考虑的另一个问题是AI对环境的影响 — 当前的发展轨迹可能是不可持续的。在当前生态系统中,最容易受到气候变化影响的人很可能不会成为AI创新的受益者。
AI用户应该意识到的一些问题是什么?
用户需要意识到AI并非魔法,也远非人类智能。它是一种基于历史或先前模式的计算统计形式,具有许多有益用途,但最终只是基于概率猜测。我确信用户还需要了解其他一些问题,但我想警告的是,我们应该警惕试图将责任转移到用户身上的尝试。我最近在大多数地区看到了这种情况,即在多数地区的低资源环境中使用生成式AI工具 — — 与其对这些实验性和不可靠的技术保持谨慎,焦点往往转移到最终用户,如农民或一线卫生工作者,需要提升技能。
负责任地构建AI的最佳方式是什么?
这必须始于评估是否需要AI。AI是否能独特解决问题,或者其他手段是否可行?如果我们要构建AI,是否需要复杂的黑匣子模型,或者基于逻辑的简单模型是否也能胜任?我们还需要重新将领域知识置于AI的构建中心。在对大数据的迷恋中,我们牺牲了理论 — — 我们需要建立一个基于领域知识的变革理论,这应该是我们构建模型的基础,而不仅仅是大数据。当然,这还包括参与、包容团队、劳工权利等关键问题。
投资者如何更好地推动负责任的AI发展?
投资者需要考虑AI生产的整个生命周期 — — 不仅仅是AI应用的输出或结果。这需要关注一系列问题,例如劳动是否得到公平评价、环境影响、公司的商业模式(即是否基于商业监视?)以及公司内部的问责措施。投资者还需要要求更好、更严格的关于所谓AI好处的证据。
暂无评论内容