人工智能中的女性:Sandra Wachter的道德和负责任人工智能之战.

Sandra Watcher, 出现在TechCrunch关于人工智能女性系列的教授,是牛津大学的数据伦理学教授

“`html

桑德拉·沃赫特(Sandra Watcher),牛津大学数据伦理学教授,在ENBLE的人工智能文章中亮相。

要真正欣赏人工智能的影响,我们需要认识到那些为人工智能革命作出贡献的杰出女性。这就是为什么ENBLE正在推出一系列采访,重点介绍领域内女性学者和专业人士的工作。在本期中,我们介绍桑德拉·沃赫特(Sandra Wachter),她是牛津大学互联网研究所数据伦理学、人工智能和监管方面的教授和高级研究员。

桑德拉·沃赫特:倡导伦理人工智能

桑德拉·沃赫特的工作重点是评估数据科学的伦理和法律方面,揭示了一些模糊算法导致歧视的案例。在艾伦·图灵研究所的时间里,她调查了审计人工智能和推动公平的方法,打击虚假信息和偏见。

🔗 Save Apple Watch SE:极致潮流时尚腕表

与桑德拉·沃赫特的问答

问:您是如何开始从事人工智能的?是什么吸引您进入这个领域的?

答:我一直相信创新和技术有潜力提升人们的生活水平。然而,我也意识到技术可能带来的破坏性后果。正是我的正义感引导我寻找在促进创新和保护人权之间取得平衡的方式。法律作为一个重要的学科自然引起了我的注意。我看到了利用法律确保创新惠及尽可能多人的可能性。

人工智能是一个渗透各个领域的变革力量,从金融到刑事司法。它可以是一种善意或恶意的力量,取决于设计和政策。我被这个领域吸引,因为我坚信法律可以在对所有人造福的过程中发挥关键作用。

问:您在人工智能领域最自豪的是哪项工作?

答:目前我最自豪的工作是与哲学家布伦特·米特尔斯塔特和计算机科学家克里斯·拉塞尔合作的研究。我们共同探讨了人工智能中的偏见和公平性问题。我们的研究,“公平机器学习的不公平性”,揭示了为实现公平而“降低水平”的问题性质。这种手段让每个人处于更糟的境地,而不是帮助弱势群体。这不仅违反了欧盟和英国的非歧视法律,还引发了伦理问题。在另一篇发表的文章中,我们讨论了这种降低水平在实际场景中的影响,比如在医疗保健领域,这可能导致错过癌症等疾病的关键病例。

<p这一发现令人震惊,我们向英国和欧盟监管机构分享了这一发现。通过提高人们对这些严重问题的认识,我们希望决策者将实施新政策防止人工智能造成伤害。

🔗 Anomalos:数据质量的机器学习方法

<strong在男性主导的科技产业中航行</strong在男性主导的科技产业中航行

问:您如何克服科技和人工智能行业男性主导所面临的挑战?

答:有趣的是,我从未将技术视为一个男性主导的领域。直到我上学时,社会的期望让我质疑自己在科技领域的位置。我清楚地记得有人告诉我女孩应该专注于编织和缝纫,而男孩则建造鸟屋。我决心自己建造一个鸟屋,挑战这种观念,但不幸的是面临了教师和校长的反对。

<p与成见作斗争可能具有挑战性,令人沮丧的是,这样的经历仍然存在。然而,我非常幸运地与布伦特·米特尔斯塔特和克里斯·拉塞尔等支持者合作。导师和背景多样的志同道合者们帮助铺平了通向一个更具包容性的科技社区的道路。

问:您会给那些希望进入人工智能领域的女性什么建议?

答:最重要的是寻找志同道合的人和盟友。找到您的社群并相互支持至关重要。我参与的最有影响力的工作多是与来自不同学科的开明个人合作的结果。传统智慧本身无法解决新颖问题,这就是为什么女性和其他历史上被忽视的群体带来独特的观点和创新思路。

“““html

压倒性问题和负责任的人工智能

Q:随着人工智能的发展,面临的最紧迫问题是什么?

A:人工智能正在应对一系列需要认真考虑法律和政策的问题。存在偏见的数据会导致歧视和不公平的结果。作为一种天生不透明的技术,人工智能受托于做出影响个人生活决策的任务,从贷款批准到工作申请和监狱判决都包括在内。此外,生成式人工智能带来挑战,如误导信息、知识产权侵犯和气候变化。解决这些问题的紧迫性无法言表。

Q:人工智能用户应该注意哪些问题?

A:普遍存在这样一种说法,即人工智能已经到来,那些不接受它的人将被抛在后面。关键在于要批判性地评估主导这一说法的人是谁,谁将从中获益。我们必须记住真正的权力所在 – 不仅仅在于创新者,更在于购买和实施人工智能解决方案的人。

消费者和企业应该问自己,“这项技术真正改善了我的生活吗?以何种方式?”例如,在电动牙刷中加入“人工智能”引发了对其必要性和实际改进的质疑。我们需要考虑什么是出了问题的,以及人工智能是否能够真正修复它。

通过转变我们的思维方式,我们可以重新塑造市场力量,将创新引向以社区需求为导向而非单纯追求利润的方向。

Q:如何负责任地构建人工智能?

A:只有通过要求遵守道德规范的全面法律,才能实现负责任的人工智能。我们必须揭穿误导性的规定抑制创新的错误观念。实际上,规定是防止有害创新的手段。好的法律促进道德创新,就像汽车安全规定确保我们的福祉一样。当前人工智能的发展阶段类似于汽车的早期时期,由于行业强烈的游说,人工智能最终将走上哪条道路还不确定。当规定阻止人工智能侵犯人权时,社会会获益。

Q:投资者如何推动负责任的人工智能?

A:在我的论文“如何通过公平的人工智能让我们更富有”的论点中,我认为尊重人权并确保人工智能公正、可解释和可持续不仅在道德上正确,而且也是有利可图的。我希望投资者能意识到,推动负责任的研究和创新会带来更好的产品。糟糕的数据、错误的算法和设计选择不佳会导致低劣的结果。即使道德论点无法说服,道德人工智能的财务利益应该促使投资者将道德视为一种投资而非阻碍。

🔗 麦克斯的现场运动:Dolby Vision的承诺

结论

桑德拉·瓦赫特在人工智能伦理和监管领域的贡献无法估量。凭借她的专业知识和对正义的奉献,她倡导负责任的人工智能,同时打破性别障碍。AI领域的有志之士应寻求盟友,挑战刻板印象,并利用他们独特的视角推动创新。

随着人工智能继续塑造我们的世界,我们必须解决与偏见数据、透明度和问责制相关的紧迫问题。负责任的AI需要优先考虑人权的全面法律和法规。

让我们互相赋权,构建道德人工智能,为一个真正使所有人受益的未来铺平道路。那么,你还在等什么?加入对话,在社交媒体上分享你的想法!

参考资料:

  1. ENBLE:一系列采访
  2. Anomalos:数据质量的机器学习方法
  3. 气候金融:瞄准错误的行业
  4. 麦克斯的现场运动:获得Dolby Vision

视频链接观看桑德拉·瓦赫特关于道德人工智能的TED演讲

您是否被人工智能的迷人世界及其道德影响所吸引?在下方分享您的想法和经验!让我们相互启发,共同塑造未来。 😄💻🌍

“`</p与成见作斗争可能具有挑战性,令人沮丧的是,这样的经历仍然存在。然而,我非常幸运地与布伦特·米特尔斯塔特和克里斯·拉塞尔等支持者合作。导师和背景多样的志同道合者们帮助铺平了通向一个更具包容性的科技社区的道路。</p这一发现令人震惊,我们向英国和欧盟监管机构分享了这一发现。通过提高人们对这些严重问题的认识,我们希望决策者将实施新政策防止人工智能造成伤害。