拜登的人工智能计划面临预算挑战!💰😱

担忧出现,乔·拜登负责的机构国家标准与技术研究院(NIST)缺乏资源来应对人工智能风险 - 可能会依赖私营公司开发技术

美国为确保人工智能(AI)安全制定的雄心勃勃的计划目前面临财政压力。

介绍

10月份,美国总统乔·拜登发布了对抗人工智能(AI)潜在风险的雄心勃勃的计划。然而,这项全面计划已经面临国家标准与技术研究所(NIST)面临的预算限制的威胁。NIST负责制定AI标准,但是提出的预算不足以在2024年7月26日的截止日期前独立完成必要的工作,这引发了有关该机构过度依赖有着AI标准塑造利益的私有公司的担忧。在本文中,我们将更深入地探讨NIST面临的挑战以及不充分解决AI偏见和隐藏威胁可能带来的后果。🤔

几乎不可能的截止日期 ⏳

NIST新兴技术副主任Elham Tabassi将2024年7月26日的截止日期形容为“几乎不可能”达到的。这个紧迫的时间表使NIST承受巨大的压力,需要为AI系统进行压力测试,揭示偏见、隐藏威胁和不良倾向。然而,NIST 2023年的预算为16亿美元,对于这项艰巨的任务来说是不够的。

国会担忧

一些国会成员担心NIST将不得不严重依赖私有公司的AI专业知识。这些公司由于自身的AI项目而对形成有利于他们的标准有着既得利益。这引发了对透明度以及在制定AI标准过程中可能出现的不当影响的质疑。🕵️‍♀️

NIST对抗AI强国 🥊

NIST负责为食品成分到原子钟等一切进行标准化,与OpenAI、谷歌和脸书等公司的资源相比显得微不足道。这些科技巨头中的每一个都可能花费了超过1亿美元来培训强大的语言模型,这些模型是ChatGPT、Bard和Llama 2等应用的基础。NIST有限的预算使之难以独立解决AI安全测试的关键问题。💸

国会公开信 📝

12月16日,国会的六名成员签署了一封跨党派的公开信,对NIST决策过程中的缺乏透明度表示关注。这封信强调了定义AI标准的匆忙,这一过程受限于对AI系统测试的早期研究。信件强调AI专家对如何衡量和定义AI技术的安全问题存在“重大分歧”。NIST在这个问题上扮演了领导角色,但是当前的AI安全研究状况对该机构造成了挑战。

透明度的追求和更多需求 🧐

NIST承认国会提出的担忧,并采取了一些措施增强透明度。他们最近发布了一份信息请求,征求外界专家和公司对评估和进行红队测试AI模型的标准的意见。虽然这一举措反映了NIST对透明度的承诺,但目前尚不清楚这是否是对国会关切的直接回应。商业AI模型周围日益增加的保密性也使得像NIST这样的机构更难进行测量。

专家意见 🗣️

Parity Consulting的数据科学家兼首席执行官Rumman Chowdhury认为,作为一个非党派的科学机构,NIST最适合洞察AI风险背后的炒作和揣测。然而,他们需要更多的不仅仅是指令和祝福,才能更有效地履行使命。Hugging Face的机器学习和社会负责人Yacine Jernite指出,NIST与负责开发最具影响力AI系统的大型科技公司之间存在重大资源差距。

前进之路 🛤️

虽然对NIST预算限制的担忧是合理的,但必须承认白宫的行政命令为AI安全提供了全面的路线图。建立人工智能安全研究所,并与美国盟国合作采纳NIST的标准是推进负责任的全球技术标准发展的重要步骤。此外,英国宣布成立一个专注于AI安全的任务组,并获得了充足的种子资金,这表明国际社会致力于解决这一重要问题。🌍

展望未来 🔍

美国国家标准与技术研究院(NIST)在实施人工智能标准时面临的挑战表明仍有很多工作要做。继续研究、测试和改进人工智能系统以确保其安全性和可靠性至关重要。在透明度、创新和避免潜在偏见之间取得平衡至关重要。随着人工智能领域的发展,NIST作为一个科学机构在管理人工智能风险方面具有至关重要的作用。NIST获得必要的资金和资源以有效履行其使命是至关重要的。🙌


🔗 参考文献:TomTom和Microsoft推出人工智能驾驶助手白宫行政命令衡量公众对新型人工智能工具的信任最佳预算内购买的CPU散热器另一位苹果设计师加入Jony Ive在OpenAI的Hardware部门工作如何在Windows上打印为PDF商业人工智能模型周围的不透明度增加AISI科学价值公开信


🤝 让我们在社交媒体上连接!🌐 分享您对这个关键主题的想法和意见。您认为NIST能够克服预算上面临的挑战并有效地塑造人工智能标准吗?在下方评论或参与我们的Facebook页面Twitter上的讨论。别忘了把这篇文章与对人工智能世界感兴趣的朋友和同事分享!📢✨

🔥🔥🔥