跳转到主要内容
Chinese, Simplified

这篇文章是Brad Smith为微软的报告《治理人工智能:未来蓝图》撰写的前言。报告的第一部分详细介绍了政府应考虑人工智能相关政策、法律和法规的五种方式。第二部分重点介绍了微软对道德人工智能的内部承诺,展示了该公司如何运作和建立负责任的人工智能文化。

“不要问计算机能做什么,要问它们应该做什么。”

这是我在2019年合著的一本书中关于人工智能和伦理的章节的标题。当时,我们写道,“这可能是我们这一代人的决定性问题之一。”四年后,这个问题不仅在世界各国首都,而且在许多餐桌上占据了中心位置。

当人们使用或听说OpenAI的GPT-4基础模型的力量时,他们经常感到惊讶甚至震惊。许多人都很兴奋。有些人感到担忧甚至害怕。几乎所有人都清楚的是,我们在四年前就注意到了这一点——我们是人类历史上第一代创造出能够做出以前只能由人做出的决定的机器。

世界各国都在提出共同的问题。我们如何利用这项新技术来解决我们的问题?我们如何避免或管理它可能产生的新问题?我们如何控制如此强大的技术?

这些问题不仅需要广泛和深思熟虑的对话,而且需要果断和有效的行动。本文提供了我们作为一家公司的一些想法和建议。

这些建议建立在我们多年来所做工作的基础上。微软首席执行官萨蒂亚·纳德拉在2016年写道,“也许我们能进行的最富有成效的辩论不是善与恶的辩论:辩论应该是关于创造这项技术的人和机构所灌输的价值观。”

从那时起,我们就定义、发布并实施了指导我们工作的伦理原则。我们建立了不断改进的工程和治理系统,将这些原则付诸实践。如今,我们有近350人在微软从事负责任的人工智能工作,帮助我们实施最佳实践,构建安全、可靠和透明的人工智能系统,造福社会。

改善人类状况的新机遇

我们的方法由此取得的进步使我们有能力和信心看到人工智能改善人们生活的不断扩大的方式。我们已经看到人工智能帮助拯救个人视力,在癌症新疗法方面取得进展,对蛋白质产生新的见解,并提供预测,保护人们免受危险天气的影响。其他创新是抵御网络攻击,帮助保护基本人权,即使在遭受外国入侵或内战的国家也是如此。

日常活动也会受益。通过在人们的生活中充当副驾驶,GPT-4等基础模型的力量正在将搜索变成一种更强大的研究工具,并提高人们的工作效率。而且,对于那些很难记住如何帮助13岁的孩子完成代数作业的家长来说,基于人工智能的帮助是一个很有帮助的导师。

在很多方面,人工智能为人类的利益提供的潜力可能比之前的任何发明都要大。自14世纪发明活字印刷机以来,人类的繁荣一直在加速增长。蒸汽机、电力、汽车、飞机、计算机和互联网等发明为现代文明提供了许多基石。而且,就像印刷机本身一样,人工智能提供了一种新的工具来真正帮助推进人类的学习和思考。

未来的护栏(Guardrails )

另一个结论同样重要:仅仅关注利用人工智能改善人们生活的许多机会是不够的。这也许是从社交媒体的作用中得到的最重要的教训之一。十多年前,技术专家和政治评论员都对社交媒体在阿拉伯之春期间传播民主的作用赞不绝口。然而,五年后,我们了解到,社交媒体和之前的许多其他技术一样,将成为一种武器和工具——在这种情况下,其目标是民主本身。

今天,我们老了10岁,更聪明了,我们需要把这种智慧发挥作用。我们需要尽早、清醒地思考未来可能出现的问题。随着技术的发展,确保对人工智能的适当控制与追求其利益同样重要。作为一家公司,我们致力于并决心以安全和负责任的方式开发和部署人工智能。然而,我们也认识到,人工智能所需的护栏需要广泛的责任感,不应该只留给科技公司。

当我们微软在2018年通过人工智能的六项道德原则时,我们注意到其中一项原则是其他一切的基石——问责制。这是根本的需要:确保机器仍然受到人们的有效监督,设计和操作机器的人仍然对其他人负责。简而言之,我们必须始终确保人工智能处于人类的控制之下。这必须是科技公司和政府的首要任务。

这与另一个基本概念直接相关。在民主社会中,我们的一个基本原则是,任何人都不能凌驾于法律之上。任何政府都不能凌驾于法律之上。任何公司都不能凌驾于法律之上,任何产品或技术都不应凌驾于法律之外。这导致了一个关键的结论:设计和操作人工智能系统的人不能承担责任,除非他们的决定和行动受到法治的约束。

在许多方面,这是正在展开的人工智能政策和监管辩论的核心。政府如何最好地确保人工智能服从法治?简而言之,新的法律、法规和政策应该采取什么形式?

人工智能公共治理的五点蓝图

本文的第一节提供了一个五点蓝图,通过公共政策、法律和监管来解决当前和新兴的人工智能问题。我们提出这一点是认识到,这一蓝图的每一部分都将受益于更广泛的讨论,并需要更深入的发展。但我们希望这能对今后的工作作出建设性贡献。

首先,实施和建立新的政府主导的人工智能安全框架。

成功的最好方法往往是建立在他人的成功和良好想法的基础上。尤其是当一个人想快速行动的时候。在这种情况下,有一个重要的机会在美国国家标准与技术研究所(NIST)四个月前刚刚完成的工作的基础上再接再厉。作为商务部的一部分,NIST已经完成并推出了一个新的人工智能风险管理框架。

我们提供了四个具体的建议来实施和建立这一框架,包括微软在白宫最近与领先的人工智能公司举行的会议上做出的承诺。我们还相信,政府和其他政府可以通过基于这一框架的采购规则来加快势头。

其次,需要为控制关键基础设施的人工智能系统提供有效的安全刹车(safety brakes)

在某些方面,有思想的人越来越多地问,随着人工智能变得越来越强大,我们是否能令人满意地控制它。有时会对电网、供水系统和城市交通流等关键基础设施的人工智能控制提出担忧。

现在正是讨论这个问题的恰当时机。这一蓝图提出了新的安全要求,实际上,这将为控制指定关键基础设施运行的人工智能系统创造安全刹车。这些故障安全系统将是系统安全综合方法的一部分,该方法将把有效的人类监督、弹性和稳健性放在首位。在精神上,它们将类似于工程师长期以来在电梯、校车和高速列车等其他技术中构建的制动系统,不仅可以安全地管理日常场景,还可以安全地处理紧急情况。

在这种方法中,政府将定义控制关键基础设施的高风险人工智能系统类别,并保证采取此类安全措施,作为系统管理综合方法的一部分。新的法律将要求这些系统的操作员通过设计将安全制动器构建到高风险的人工智能系统中。然后,政府将确保运营商定期测试高风险系统,以确保系统安全措施有效。控制指定关键基础设施运行的人工智能系统将仅部署在获得许可的人工智能数据中心,这些数据中心将通过应用这些安全制动器的能力确保第二层保护,从而确保有效的人工控制。

第三,基于人工智能的技术架构,制定一个广泛的法律和监管框架。

我们认为,需要有一个反映人工智能本身技术架构的人工智能法律和监管架构。简言之,法律需要根据不同参与者在管理人工智能技术不同方面的作用,将各种监管责任赋予他们。

因此,这份蓝图包括了关于构建和使用新的生成人工智能模型的一些关键部分的信息。以此为背景,它建议不同的法律将特定的监管责任赋予在技术堆栈的三层行使某些责任的组织:应用程序层、模型层和基础设施层。

这应该首先将应用层的现有法律保护应用于人工智能的使用。这是人们的安全和权利将受到最大影响的一层,特别是因为人工智能的影响在不同的技术场景中可能会明显不同。在许多领域,我们不需要新的法律法规。相反,我们需要应用和执行现有的法律法规,帮助机构和法院发展适应新的人工智能场景所需的专业知识。

然后,将需要为高能力的人工智能基础模型制定新的法律和法规,最好由新的政府机构实施。这将影响技术堆栈的两层。第一个要求对这些车型本身进行新的法规和许可。第二个将涉及开发和部署这些模型的人工智能基础设施运营商的义务。下面的蓝图为每一层提供了建议的目标和方法。

在这样做的过程中,这一蓝图在一定程度上建立在近几十年来银行业制定的一项原则之上,该原则旨在防止洗钱和金融服务的犯罪或恐怖主义使用。“了解你的客户”(KYC)原则要求金融机构核实客户身份,建立风险档案,并监控交易,以帮助发现可疑活动。采取这一原则并应用KY3C方法是有意义的,该方法在人工智能环境中创造了了解自己的云、客户和内容的某些义务。

首先,指定的强大人工智能模型的开发者首先“了解”他们的模型开发和部署的云。

此外,例如对于涉及敏感用途的场景,与客户有直接关系的公司——无论是模型开发人员、应用程序提供商还是运行该模型的云运营商——都应该“了解访问该模型的客户”。

此外,当视频或音频文件等内容是由人工智能模型而非人类制作的时,公众应该有权通过使用标签或其他标记来“了解”人工智能正在创建的内容。这一标签义务还应保护公众免受原始内容的更改和“深度造假”的影响。这将需要制定新的法律,还有许多重要的问题和细节需要解决。但民主的健康和公民话语的未来将受益于阻止使用新技术欺骗或欺骗公众的深思熟虑的措施。

第四,提高透明度,确保学术和非营利组织获得人工智能。

我们认为,一个关键的公共目标是提高透明度,扩大获得人工智能资源的机会。虽然透明度和安全需求之间存在一些重要的紧张关系,但仍有许多机会以负责任的方式使人工智能系统更加透明。这就是为什么微软承诺发布年度人工智能透明度报告和其他措施,以扩大我们人工智能服务的透明度。

我们还认为,扩大学术研究和非营利社区对人工智能资源的获取至关重要。自20世纪40年代以来,基础研究,尤其是大学基础研究,对美国的经济和战略成功至关重要。但是,除非学术研究人员能够获得更多的计算资源,否则科学和技术研究将面临真正的风险,包括与人工智能本身有关的风险。我们的蓝图要求采取新的步骤,包括我们将在整个微软采取的步骤,以解决这些优先事项。

第五,寻求新的公私合作伙伴关系,将人工智能作为一种有效工具,以应对新技术带来的不可避免的社会挑战。

近年来的一个教训是,当民主社会利用技术的力量,将公共和私营部门团结在一起时,它们可以取得什么成就。这是我们需要吸取的教训,以应对人工智能对社会的影响。

我们所有人都将受益于坚定的乐观态度。人工智能是一种非凡的工具。但是,与其他技术一样,它也可以成为一种强大的武器,世界各地也会有一些人寻求以这种方式使用它。但我们应该从网络战线和乌克兰战争的最后一年半中振作起来。我们发现,当公共和私营部门合作,当志同道合的盟友走到一起,当我们开发技术并将其用作盾牌时,它比地球上任何一把剑都更强大。

现在需要开展重要工作,利用人工智能保护民主和基本权利,提供广泛的人工智能技能,促进包容性增长,并利用人工智能的力量促进地球的可持续性需求。也许最重要的是,一波新的人工智能技术为大胆思考和行动提供了机会。在每一个领域,成功的关键将是制定具体的举措,并将政府、受人尊敬的公司和充满活力的非政府组织聚集在一起推动这些举措。我们在这份报告中提出了一些初步想法,我们期待着在未来的几个月和几年里做得更多。

管理微软内部的人工智能

最终,每个创建或使用先进人工智能系统的组织都需要开发和实施自己的治理系统。本文的第二节描述了微软内部的人工智能治理系统——我们从哪里开始,我们今天在哪里,以及我们如何走向未来。

正如本节所认识到的,为新技术开发新的治理体系本身就是一段旅程。十年前,这个领域还几乎不存在。如今,微软有近350名员工专门从事it工作,我们正在下一财年进行投资,以进一步发展这一业务。

如本节所述,在过去的六年里,我们在微软建立了一个更全面的人工智能治理结构和系统。我们并不是从头开始,而是借鉴了保护网络安全、隐私和数字安全的最佳实践。这都是公司全面企业风险管理(ERM)系统的一部分,该系统已成为当今世界企业和许多其他组织管理的关键部分。

谈到人工智能,我们首先制定了伦理原则,然后必须将其转化为更具体的企业政策。我们现在使用的是公司标准的第2版,它体现了这些原则,并为我们的工程团队定义了更精确的实践。我们通过不断快速成熟的培训、工具和测试系统实施了该标准。这得到了其他治理过程的支持,这些过程包括监控、审计和法规遵从性措施。

就像生活中的一切一样,一个人从经验中学习。谈到人工智能治理,我们最重要的一些学习来自于审查特定敏感人工智能用例所需的详细工作。2019年,我们建立了一个敏感用途审查计划,对我们最敏感和最新颖的人工智能用例进行严格、专业的审查,从而提供量身定制的指导。从那时起,我们已经完成了大约600个敏感的用例评审。这项活动的步伐已经加快,与人工智能的进步步伐相匹配,在11个月内进行了近150次此类审查。

所有这些都建立在我们已经做的工作的基础上,并将继续通过公司文化推动负责任的人工智能。这意味着雇佣新的多样化人才来发展我们负责任的人工智能生态系统,并投资于我们在微软已经拥有的人才,以发展技能,并使他们能够广泛思考人工智能系统对个人和社会的潜在影响。这也意味着,与过去相比,技术前沿更需要一种多学科的方法,将优秀的工程师与来自文科的才华横溢的专业人士相结合。

本文提供的所有这些都是本着我们正在为人工智能打造一个负责任的未来的集体旅程的精神。我们都可以互相学习。无论我们今天认为事情有多好,我们都需要不断变得更好。

随着技术变革的加速,负责任地管理人工智能的工作必须跟上步伐。只要做出正确的承诺和投资,我们相信它可以做到。

原文地址
https://blogs.microsoft.com/on-the-issues/2023/05/25/how-do-we-best-govern-ai/
本文地址
Article

微信

知识星球

微信公众号

视频号