SWAG

你的位置:国内试镜 > SWAG > 【DMM-114】BEAUTY MODELS SEX BEST 深度理会:谷歌、微软等AI巨头得意的“自发监管”作念到了吗?

【DMM-114】BEAUTY MODELS SEX BEST 深度理会:谷歌、微软等AI巨头得意的“自发监管”作念到了吗?

发布日期:2024-07-28 00:18    点击次数:159

【DMM-114】BEAUTY MODELS SEX BEST 深度理会:谷歌、微软等AI巨头得意的“自发监管”作念到了吗?

一年之前,包括亚马逊、微软、谷歌、Meta、OpenAI、Anthropic 和 Inflection 在内的七家东谈主工智能公司与白宫就如因何安全果真的形势开发东谈主工智能达成了八项自发得意。

这些得意包括进步对东谈主工智能系统的测试和透明度,并分享关系潜在危害和风险的信息等。

在自发得意书签署一周年之际,《麻省理工科技辩驳》向签署得意的东谈主工智能公司盘问了到目下为止的一些责任细节。他们的回话标明,科技行业获取了一些可喜的进展,但也存在一些要紧的警告。

这些自发得意是在生成式东谈主工智能狂热“可能达到最泡沫”之际作念出的,各家公司皆在竞相推出我方的模子,并使其比竞争敌手的模子更大、更好。与此同期,咱们也开动看到围绕版权和深度伪造等问题的争论。Geoffrey Hinton 等有影响力的科技东谈主士组成的游说团也建议了东谈主工智能可能会对东谈主类组成生计风险的担忧。瞬息之间,每个东谈主皆开动议论确保东谈主工智能安全的进攻需要,各地监管机构皆濒临着务必要选择行径的压力。

直到最近,东谈主工智能的发展一直像是“狂野的西部”。传统上,好意思国向来不肯监管其科技巨头,而是依靠它们自我监管。自发得意便是一个很好的例子:这是好意思国针对东谈主工智能领域的一些限定性限定,但仍然是自发的,无法强制实施。白宫随后发布了一项行政命令,该命令对这些得意进行了彭胀,并适用于其他科技公司和政府部门。

“一年畴昔了,咱们看到一些公司对我方的家具选择了一些好的作念法,但在清雅治理或保护基本权力方面,他们还远远莫得达到咱们需要的进度。”东谈主工智能与数字政策中心总裁兼研究总监 Merve Hickok 示意。她把柄《麻省理工科技辩驳》的条目审查了这些公司的回话。“其中,许多公司仍在延续对其家具宣扬未经阐明的说法,举例宣称它们可以超过东谈主类的智商和才调。”她补充谈。

这些科技公司的回话中出现的一个趋势是,公司正在选择更多递次寻求时期上的管制观念,举例红蓝抵拒(东谈主类探究东谈主工智能模子的弱势)和为东谈主工智能生成内容添加水印。

斯坦福大学基础模子研究中心庄重东谈主 Rishi Bommasani 示意,目下尚不明晰这些得意发生了哪些变化,也不明晰这些公司是否会实施这些递次。他同期也为《麻省理工科技辩驳》审查了这些回话。

对于东谈主工智能领域来说,一年是很长的一段时辰。自从签署自发得意以来,Inflection AI 首创东谈主 Mustafa Suleyman 已离开该公司并加入微软指导东谈主工智能关系责任。Inflection 隔断置评。

白宫发言东谈主 Robyn Patterson 示意:“咱们对最初企业在履行行政命令条目除外的自发得意方面获取的进展示意感谢。关联词,总统仍在延续敕令国知道过两党对于东谈主工智能的立法。”

加州大学伯克利分校 CITRIS 政策实验室主任 Brandie Nonnecke 示意,若是莫得全面的联邦立法,好意思国当今所能作念的事情便是条目公司履行这些自发得意。

但需要记取的是,“这些公司基本上是在为他们所继承的磨砺而学习。”Brandie Nonnecke 说,“是以咱们必须仔细看他们是否真的在以信得过严谨的形势考证我方。”

以下是咱们对这些东谈主工智能公司在畴昔一年获取进展的评估。

1

Commitment 1.

The companies commit to internal and external security testing of their AI systems before their release. This testing, which will be carried out in part by independent experts, guards against some of the most significant sources of AI risks, such as biosecurity and cybersecurity, as well as its broader societal effects.

得意 1

在发布东谈主工智能系统之前对其进行里面和外部安全测试。这项测试的一部分将由颓唐巨匠实施,旨在看重一些最关键的东谈主工智能风险开首,举例生物安全、荟萃安全以及更平庸的社会影响。

统统公司(不包括 Inflection,该公司取舍不予置评)均示意,他们进行了红蓝抵拒,让里面和外部测试东谈主员探究其模子的弱势和风险。OpenAI 示意,其有一个颓唐的准备团队,庄重测试荟萃安全、化学、生物、辐射性和核阻扰的模子,以及复杂的东谈主工智能模子可以作念或劝服一个东谈主作念可能导致伤害的事情等。Anthropic 和 OpenAI 还示意,在推出新模子之前,他们会与外部巨匠一谈开展这些测试。举例,Anthropic 为了推出其最新模子 Claude 3.5,该公司与英国东谈主工智能安全研究所的巨匠进行了预部署测试,Anthropic 还允许非牟利性研究机构 METR 对 Claude 3.5 的自动驾驶功能进行了“初步探索”。谷歌示意,它还对其模子 Gemini 进行里面红蓝抵拒,以测试选举关系内容、社会风险和国度安全问题的范围。微软示意,它已与 NewsGuard(一家促进新闻诚信的组织)的第三方评估东谈主员协调,评估风险并松开微软文本转图像器用中铺张深度伪造的风险。Meta 示意,除了红蓝抵拒,它还评估了其最新模子 Llama 3,以了解其在兵器、荟萃膺惩和儿童克扣等一系列风险领域的发扬。

“在测试方面,只是评释公司正在选择行径是不够的。”Rishi Bommasani 示意。举例,亚马逊和 Anthropic 示意,他们已与非牟利组织 Thorn 结合支吾东谈主工智能对儿童安全酿成的风险。他但愿了解关系公司正在实施的干扰递次如何信得过镌汰这些风险的更多细节。

“咱们应该明晰地刚毅到,不单是是公司正在作念事情,而且这些事情正在产生预期的后果。”Rishi Bommasani 说。

第四色最新主页

扫尾

很好。鼓励红蓝抵拒和测试各式风险是一项关键责任。关联词,Merve Hickok 但愿看到颓唐研究东谈主员大约更平庸地搏斗公司的模子。

2

Commitment 2.

The companies commit to sharing information across the industry and with governments, civil society, and academia on managing AI risks. This includes best practices for safety, information on attempts to circumvent safeguards, and technical collaboration.

得意 2

与行业和政府、民间社会和学术界分享关系管制东谈主工智能风险的信息。这包括最好安全实践、关系试图回避保险递次的信息以实时期协调等。

在签署自发得意后,谷歌、微软、Anthropic 和 OpenAI 共同成立了“前沿模子论坛”,这是一个非牟利组织,旨在促进关系东谈主工智能安全和包袱的筹商和行径。其后,亚马逊和 Meta 也加入其中。

Rishi Bommasani 示意,与东谈主工智能公司自行资助的非牟利组织协调可能不稳健自发得意的精神。在他看来,前沿模子论坛可能是这些公司相互协调并传递安全信息的一种形势,毕竟这些公司动作竞争敌手时常难以作念到这少量。

“即使他们不会对公众深入信息,你可能但愿他们至少大约集体找出镌汰风险的花式。”Rishi Bommasani 说。

统统七个签署方亦然好意思国国度法式与时期研究所(NIST)设立的东谈主工智能安全研究所定约(AISIC)的成员,该定约为东谈主工智能政策和东谈主工智能性能评估制定指南和法式,它是一个由群众和私营部门参与者组成的大型财团。谷歌、微软和 OpenAI 在结合国东谈主工智能高等参谋小组中也设有代表。

许多公司还强调了它们与学术界的研究协调。举例,谷歌是 MLCommons 的一部分,在这里它与学者们一谈开展跨行业 AI 安全基准研究。谷歌还示意,它积极向好意思国国度科学基金会的国度东谈主工智能研究资源试点名堂等名堂孝敬蓄意信用等器用和资源,该试点名堂旨在使好意思国的东谈主工智能研究民主化。

许多公司还为“Partnership on AI”作念出了孝敬,该组织是亚马逊、谷歌、微软、Facebook、DeepMind 和 IBM 共同创立的另一个非牟利组织,庄重基础模子的部署。

扫尾

仍然需要作念更多责任。跟着行业共同勤勉使东谈主工智能系统安全可靠,更多地分享信息无疑是朝着正确方针迈出的关键一步。关联词,目下尚不明晰仍是书记的勤勉践诺上会导致多大的特意旨的变化,以及有若干只是作念名义功夫。

3

Commitment 3.

The companies commit to investing in cybersecurity and insider threat safeguards to protect proprietary and unreleased model weights. These model weights are the most essential part of an AI system, and the companies agree that it is vital that the model weights be released only when intended and when security risks are considered.

得意 3

投资荟萃安全和里面阻扰防护递次,以保护专有和未发布的模子权重。这些模子权重是东谈主工智能系统最关键的部分,各家公司一致觉得,仅在特意且斟酌到安全风险时才发布模子权重,这少量至关关键。

许多公司在畴昔一年实施了新的荟萃安全递次。举例,微软推出了“安全畴昔规划”,以支吾鸿沟不休扩大的荟萃膺惩。微软示意,其模子权重经过加密处理以镌汰模子被盗的潜在风险,并在部署高度定制化的模子时应用遍及的身份考证和探听为止。

谷歌也推出了东谈主工智能荟萃驻防规划。本年 5 月,OpenAI 分享了其正在开发的六项新递次以补充其现存的荟萃安全实践,比如将加密保护彭胀到东谈主工智能硬件,它还有一个荟萃安全资助规划,让研究东谈主员大约使用其模子来构建荟萃安全驻防。

亚马逊示意,它还针对生成式 AI 独到的膺惩选择了具体递次,举例“数据投毒”和“辅导词注入”,这些膺惩可能会使用辅导来指导谈话模子忽略之前的指示和安全保护递次。

签署自发得意数天后,Anthropic 发布了关系其保护递次的详笃信息,其中包括常见的荟萃安全实践,举例为止谁有权探听模子和模子权重等,以及查验和为止第三方供应链。该公司还与颓唐评估机构协调,以评估其想象的为止递次是否闲逸荟萃安全需求。

扫尾

很好。统统公司皆示意仍是选择了独特递次来保护它们的模子,尽管对于保护东谈主工智能模子的最好花式似乎莫得达成太多共鸣。

4

Commitment 4.

The companies commit to facilitating third-party discovery and reporting of vulnerabilities in their AI systems. Some issues may persist even after an AI system is released and a robust reporting mechanism enables them to be found and fixed quickly.【DMM-114】BEAUTY MODELS SEX BEST

得意 4

促进第三方发现和评释其东谈主工智能系统中的破绽。即使东谈主工智能系统发布后,一些问题可能仍然存在,而遍及的评释机制可以使问题快速被发现并进行实时斥地。

对于履行这一得意,最受接待的形势之一是实施“破绽赏金”规划,该规划用于奖励发现东谈主工智能系统弱势的个东谈主。包括谷歌、微软、Meta、Anthropic 和 OpenAI 皆为东谈主工智能系统推出了这么的规划。亚马逊和 Anthropic 还示意仍是在其网站上设立了安全研究东谈主员可以提交破绽评释的体式。

在 Brandie Nonnecke 看来,可能需要数年时辰才能弄明晰如何作念好第三方审计。“这不仅是一个时期挑战,更是一个社会时期挑战。咱们不仅需要破钞数年的时辰才能弄明晰东谈主工智能的时期法式,而且还要弄明晰社会时期法式,这既复杂又辛苦。”她说。

Brandie Nonnecke 示意,她追忆第一批实施第三方审计的公司可能会为如何想考和管制东谈主工智能的社会时期风险竖立不好的前例。举例,审计可能会界说、评估和支吾某些风险,但会忽略其他风险。

扫尾

仍然需要作念更多责任。破绽赏金诚然是可以的形势,但这还不够全面。新的法律,举例欧盟的东谈主工智能法案,将条目科技公司进行审计,若是科技公司分享此类审计的收效案例就更好了。

5

Commitment 5.

The companies commit to developing robust technical mechanisms to ensure that users know when content is AI generated, such as a watermarking system. This action enables creativity with AI to flourish but reduces the dangers of fraud and deception.

得意 5

开发遍及的时期机制以确保用户知谈哪些内容是由东谈主工智能生成的,比如“水印系统”,这让东谈主工智能创造力繁茂发展的同期减少了诓骗和诈欺的风险。

许多公司仍是为东谈主工智能生成的内容构建了水印系统,举例,谷歌推出了针对 Gemini 生成的图像、音频、文本和视频的水印器用 SynthID。Meta 开发了一个名为“Stable Signature”的图像水印器用,以及名为“AudioSeal”的语音水印器用。亚马逊当今为其 Titan 图像生成模子生成的图像添加了“隐形水印”。OpenAI 在其自定制语音模子 Voice Engine 中使用了水印,并为 DALL-E 3 生成的图像构建了一个图像检测分类器。Anthropic 是独逐个家尚未构建水印器用的公司,因为水印主要用于图像,该公司的 Claude 模子不支撑图像。

除 Inflection、Anthropic 和 Meta 除外的统统公司亦然“内容开首和真实性定约”(C2PA)的成员,这是一个行业定约,其将关系内容创建时辰以及内容是由东谈主工智能照旧东谈主类创建或剪辑的信息镶嵌到图像元数据中。微软和 OpenAl 自动在使用 DALL-E 3 创建的图像和使用 Sora 创建的视频上附加了 C2PA 的开首元数据。虽然 Meta 不是该定约成员,但它书记正在使用 C2PA 法式来识别其平台上东谈主工智能生成的图像。

“签署自发得意的六家公司当然倾向于取舍时期花式来管制风险,而水印系统尤其如斯。”Rishi Bommasani 说。

“问题在于,‘时期管制决议’是否能获取特意旨的进展并管制潜在的社会问题,恰是这些问题促使咱们想知谈内容是否是机器生成的?”他补充谈。

扫尾

很好。总体而言,这是一个饱读吹东谈主心的扫尾,虽然水印系统仍处于实验阶段而且仍然弗成靠,但看到围绕它的研究以及对 C2PA 法式的得意仍然是件善事。这总比莫得好,尤其是在劳苦的选举年。

6

Commitment 6.

The companies commit to publicly reporting their AI systems’ capabilities, limitations, and areas of appropriate and inappropriate use. This report will cover both security risks and societal risks, such as the effects on fairness and bias.

得意 6

公开评释其东谈主工智能系统的功能、局限性以及适合使用的领域。该评释将涵盖安全风险和社会风险,比如对自制性和偏见的影响。

白宫的得意给解读留住了很大的余步,举例,唯独公司朝着这个方针选择行径,它们就可以在时期上闲逸这种公开深入的条目,而透明度水平可以有很大的相反。

在这里,科技公司提供的最常见的管制决议是所谓的“模子卡”。虽然每家公司对它们的名称略有不同,但本色上它们充任东谈主工智能模子的一种家具描述。它们可以涵盖从模子的才和洽局限性(包括如何臆想自制性和可解释性基准)到真实性、稳健性、治理、隐秘和安全等方方面面。Anthropic 示意,其还会测试模子是否存在以后可能会出现的潜在安全问题。

微软发布了一份年度《负包袱的东谈主工智能透明度评释》,该评释深入先容了该公司如何构建使用生成式东谈主工智能的应用样式、制定决策以及监督这些应用样式的部署。微软还示意,在其家具中明确指出了东谈主工智能在哪里以及如何使用。

扫尾

仍然需要作念更多责任。Merve Hickok 示意,进步治理结构透明度以及公司之间的财务关系将是统统公司需要纠正的一个领域,她还但愿看到公司在数据开首、模子教悔历程、安全事件和动力使用方面愈加公开。

7

Commitment 7.

The companies commit to prioritizing research on the societal risks that AI systems can pose, including on avoiding harmful bias and discrimination, and protecting privacy. The track record of AI shows the insidiousness and prevalence of these dangers, and the companies commit to rolling out AI that mitigates them.

得意 7

优先研究东谈主工智能系统可能带来的社会风险,包括幸免无益的偏见、敌对,以及隐秘保护。东谈主工智能的追踪记载暴露了这些危境的潜伏性和普遍性,这些公司得意推出东谈主工智能来松开这些危境。

科技公司一直忙于安全研究,并将研究扫尾融入到其家具中。亚马逊为“Amazon Bedrock”构建了“护栏”,可以检测幻觉,还可以应用安全、隐秘和真实性保护。Anthropic 示意,该公司遴聘了一支专注于研究社会风险和隐秘的研究团队,在畴昔的一年里,该公司推出了对于诈欺、逃狱、减少敌对策略以及模子蜕变本身代码或进行劝服等新兴才调的研究。OpenAI 示意,其仍是教悔了其模子以幸免产生“仇恨性内容”,并隔断生构归咎或顶点主义内容,它还教悔了 GPT-4V 来隔断需要把柄刻板印象走动答的许多肯求。谷歌 DeepMind 还发布了评估危境才调的研究评释,并针对生成式东谈主工智能的铺张进行了研究。

统统公司皆在这一领域的研究方面干涉了普遍资金。举例,谷歌仍是投资了数百万好意思元创建了一个新的东谈主工智能安全基金,通过前沿模子论坛促进该领域的研究。微软示意仍是得意提供 2000 万好意思元的资金通过国度东谈主工智能研究资源来研究社会风险,并启动了一个东谈主工智能模子研究加快器名堂,即“加快基础模子研究”规划,该公司还遴聘了 24 名专注于东谈主工智能和社会学的研究东谈主员。

扫尾

相配好。这是一个很容易竣事的得意,因为签署者皆是宇宙上一些最大、最蚀本的企业东谈主工智能研究实验室。虽然对如何确保东谈主工智能系统安全进行更多研究是值得细目的一步,但品评东谈主士指出,对安全研究的关爱会占用东谈主工智能研究的扫视力和资源,而东谈主工智能研究则侧重于更平直的危害,比如敌对和偏见。

8

Commitment 8.

The companies commit to develop and deploy advanced AI systems to help address society’s greatest challenges. From cancer prevention to mitigating climate change to so much in between, AI—if properly managed—can contribute enormously to the prosperity, equality, and security of all.

得意 8

开发和部署先进的东谈主工智能系统以匡助管制社会濒临的最大挑战,从癌症贯注到缓解风景变化再到许多其他领域,若是管制适合,东谈主工智能可以极地面促进东谈主类的茂盛、对等和安全。

自从作念出这一得意以来,科技公司一直在管制各式各类的问题。举例,辉瑞公司在荟萃关总共据后使用 Claude 来评估癌症调整研究的趋势,而好意思国生物制药公司祯祥德则使用亚马逊荟萃工作的生成式 AI 对临床研究进行可行性评估并对数据集进行分析。

谷歌 DeepMind 在推出可以匡助科学家的东谈主工智能器用方面有着清雅的记载,举例,AlphaFold 3 可以展望险些统统人命分子的结构和相互作用。AlphaGeometry 管制几何问题的水平可以与优秀的高中生相失色。GraphCast 是一个大约进行中期天气预告的东谈主工智能模子。与此同期,微软控制卫星图像和东谈主工智能来改善对夏威夷毛伊岛野火的反馈,并画图易受风景影响的东谈主口舆图,这有助于研究东谈主员揭露食粮不安全、被动侨民和疾病等风险。

与此同期,OpenAI 书记了对多个研究项规划协和洽资助,举例说明注解责任者和科学家如安在实验室环境中安全使用多模态东谈主工智能模子的名堂。该公司还为匡助研究东谈主员在其平台上开发清洁动力“编程马拉松”提供资助。

扫尾

相配好。使用东谈主工智能促进科学发现或展望天气等领域的一些责任确乎令东谈主兴盛。东谈主工智能公司尚未使用东谈主工智能来贯注癌症,毕竟这是一个特殊高的门槛。

总的来说,东谈主工智能的构建形势发生了一些积极的变化,举例红蓝抵拒、水印系统,以及行业间分享最好实践的新形势。关联词,这些只是为了管制东谈主工智能危害这一败落的社会时期问题而找到的一些高明的时期管制决议,还有许多责任要作念。时隔一年,得意中仍过分强调一种特殊的东谈主工智能安全类型,这种安全侧重于“假定的风险”,比如生物兵器,却全皆莫得提到消费者保护、深度伪造、数据和版权,以及东谈主工智能的环境萍踪,这些遗漏在今天看来口舌常奇怪的。

原文畅达:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/

>End

>>>

本文转载自“麻省理工科技辩驳APP”,原标题《深度理会:谷歌、微软等AI巨头得意的“自发监管”作念到了吗?》。

为分享前沿资讯及有价值的不雅点,天际与荟萃微信公众号转载此文,并经过剪辑。

未按照范例转载及援用者,咱们保留追究相应包袱的权力

部分图片难以找到原始出处,故文中未加以标注,如若骚扰了您的权益,请第一时辰筹商咱们。

HISTORY/往期推选

交易火箭,想说爱你退却易——(一)半途夭殇的交易火箭起步之旅

交易火箭,想说爱你退却易——(二)难以复制的SpaceX

交易火箭,想说爱你退却易——(三)中邦交易火箭畴昔之路如何走?

>>>

充满情怀的新时间,

充满挑战的新河山,

与踔厉激越的引颈者,

平地风雷的企业家,

一谈开拓,

一谈体验,

一谈感悟,

共同打造更真品性,

共同竣事更高价值,

共同见证交易航天更大的最初!

——《天际与荟萃》,不雅察,记载,传播,引颈。

>>>

·《卫星与荟萃》剪辑委员会

高等参谋人:王国玉、刘程、童旭东、相振华、王志义、杨烈

·《卫星与荟萃》首创东谈主:刘雨菲

·《卫星与荟萃》副社长:王俊峰

·微信公众号(ID:satnetdy)团队

剪辑:艳玲、哈玫,周泳、邱莉、黄榕、娜娜

主条记者:李刚、魏兴、张雪松、霍剑、乐瑜、稻子、赵栋

规划部:杨艳、若㼆、李真子

视觉总监:董泞

专科影相:冯小京、宋伟

想象部:顾锰、潘希峎、杨小明

行政部:姜河、林紫

业务部:王锦熙、瑾怡

原创著作转载授权、转载著作侵权、投稿等事宜,请加微信:15910858067

商务协调;展览展厅想象、企业VI/CI及室内想象、企业文化建设及品牌推论;企业口碑传播及合座营销传播等,请加微信:13811260603

杂志订阅,请加微信:wangxiaoyu9960

·卫星与荟萃各分部:

成皆分部庄重东谈主:沈淮

长沙分部庄重东谈主:宾鸿浦

西老实部庄重东谈主:郭朝日

青岛分部庄重东谈主:江伟

·卫星与荟萃总部庄重东谈主:农燕

·会议活动部庄重东谈主:乔颢益、许克新、董今福

· 投融资及计策层面协调:刘雨菲

·本平台签约想象公司:一画开天(北京)文化创意想象有限公司

·航天加(深圳)股权投资基金管制庄重东谈主:杨艳【DMM-114】BEAUTY MODELS SEX BEST

谷歌and模子东谈主工智能微软发布于:北京市声明:该文不雅点仅代表作家本东谈主,搜狐号系信息发布平台,搜狐仅提供信息存储空间工作。