特别策划 | 欧盟《人工智能法案》生效一年:我们和它的起草者一起回顾了其中的遗憾和挑战
2025年8月,全球第一部人工智能法案正式生效已经满一年。这部曾被寄予厚望、号称要在全球范围内引发"布鲁塞尔效应"的法律,如今却面临着前所未有的质疑和挑战。
近月来,45家欧洲顶级企业联名要求暂停执行,Meta等科技巨头拒绝签署配套的行为准则。这一年来,AI法案需要完成的工作清单令人眼花缭乱:《通用人工智能行为准则》(General-Purpose AI Code of Practice)于2025年7月正式发布,这份由近1000名利益相关方参与制定的非强制性指导文件分为透明度、版权和安全保障三个章节;欧盟委员会在7月还发布了《通用AI模型提供商义务范围指南》和《通用AI模型训练内容公开摘要模板》;而法案本身也在分阶段生效——禁令条款已于2025年2月2日生效,通用AI模型的义务从8月2日开始适用,高风险AI系统的完整要求要到2026年8月2日才全面生效。
就在2025年2月10-11日的巴黎AI行动峰会上,面对美国副总统JD Vance宣布的5000亿美元"星门项目"(Stargate Project)的直接挑战,欧盟委员会主席冯德莱恩针锋相对地宣布了2000亿欧元的"InvestAI"计划,其中200亿欧元专门用于建设AI"千兆工厂"(AI Gigafactories)。随后在4月9日,欧盟委员会又正式通过了《AI大陆行动计划》(AI Continent Action Plan),试图将欧洲创造为AI领域的全球领导者。
然而,这些数字背后的现实更加残酷:欧洲面临严重的基础设施瓶颈,法兰克福、伦敦、阿姆斯特丹、巴黎这四大数据中心市场的空置率仅为10.6%,远无法满足AI发展每年20%的增长需求。而就在欧盟大力投资AI基础设施的同时,中国的DeepSeek却用相对较少的算力资源实现了突破性进展,这直接了欧美AI界基于算力门槛的监管逻辑。
在这个关键节点,我们在上海与AI法案的首席起草人Gabriele Mazzini进行了一场深度对话。这位曾在欧盟委员会认知的立法专家以罕见的坦率,为我们揭开了这部法案背后的复杂真相——从匆忙立法的时间压力,到政治雄心与技术现实的错配,再到欧盟在全球科技竞争中的位置。
(如果你想听音频,可以浏览网站中“我们的播客”频道,找到音频连接。
独家对话欧盟AI法案主起草人Gabriele Mazzini:在不确定中,我宁可说 “没有法律更好”
时长: 1小时15分钟7秒
嘉宾: Gabriele Mazzini
主播: Zhuoran、Neal 牛牧江曲
关于世界人工智能大会的体验
Zhuoran: Mazzini先生,很高兴你今天能加入我们。你刚刚其实结束了你所有WAIC的行程,感觉这一次怎么样?
Mazzini: 这次真的挺有趣的,其实这是我第三次来上海了,虽然说实话,我每次来都没能真正逛一逛这座城市,因为总是被会议各种行程排得满满当当,但这次感觉还是挺不一样的。因为这次的活动把行业领袖,政府官员还有政策制定者和学者全都聚在了一起。我觉得这种组合特别有意思。平时我们的工作就是把各种不同的观点放在一起对话,而这种跨界交流真的太重要了,所以我很高兴这次有这么多学术界的人也参与进来。
因为我参加过很多行业活动,像这种大型会议,其实不是所有都会像这样能真正包容不同声音的,也不是所有场合都能看到学界、政府和企业一起探讨具体问题,这种场景真的很难得。
Zhuoran: 我希望我不会太冒昧。昨天我其实注意到你在论坛上一直在记很多笔记,你介意和我们分享一下你写了些什么吗?
Neal: 他今天也把笔记带来了。
Mazzini:哈哈是的。 我总是拿着本子在记笔记,是因为我记性很差。主要是我对很多演讲内容真的挺感兴趣的,尤其是那些更偏技术层面的内容。就我自己来说,治理是我比较熟悉比较擅长的领域,虽然也总有新的内容要学,特别是在不同国家、不同法律环境下,但每次听到跟实际技术应用相关的内容,我就会特别想深入了解。因为说实话,很多时候我们谈AI治理的时候,其实是从一个很高的角度在看问题是自上而下的,但如果你不了解技术本身到底是怎么实现的,那治理就容易脱节,尤其是有些所谓投机性风险的使用场景。表面上听得吓人,但你要真的理解底层在做什么,才能判断它是不是构成真正的风险。所以每当我碰到讲者能用具体案例把事情讲得很清楚、很有逻辑,我就会特别认真地记下来,我觉得这种内容很有价值。
关于AI法案的实施现状与预期
Zhuoran: 我们还有很多时间来深入地研究这些问题。昨天我听了你在论坛上的演讲,你谈到了AI act现在所面临的很多风险,也罗列了很多挑战啊。那么作为现在世界上第一部人工智能法案,从你个人的角度来看,你认为它目前的实施情况和你的预期一致吗?
Mazzini: 这是个很大的问题,因为这部法律本身就已经与我的预期不太一致了,而实施只能沿着法律设定的方向推进。制定法律时相当于是在奠定一项制度的基础,实施则是在这个基础上盖房子。你在搭建结构、设计架构,整个方向已经定了,就不能轻易改变了。法律规定了地基和框架,实施阶段你或许可以调整一些家具换颜色这类细节,但整体方向已经无法更动了。而且从定义上讲,实施本身也无法替代立法的功能,它是有限制的,在某些情况下,实施手段甚至没有法律约束力,比如参考指南、行业标准这些都不是强制性的。
所以这也是为什么我觉得通过实施来解决问题这个说法有点令人遗憾,它隐含着一种假设,好像只要执行得好就可以修补立法上的问题,但现实是根本做不到。也许在某些细节上能稍微调整方向,但既不容易,也无法提供真正的法律确定性,就像通用型人工智能的规定,目前在法律文本层面就存在很大的不确定性,这种情况下靠实施也不能带来确定性。当然我们看到欧盟委员会确实投入了很多资源推进这件事,比如你也在持续关注的发布进展,一份又一份的实施指引,还有实践守则。但我很好奇企业对这些措施到底会作何反应。
关于AI办公室和AI委员会的设立
Neal: 我注意到你每次分享相关经验的时候,都会向大家介绍欧盟的立法流程,包括欧盟议会到委员会,再到欧盟理事会。但最近我们看到欧盟好像又成立了一些新的机构,比如AI office和AI board,你能给我们介绍一下它们的职能吗?
Mazzini: 我不会把它们称作组织,它们更像是结构或机构单元。它们不像欧盟体系中的几个主要机构委员会、议会和理事会,这些都是根据欧盟条约赋予独立权力的机构彼此分立,而AI办公室和AI委员会则是人工智能法案中新设立的一种下属机构或附属结构,本质上是从属的。
实际上所谓的AI办公室就是欧洲委员会本身。因此,我认为法律中的一个错误在于,它错误地将某些职能赋予了一个实际上只是委员会下属部门的机构。如果你去看数字服务法案DSA或数字市场法案DMA,你就会发现一般不会这么做。在这些法律中,欧洲委员会被赋予了执法权。但通常而言,新出台的法律应该由成员国来行使执法权,因为整个体系是去中心化的。在绝大多数情况下,委员会是没有直接执法权的,只有在反垄断和贸易法领域才是特例,一直如此。而在数字监管产品立法基本权利立法中,从来没有委员会直接执法的先例。
但现在,无论是数字服务法案、数字市场法案还是人工智能法案,都开始将这种执法权赋予了欧洲委员会,但真正拥有执法权的是欧洲委员会,而不是AI办公室。所谓AI办公室只是委员会内一个总司下属的部门而已。所以这在我看来有些装饰性强于实质。议会曾在其意见中表达希望建立一个AI机构,并把这个概念称作AI办公室,但真正的AI机构需要具备独立法人地位的制度安排,而这并不是人工智能法案中设定的那种执法架构,所以我认为这在实际执行中造成了混乱。你会看到在AI法案中,有时是欧洲委员会拥有某些权利,有时又说是AI办公室负责,但其实这些是同一批人。而所谓的AI董事会实际上是我们当初提案中的一部分,它本质上只是一个咨询性小组,没有法律地位。
成员由各成员国代表组成,职责是向委员会提供建议。在法律实施过程中,这种情况其实非常常见。成员国会派代表到布鲁塞尔,就各自的执法实践向欧盟提供建议,这是很常见的做法。在人工智能法案中,这样的机构被称为AI董事会,在其他立法中也有类似的机构,比如在医疗器械方面,就叫做医疗器械工作组。
关于AI法案的起草过程
Neal: 能否请你大致介绍一下,像AI act这样的法案通常是如何被起草出来的?比如一般会有多少人参与其中?还比如参与制定的专家们之间是否也经常会存在激烈的分歧或者辩论呢?
Mazzini: 这其实很取决于具体情况,但一般来说,只要涉及到欧盟委员会,立法过程通常都是非常漫长的。欧盟委员会是法律的起草发起方,像我这样的人就会被委托去负责某项法律的起草工作。通常在委员会这边真正动笔写法律的人并不多,可能就一两个,这要看具体情况的,但一般来说,一项法律会交由一两个人负责完成,在起草AI法案的时候也是这样的,基本上我是首席起草人,还有另外两位同事一起参与。
但在我看来,这其实是有些低估了工作量,现在我一时找不到准确的词来表达。但整体上,人工智能法案绝不是一部简单的法律,尤其是因为它是横向立法的,就是说它涉及许多不同的领域和监管对象。所以如果考虑到我们只有这么短的时间,以及这么有限的资源。
我真的觉得我和我的同事们是完成了一项几乎不可能的任务。这几乎就是一个奇迹。但在那之后,一旦委员会的提案出台,他就会进入理事会阶段进行讨论。每个成员国在理事会中都有一位代表,这位代表不会只关注某一项具体法律,而是负责该领域。比如你是电信领域,那这里面所有的相关立法都是这个人负责之后。
会把每一份草案都发回本国的首都,比如意大利的代表就会发回罗马,德国代表发回柏林。因此布鲁塞尔与各国首都之间会有频繁的信息往返,也不停地收集到很多的反馈,收集来的意见会在理事会内部进一步讨论,最终形成一个统一的理事会的立场,然后提交给议会。议会的结构又略有不同,确实比较复杂。每一项法案草案都会被分配到一个议会委员会,由它来处理,而这些委员会的构成基本上反映了整个议会的政治结构。议会中有多个党团,而每个党团会根据自己的席位比例和投票权来分配具体的法案任务。像人工智能法案就被分配给了两个委员会,一个是公民自由委员会,一个是内部市场委员会。每个委员会都指定了一名主报告员,此外,议会还设有所谓的影子报告员。
这些人来自其他党派,但也会参与审阅法案并表达意见,所以可以说在议会中这种运作方式本身是很常见的,但不常见的是一个法案被分配给两个委员会,有两个报告员共同负责,毕竟通常情况下只会有一个,这也导致了相当大的混乱。由于涉及的人太多,对我来说这可能反而没有那么有帮助。
所以你如果去看议会提出的立场文件,有时候会感到非常难以理解。因为各党团之间存在很多的政治分歧以及紧张的关系,有时候这边说一句话,另一边又说的是完全相反的立场。从我个人角度来看,议会版本的草案的质量其实并不高,但最终就会来到这个阶段。
你有了委员会的提案,理事会的立场,议会的立场,这三者构成了一部法律的最终文本,而真正的立法谈判就是在后两者,也就是议会和理事会的文本基础上达成一致。因为欧盟委员会并不是最终的决策者,委员会的角色是提出提案,但真正的决策权在理事会和议会手里,所以他们就会开始协商。比如说我在第一条中写了这个,你在第一条中写的是那个,那你能不能在第一条中退让一下呢?我可以在第二条里给出让步。当然实际过程比这复杂得多,但基本的谈判逻辑就是这样,如果两个文本差异非常大,谈判就会变得很复杂。如果这时候你还希望尽快结束谈判,那就更难了。
关于AI办公室筹备的困难
Zhuoran: 我可以想象真的是非常复杂的一个过程,所以这就是AI office现在还没有筹备好的原因吗?因为很多人现在会认为欧盟去找到合适的人组建这个office并不容易,尤其是要找到合适的人工智能科学家。据你所知,真正还没有筹备好的原因是?
Mazzini: 我不太清楚为什么。谈论前同事总是有些敏感的,因为如果我当时继续留在欧盟委员会,我现在就会是AI办公室的一员呃。所以我认为如果这部法律真的如此复杂,当然它确实也如此,而你又没有预见到这种复杂性,那么最终就会变成你只能在议会和理事会的两个立场之间匆忙找一个解决方案,当时是面临很大的政治压力。因为欧盟本届立法机构的任期即将结束了,所以大家急于完成这项立法,也因为欧盟希望成为全球第一个出台AI立法的地区,所以当然确实欧盟在AI治理上是最领先的司法辖区。
但在我看来,其实并没有必要这么匆忙。如果你在原本设定的时间内达不成一个合理的共识,那其实可以等到下一届议会和委员会,就像GDPR当时那样,GDPR是跨越了两届立法机构谈成的,花了整整4年时间,而AI法案只用了3年。要知道这是一项全新的立法,尤其是在立法过程中还出现了ChatGPT技术发展极快,我们却用了更短的时间来敲定这部法律,实在是令人震惊。
相比之下,GDPR是基于已有的数据保护指令修订的,原本就有制度基础,对隐私概念也已经有共识了,它只是一个升级版,而且但即便如此也花了4年时间,所以我认为人工智能法案是推进得太快了,而这也解释了目前我们面临的一些问题,现在我们正在承受这种匆忙立法的后果,因为一旦推进太快,你就很难真正深思熟虑地写出严谨的法律条文。比如说基础模型的法律定义,它几乎没有实际的意义,难以落地,具有系统性风险的基础模型也同样难以界定。所以现在委员会试图用浮点运算量作为锚点。
但我们也知道,在DeepSeek之后,Flops变成了一个浮动的指标,没有稳定性,基本上没有什么是可以真正依赖的。这说明如果你在一个领域尚未成熟时就强行立法,等到实施阶段的时候就会面临一系列挑战。我认为委员会也许是出于善意,我并不是想批评他们,他们正在尽力展现我们有在落实。但如果你去读那些实施指南,他们并没有提供应有的清晰度。
关于AI法案起草的起点和思路
Zhuoran: 我们今天的对话之前我其实看了你非常多以前的访谈。我记得你其实说过,在你刚开始起草AI act的时候,是完全没有任何模板,没有任何参考可以借鉴的状态,那在那样的情形下,你是怎么开始这项工作的呢?就是你是如何决定从哪里开始写起的呢?
Mazzini: 我当时的出发点是我们今天对AI的监管应该是如何开展的?这是我说过的话,我昨天在论坛上可能也提到过,有点记不清了,因为这几天会议太多了。但核心的问题是我们确实有AI了,这是一种确定的新现象、新技术。但我们在欧盟已有很多现成的法律了,其中不少是技术中立的,比如GDPR监管的是个人数据的处理,而不在于是AI在处理还是软件在处理还是人来处理,这些法律是基于原则制定的。这些规则无论什么技术形态也都适用的。
所以当我开始思考AI立法时,我的第一步就是问自己欧盟现有的哪些法律可能直接或间接适用于AI?答案是相当多的。举例来说,在产品领域,我们有关于医疗器械的立法,它也适用于软件,例如作为医疗设备的软件,如诊断系统。虽然这些法规并没有明确提到AI医疗设备,但他们规范的是软件,而AI本质上就是一种软件,所以毫无疑问这些法律适用于AI。这就是我最初的切入点。
所以如果我们确实需要一部新的AI立法,当然这也是我们必须履行的一个政治授权,那问题就变成了在哪些领域我们可能需要基于AI的特性去添加一些规则,比如黑箱的问题,复杂性的问题,缺乏透明度的问题等等。这些问题可能还没有被现有法律涵盖。那这让我获得了一些灵感,从事前控制的角度来思考它呃。
首先我们已经有很多产品相关法规了,比如医疗器械机械玩具等等,这些产品中都可能会集成AI,我们可以沿用相同的监管逻辑,不仅要求这些产品中的AI组件符合规范,也要求那些独立运行的AI系统,比如推荐算法在上市前接受一定的审查,这是促使我去提出这部新立法的原因。其实这也是一个技术性的构想,因为这种立法形式可以与我们现有的产品监管框架兼容,包括适用于医疗器械等软件产品的法律。
事实上,AI法案应该被视为对这类法规的补充。但我也必须承认,由于AI法案是横向立法第一,它跨越立多个领域,这让事情变得异常复杂,尤其是在与金融服务法、劳动法、执法法规等垂直立法互动时。我们必须选择一个统一的模式,以金融服务来举个例子,它与产品立法的逻辑是完全不同的,所以我们必须非常谨慎,尽量做到最小干预。
关于ChatGPT对立法的影响
Zhuoran: 在2021年的时候人工智能法案初见雏形?在那个时候其实是没有人在想ChatGPT的问题的。ChatGPT是在2022年的年末突然在全球爆发,对吧?那个时候你的第一反应是什么呢?它有没有让你重新思考或者修改过法案的某些部分?
Mazzini: 说实话,在最初的法案草案中,我们确实考虑了生成式AI,当然还没达到ChatGPT那种程度。当时我们主要考虑的是图像模型,当然我们已经关注到GPT-2的存在了。这也是为什么在欧盟委员会的提案中,AI的定义虽然主要借鉴的是OECD的定义,我们对其进行了修改,我们在定义中增加了内容这个要素,同时也明确了它的含义。OECD在2019年对AI的定义中是仅仅将AI的输出描述为一种建议决策和预测的。而我们在AI法案中加入了内容这一项,专指生成式AI,例如文本、图像、视频、音频等等,包括深度伪造。实际上,在委员会提案的第52条中就规定了深度伪造的标注义务。
不过,确实,我们当时没有预见到大语言模型的规模会这么大,以及他们的应用方式后来是这个样子,这对我来说是最震惊的一点。另一个最让我震惊的是,我们没有预料到人们实际上可以让一个通用型AI或聊天机器人去执行高风险任务,比如说我可以让ChatGPT看10份简历,然后说请选出最适合这个职位的一份。从技术角度讲,这是筛选人,对我们来说这是高风险的应用场景,对我来说这也是最难解决的问题之一。同时顺便说一下,这个问题到现在其实依然还没有被AI解决,因为你无法把高风险应用的要求直接套用在ChatGPT这样的系统上,它行不通,所以这一直是我面临的一个核心问题,就是如何在基于风险的监管框架与这类仅生成文本或提供聊天接口的系统之间找到平衡。
Neal: 我们都知道,从最初的草案到最终通过,其实AI Act经历了一个相当漫长的过程。但我仍然很好奇,从你的视角来看,如果在这部法案起草工作开始之前,大语言模型就已经出现,甚至已经被广泛使用了,你觉得欧盟还会以这样的方式来推进这部立法吗?我的意思是,如果当时人们已经看到了大语言模型的发展如此之快,你觉得立法还会按照现在这样的节奏进行吗?
Mazzini: 很难判断,但我大概率会说会的,因为ChatGPT的出现实际上加速了AI法案的立法进程,它让人们感受到监管的迫切性。ChatGPT之后,监管AI的需求变得更紧急。我认为包括政策制定者和政界人士在内的很多人都把它当做一种警示。现在每个人都知道什么是AI了,这其中包含了强烈的政治意愿。
说我们已经有法律了,我们必须把这类技术纳入其中,我们要向公民表明我们正在保护你们,我们有能力管控它。那从这个角度看,我认为ChatGPT确实激发了公众对AI治理的更广泛的兴趣。
那关于AI监管的话,如果今天才开始起草AI法案,我认为基础模型大概会从一开始就被纳入其中。回过头看,我希望当时我们能掌握更多的信息。因为当你要监管一项如此新的技术时,首先就必须要做出选择。你愿意承担多大的风险来放手让这项技术自然发展。
不可避免的是,哪怕是在技术上被视为中立的产品立法领域,监管者也最终会思考这个问题,就是哪些公司会受到这些规则的影响。原则上立法并不是为了决定谁在市场中能胜出,谁会失败。监管不应该干预企业的市场份额,但在现实中很难不去考虑这些规则会对本土企业或者整个行业生态造成什么样的影响。
所以我想说,如果那种情境在更早的时候出现,我会希望我们能有更多的信息和数据来判断到底该如何应对,例如欧盟委员会当时并没有对基础模型进行任何影响力评估,要知道按常规走,委员会在提出任何法规前都会做影响力评估,但生成式AI和基础模型当时压根不在评估范围之内。
但即便如此,相关的规则还是被写入法案,而且还获得通过了。我认为这本身就是一个非常重大的偏离,因为通常情况下,委员会的法案提案和最终通过的法律文本之间差别不会太大,虽然有一些修改,但核心影响基本是一致的。但这次不同,在最终文本中我们看到的是完全新增的一整张内容,并且它本身还构成了一项全新的监管规定。如果你不仅仅去看AI法案中关于通用型人工智能的几个条文,还看了后续的执行指南、行为准则等配套文件,整个内容轻轻松松就超过了200页,所以,这已经不仅仅是一部法案了,而是一套完整的监管体系。
关于技术标准制定的困难
Zhuoran: 因为我觉得制定技术标准是非常困难的一件事情,技术发展太快了现在,但我很认同你曾经说过的一句话,就是你说AI法案其实并不是在监管技术本身,而是在监管技术的使用方式。
Mazzini: 我是这么认为的,哈哈哈。
Zhuoran: 说到这我觉得我们有必要去聊聊这部法律最核心的那部分就是基于风险的分类,其实从立法一开始就很多人都非常关注不可接受的风险,比如说社会评分或者情感操控,这些其实都是完全禁止的。那么从你从立法的角度来看,不可接受的风险和高风险的AI系统之间最大区别是什么?
Mazzini: 我最初关注的重点是高风险系统,就像我之前和你聊到的,AI法案体现的是一种产品立法的方法,这意味着本质上你创建的是一个事前审查体系,而不是对产品的事后审查。所以产品本身并不违法,产品只是在使用前需要获得某种认证而已,这就是符合逻辑的产品立法。当我思考这部法案时,我认为法案的主要目标它就应该是要去做到这一点,为此我们基本上是去创建了高风险这个类别,但在某个时刻,我已经有点不记得所有细节。
总之,最后,现在这种基于风险的分层方法的想法是受到了一份德国委员会报告的启发的。这个委员会是2017年由默克尔政府任命的,叫做德国伦理委员会。在这份报告中,当然这只是一份报告,他们识别了各种场景,所以他们首先提出了这样的想法,就说可能存在一些真正不可接受的技术用途,一些会产生特定风险等级、风险层次的用途等等,因此我们也认为这是在AI治理中展现模块化管理的一种好方法,所以对我来说,主要目标就是管理高风险系统。至于其他的,对我而言都无关紧要,我觉得我们不需要对他们做任何事情。
事实上,如果你看AI法案的第一版提案,你会发现关于不可接受风险只有一个条款,第5条,关于透明度义务只有一个条款。低风险是第52条,其余内容基本都是关于高风险的,除了行为准则,所以在某种程度上设立不可接受风险和低风险类别倒是后来才添加的,因为我们也觉得为其他应用制定不同类型的规则可能是个不错的想法。但问题又来了,什么是不可接受的风险啊?因为这样你就要禁止某些东西,对吧?什么又是低风险?
对于不可接受的风险,基本上这个想法就是要禁止那些非常糟糕的,基本上本来就应该被禁止的东西。所以这个想法并不是要创设全新的根本性禁令。比如说远程生物识别,这是最精细复杂的条款,因为数据保护法GDPR已经禁止了这类做法,那么AI法案实际上做的就是去协调统一这些法律。叫harmonizing,这是我们使用的术语,就是说我们应该统一在特定的一些情况下,把AI用于面部识别的条件是什么?如果没有AI法案,这些问题都将由各国的法律来归管,成员国都可以这样做,只是他们需要制定自己的法律,因为现有的执法指令或GDPR已经禁止了这种做法,所以AI法案试图在类似的条件下进行协调统一。这确实也成为了关于AI act的一个重大的讨论话题。
然后关于透明度这块,其实我们主要想强调的就是信息披露要到位,也就是那种我们说的标注义务,很多专家都提到一个很核心的点,当你在跟AI互动的时候,其实就关系到人的尊严。你不能把AI当成人类来看待,你应该清楚你面对的是一台机器,不是一个人。即便现在很多人用聊天机器人聊天甚至分享出来,但他们还是应该知道这只是个程序,不是人,这就是其中一个典型的应用场景。
第二个用例说的是对深度伪造的标注。第三个是关于情绪识别和生物特征识别的,为什么要单独提这两个?因为他们其实已经在GDPR下有管制了,所以我们当时只是强调说用户需要知道自己正暴露在一个情绪识别系统之下就行,这个条件就是你要明确同意机器可以使用你的数据来分析情绪,但问题是所有这些涉及生物特征的数据都太敏感了,后来直接被列为禁止项了。所以AI法案的最终文本对生物特征分类在某些情况下设置了禁令条款,对情感识别在某些情况下也设置了禁令条款。老实说,我认为这是个错误。
关于欧洲公司的联名抗议
Zhuoran: 到上周,超过45家欧洲公司集体呼吁委员会要至少停止这个AI act的执行两年。他们的公开信其实很大程度是针对的高风险系统,你对此怎么看?
Mazzini: 是的,他们也同时针对基础模型,他们希望这两类都能暂停执行。当然,这个请求最终并没有被接受,他们的主要原因在于我们现在还缺乏技术标准。我个人其实也支持这个请求,理由也差不多。还记得我们开头谈到的那个点吗?我说过我对一些立法选择并不满意。现在我们正处在实施阶段,这些当初的选择正在反过来影响我们这种不确定性的情况造成了某种阻碍。
这就是让公司感到恐惧的原因,为他们看到的是不明确的法律,他们看到法律有很多,高额制裁,高额罚款。因此他们害怕投资AI或开发AI,因为无法完全确保他们不会被罚款,也不知道如何合规。在这种不确定性中,我宁可说没有法律更好。
Zhuoran: 所以你是支持发展?
Mazzini: 是的,我支持暂缓执行。
Zhuoran: 我觉得很有趣,你知道吗?去年我在欧洲议会的官方网站,在他的问答部分其实读到过一封公开信,那封信说Mazzini说欧盟的AI专利数量是落后于美国和中国的,而且那封公开信还说你认为其实欧盟不应该去过度地监管,应该去促进创新,这个欧盟的监管门槛最后被设置得太高了。
Mazzini: 太高,确实太高了。
Zhuoran: 所以我对此很好奇,因为你是一位立法者啊。你也起草了这项法律,但你却支持AI的大力发展,我应该如何理解你的立场?
Mazzini: 我不反对监管AI,我反对的是糟糕的AI监管,我反对不确定的AI监管。我反对设计不周的监管,我相信其实是有很多常识性的解决方案可以考虑的。正如我所说,当你监管一项技术时,我们监管用例,对吧?但这时基于该技术的用例,你监管得越多,就越会为技术进入市场制造障碍。而现在正是技术仍在发展的时刻。如果我们说的是传统AI,那其实我们已经积累了不少好思路了。
比如人工监督,提高透明度,还有像高级别专家组之前提出的一些原则,大家其实已经在尝试各种技术路径了,比如数据卡模型卡怎样保证透明性,怎样提升稳健性之类的。所以我觉得现在这个立法阶段本来是一个可以推动这些技术方案落地的机会。所以我对AI法案最初的想法,甚至我个人的想法都没有完全反映在委员会提案中。因为委员会提案不仅仅是我的想法,当然还有其他人参与进来,包括管理层和其他部门。尽管我是执笔人,是在那样的大机构中写初稿的人,但我认为在任何政府中,我都不是唯一的决策者。
在我的初稿中,我希望只看到少数几个用例,我基本上希望把重点放在功能逻辑上,比如机器是怎么运行的监管机制怎么设计?监管机构的权限是什么?我们怎么制定技术标准?风险边界怎么划?我们如何与其他立法进行适当的协调?这些确实更多是技术性问题,是良好运转立法的基础。我希望应用范围要收窄,很少有高风险用例,因为这将使我们有机会在标准方面更快地推进,并通过实践进行学习。你可以说好,现在我确实看到你知道我们开始在金融服务行业的AI应用中遇到问题,然后你可以添加这些案例,所以我希望采用更加渐进的方法,但即使是委员会提案也是有很多用例的,这就解释了为什么现在受到影响的不仅仅是一个行业,而且大家都很困惑呃。
所以你提到的这封信是由欧盟超过60家公司签署的,我想他们来自各个行业,因为没有人知道如何应用它,因此在这种情况下,我认为考虑到地缘政治,美国正在推进应用,支持他们的公司真正进入更多新市场。中国你知道是一个不同的环境,但中国在监管上也相当谨慎,所以我们真的在面临一些风险,正如你在一个问题中提到的,我们会成为某种监管孤岛,我们为自己的公司制定了自己的规则确实,像TikTok或者说字节跳动这样的公司,如果想在欧盟销售,他们必须合规,但是他们只有在获得一定的成熟度和财务资源后才会在欧盟销售。
当然,非欧盟公司具备这些条件,因为他们已经在自己的市场开发了产品。同样的道理,我甚至不用提谷歌、微软这些大科技公司,世界上所有其他公司都可以在欧盟之外开发产品,测试产品,甚至开始盈利然后他们带着自己的实力进入欧盟市场。也有能力雇佣律师、合规的专业人员与监管机构对话并处理监管要求。
但在欧盟,大多数中小企业没有这种能力,从这个意义上说,存在扼杀欧洲AI应用和创新的风险。这就是我一年前离开欧盟委员会时说过的话,我接受了彭博社的采访,措辞很外交化,但我说的就是我认为门槛设得太高了。我们有为既有大公司创造护城河的风险。
关于监管沙箱的设计
Zhuoran: 所以你其实是支持欧盟在执行这部法律的时候,至少在时间表上能够保持灵活性。
Mazzini: 我认为这是一个好主意。
Zhuoran: 就除了执行节奏的问题,还有一件事就是在起草和通过这部法案的过程中,应该是有大量的游说发生的。尤其是欧洲和美国的一些大型的科技巨头,那么在这部法案中,是否有一些条款因为要面对这种压力而被削弱了呢?
Mazzini: 我经常会收到关于游说的这些问题,但我认为游说在欧盟并没有很好地发挥作用。结果证明了这一点,因为最终的AI法案比第一个提案监管强度更大、更严格。所以奇怪的是,我认为欧盟对大型科技公司的游说渗透性不强,我相信游说是肯定存在的,但我看不出这很有效果。真正对欧盟有影响的是非政府组织。
Zhuoran: 或者是社会民间组织?
Mazzini: 是的,民间社会组织,那些社会组织的游说更容易渗透。因为这些组织有很大影响力,他们向公众传达的信息非常强烈,所以我认为政治家们觉得如果他们做有利于商业的事情,就会偏向大型科技公司,这对他们的声誉不利。但如果他们支持民间社会组织的某些观点,那么这对他们的公众形象是有好处,所以要更多地保护基本权利,更多地保护隐私。
其实这可能并不需要,因为我们已经有了GDPR或基本权利立法。事实上,在某些情况下,问题恰恰在于规则太多了。我们不是缺少规则需要增加更多规则,而是问题是现有的规则可能没有得到应有的执行。所以我个人认为游说并没有真正推动减少监管,而是推动了更多的监管,比如生成式AI和基础模型的风险。这个例子实际上是那些宣扬AI存在生存风险的组织游说的结果,比如生命未来研究所,这些组织推动欧盟为具有系统性风险的基础模型创建了两套规则,甚至都没有真正澄清这些风险到底是什么。
这并不是来自大科技公司的游说。不过嗯,我还是得纠正一下自己部分来说,因为确实也有大科技公司的推动,这里面存在一种奇怪的结合,一些关于AI对人类构成危险的理论与这些理论围绕实际技术创造的炒作相结合,而这种技术据说只有某些特定公司才能开发,所以这些公司也从公众关注中获益。OpenAI实际上在某个时候要求更多监管,因为这样公司就可以把监管当作护城河。因为如果他们说我是唯一一个能开发这项突破性技术的公司,所以请监管我。我会告诉你怎么做的。
那么其他所有公司都会被淘汰。因为你会按照我的意愿来监管这项技术。
关于GDPR的变化和布鲁塞尔态度转变
Zhuoran: 谈到基本权利的保护,GDPR今年正在经历被简化。
Mazzini: 我知道有些变化,但它并没有真的被简化,确实有一些与执法机制相关的升级或更新。
Zhuoran: 我这样问是因为有很多媒体现在其实会下一个断言,就是布鲁塞尔的态度正在发生变化。
Mazzini: 这是真的,这是真的。
Zhuoran: 尤其是在今年的巴黎行动峰会之后。
Mazzini: 是的,这是真的,委员会已经宣布在年底推出一项综合立法,主要是为了简化中小企业的立法。但现在有讨论AI法案是否会成为这个一揽子计划的一部分,这意味着委员会确实将提出修改AI法案的新提案。但我不确定GDPR是否在那个一揽子计划中,我不知道可能会,但说实话,我预期不会有重大变化。
关于行为准则(Code of Practice)的复杂性
Zhuoran: 谈到现在欧盟的一些新的举措,我也想和你聊一聊你对最新的这份行为准则code of practice的一些判断。现在其实我们听到的最长的对它的一种解读是说它其实有一点像对人工智能法案的某种妥协,因为欧盟现在面对面临这样巨大的政治压力,它迫切需要争取一些支持,尤其是那些大型科技企业的支持,为此可能不得不做出一些让步。你同意这种解读吗?
Mazzini: 我还没有来得及详细审阅具体的内容,所以不便评论。但我可以说就像我之前提到的那样,在我看来这个议题本身并不够成熟,还不适合立法监管,所以围绕code of practice发生的一切,其实都体现出了整个制度流程中一个更深层次的问题,某些原本应由立法机构作出的关键决策他们并没有做,因为不知道该如何处理。所以现在的这个行为准则更像是一种事已至此,只能设法解决了。就是就这样一种应对方式。
但这也带来了复杂性,一方面监管机构内部缺乏真正处理这类问题的专业知识,所以只好外包给外部专家而。这些专家本身又缺乏足够的合法性来做这件事,所以结果就是他们找来了一个非常庞大的利益相关方群体,据说有多达800人参与到行为准则的起草或协助起草中去。
可你没法用800个人来写一份文件,这些人比如包括来自谷歌的一位代表,某某大学的一位代表等等。这种组合根本无法高效产出严肃的规则。所以我认为我们必须认识到,如果这些技术是由某些公司开发的,那你首先得去和他们对话。作为监管机构,你必须清楚自己在做什么,这不是说让企业自己写规则,而是监管方必须具备内部的专业能力,能够从企业那获取信息、过滤信息,有自己的判断再做出自己的决策,而不是把这些公司和其他各种组织一股脑塞进一个大组里一起来讨论。我听说有人对这种做法很不满的,因为有的人压根没接触过基础模型,他能懂什么呢?
所以一种方法就是你作为监管方,基于自己的专业判断和能力起草出一个方案,再广泛征询各方意见。另一种就是你把所有人都拉进来一起参与起草,这两者不是一回事。至于这个准则本身的优劣,我不能评论,因为我还没细读。但现在的问题在于,如果大型科技公司拒绝签署这份行为准则。
Zhuoran: Meta已经拒绝了签署。
Mazzini: 是的,Meta拒了。这对欧盟来说是个不小的政治尴尬。
因为这份准则是专门为基础模型的开发者制定的,如果这些开发者都表示不好意思,我不同意,也不会加入,那他们固然仍然可能面临法律责任,但从政治角度来看,欧盟委员会的公信力会受到冲击。所以我觉得这中间可能出现了一些问题,我不能说这只是我的猜测,就是可能会有一种倾向,就是尽可能地尝试找到一种妥协,以便他们至少可以获得某些公司的批准,这样至少这项工作看起来具有一些合法性和可信度。但这个过程本来不应该按照这种方式进行的。
关于监管沙箱的作用与局限
Zhuoran: 说到欧盟的学习经验的这个问题,我想增加一个问题,关于是监管沙箱的问题,其实最初看到AI act的这个法案的时候,我就有注意到其中有关于支持中小企业的一些条款。很多人其实过去觉得欧盟的法律,比如说像GDPR,他们其实往往最后针对的都是大型的科技公司,尤其是Amazon或者Google这样的科技巨头。但我注意到有的时候小公司或者初创企业也是可能会带来一些风险的,因为他们其实资源更有限,所以可能更没有精力去设立这种合规的团队,甚至也会在没有任何隐私政策或者是抗风险的这个条件下就去发布一些数字化的产品嗯。所以我在想,一方面小公司也可能会侵害普通人的权利,另一方面人工智能法案还是选择为小企业提供了今晚沙箱这样的创新机会。你怎么看待这个问题呢?这里面是否存在某种立法的悖论?
Mazzini: 你说的这比部分是正确。的确,在制定监管时,大家往往会过度关注大公司,而忽略了是否对小公司采取了比例原则。正如你提到的,小公司也可能带来危害,但它们造成的影响程度肯定和大型科技公司不同。而且我们必须接受一个现实,这个世界不存在零风险社会。某种意义上我们的目标之一其实是鼓励市场竞争。如果我们希望小公司能够进入市场与大公司竞争,那我们确实需要在监管上给予他们一定的灵活性,即使这意味着他们带来的风险可能略高一些,一个有风险的产品当然可能带来伤害,但比起大型公司,小公司的危害可能要小得多。
就我个人而言,我其实希望AI act能为小公司设置一些豁免条款,虽然这部法案是针对产品本身进行监管的。也就是说只要某个产品属于高风险,无论它是由谁开发的,都应该纳入监管。但现实是,如果你对一家公司和一个初创企业采取相同的监管方式,这就可能造成不公平。
所以,如果我们真心希望鼓励竞争,就必须接受一个现实,可以让小公司在初期获得一些豁免或更宽松的要求,等到他们成长为大公司,具有更大影响力时,再要求他们全面履行义务。我认为这种成长导向的豁免制度是一种更聪明的方式。但在立法过程中,很多人对此并不认同,因为确实存在一种绝对主义或意识形态型的监管观念,但是风险就是风险,关键在于不存在零风险的情况。所以设立监管沙箱的部分,初衷就是为了缓解这种困境,我们要允许那些资源有限的企业在与监管机构协作的前提下进行产品开发。
这其中当然也存在不少问题。首先是监管机构本身的能力问题,现在各国监管机关本就忙于执行已有的法规,没有太多精力来支持企业。要知道AI的支持在某些企业内部都很有限,那你可以想象在公共管理体系中就更少了。因此,要想在能力与知识都有限的前提下,真正把沙箱机制做实,是非常有挑战的事情。
其次,监管沙箱要真正发挥效力,理想状态下应该提供某种豁免机制。那作为一家企业,我为什么要去参加沙箱呢?毕竟和监管部门对话,这个过程可能既缓慢又耗时,如果无论如何我都还是必须遵守那些条条框框,那这个过程本质上就只是免费咨询或者获得一些免费的法律建议,但问题是公司往往没有时间和精力去做这些,所以在我看来,沙箱机制要有吸引力,应该允许参与企业获得一些豁免。
不只是来自AI法案,也包括比如GDPR这样的其他立法框架。因为你要打造的是一个允许实验进行的环境,一个真正的创新空间。但如果没有这样的灵活性,那些企业就很可能不会参与上线,即便参与了也会耗费大量时间。归根结底,这还是个速度的问题,你不能让企业在等待中失去创新窗口。
关于DeepSeek与计算治理的反思
Zhuoran: 嗯,我们可能正在进入这样的一个新的世界,就是越来越多的初创企业、小公司会不断地涌现。就像DeepSeek一样,它本身也不是很大,在以前其实很多欧美的学者都很喜欢计算治理这个概念。但是像DeepSeek这样的案例可能就意味着这种方法未来未必那么有效了。
Mazzini: 计算治理是一种理论,是以scaling law为前提的理论。当然这是由美国大型科技公司提出的,他们拥有大量的数据,大量的计算和大量的资金,他们可以投入的越来越多,他们可以看到模型会变得越来越好。而中国面临出口管制,没办法获取同等规模的算力资源,就被迫走向了更有创意、更具策略性的路径。
事实上,他们也确实成功了。这是我在接受彭博社采访时讲的第二个重点。DeepSeek的案例恰恰证明了这一点,基于算力来监管AI的这个想法其实早就被提出了,我个人从一开始就觉得它并没有太大的实际意义,但这个提法背后有一部分是出于AI安全的考量。
人们希望在某个阶段能暂时叫停一些强大的AI系统的发展,而算力就被当做一个便于操作的代理变量了,因为它是通过限制算力来间接限制模型的发展,这背后还与拜登政府的行政命令有关,其中确实有条款要求模型提供商披露其训练所用的算力。也正是这些因素促使欧盟最后把算力门槛纳入AI法案之中,但区别就在于拜登政府的行政命令如今已经撤销了,算力门槛已经不再是法律的一部分。而欧盟的AI法案现在却把它正式写进了法律条文里,在我看来,这依然是一个有缺陷的工具,它无法准确衡量模型的实际能力。公司会努力开发更高效的模型,因为这样成本更低。
关于开源模型与数字主权
Zhuoran: 而且我觉得开源对中国也同样重要,因为这一次code of practice里面其实也提到了开源模型,你怎么看这一点呢?就是越来越多的国家是不是也可能将开源作为一种争取数字主权的战略路径?
Mazzini: 特朗普政府发布的一份文件就明确关注到了开源问题,我还没来得及仔细读,但看到的简报显示,他们确实强调了开源。对欧洲来说,开源同样也是一个关键议题。这应该就是未来该走的方向,尤其是考虑到语言多样性的因素,开源毫无疑问是正确的路径。我自己一贯的立场也是应该尽量避免把开源纳入监管框架中。
我的立场一开始就是不应该监管模型本身,如果我们一开始就不去监管模型,就根本不会出现关于开源模型是否合规的问题。如果我们只监管系统层面,也就是具体应用,那基本都是商业产品,问题也更清晰,但问题在于这场技术革命逐渐转向了基础模型,这才使得AI act的监管开始影响到开源领域,从而带来了对创新和开发社区可能产生负面影响的担忧。
所以没错,AI法案中确实对开源提供了一些豁免条款,但仅限于某些透明度,义务范围非常有限。我担心的是,即使是开源项目,也可能因为被视为系统性风险而被纳入监管,而法律条文中又充满不确定性,这会让开源开发者感到焦虑,从而让我们错失开源的巨大潜力。我认为这对每个人的未来都非常重要。我不是一名工程师,但我的理解是真正的开源目前看是挺好的,除非你非常确切地相信它会被滥用,那么它可能会导致真正的危险,但我仍然没有看到证据。
Zhuoran: 因为一些公司说他们的模型是开源的,但实际上并不是的,就是其实是假开源。
Mazzini: 我认为所谓开源本身也可以有很多不同的含义,在传统软件领域,开源通常意味着你可以看到源代码、修改代码,这很直观。但在AI领域,情况复杂得多,所谓开源可能涉及训练数据、训练算法、模型、权重等多个维度,这就让开源在AI中成为一个更复杂、更模糊的概念。而这一点,很多政策制定者其实还没有真正理解。
关于欧盟成为监管孤岛的担忧
Zhuoran: 所以我觉得这也是AI act目前面临的一个重大的挑战,就是我们如何定义技术,又如何划分它的边界的这个问题。
Mazzini: 没错,我一直认为如果我们当初就完全放弃对模型进行直接监管这个思路,情况可能会好得多。这会让我们避开所有这些问题,不必纠结于开源,不必陷入基础模型,不必担忧浮点的问题。但现在,既然AI法案已经出台了,监管机构也没法停下来了。我们必须落实法案,必须专注于制定技术标准。我们必须确保法案能真正实施。但从我个人的角度来讲,原本起草code of practice或者guideline的那一整套工作投入了大量资源和注意力,其实这些精力本来可以更好地用在别的地方。
毕竟这还是一个普遍关注的问题,就是强大或者前沿AI模型的安全性,这确实是个共同议题,这也是我在中国与人们会面时会听到的声音,美国人会问同样的问题,日本人也是如此。我们论坛那天还有一位来自日本的教授吗?这就是为什么会有G7峰会,虽然中国不是成员国,但当时在广岛举行的那次会议专门聚焦先进系统和先进模型,那其实是一个讨论这些国际问题并寻求共识的一个更好平台。在我看来,这个讨论本应该包括所有人,包括中国在内,因为中国是这个领域的重要参与者,所以仅仅通过监管来解决问题并不明智,对吧?就像欧盟AI法案那样的立法,以为在欧洲有了立法就能监管来自中国和美国的模型。
Neal: 我刚刚发布了AI行动计划,对吗?两天前还是三天前?
Mazzini: 两天前。
Neal: 他们实际上是放松了一些AI监管和管制的力度。那么你有没有担心过欧洲可能在AI监管方面正在成为一个孤岛?
Mazzini: 是的,这确实是个大问题,但不是说欧盟在监管上成为孤岛,而是在技术上被孤立,这事实上才是让我担心的。如果是监管维度的话,某种程度上没人在意,真正令人担忧的是监管的影响。我觉得在这种思维模式下,欧盟一直有这样的想法,如果我们率先行动,在别人之前制定法律,其他人就会跟随,因为我们的市场是人家都想要进入的地方。是这么个逻辑,这个逻辑并不愚蠢啊。道理是,如果你想要一种外交政策手段,美国人用谷歌来做,而中国可能有其他工具,每个人都使用自己的工具,也许欧洲觉得我们也可以这样做,但问题是如果你制定一部真正好的法律,毕竟我认为欧洲还是确实有很强的法律专业传统。就像当我去台湾的时候,我记得是去年把我接受了一位当地记者的采访,他说在欧洲有两件好东西,他说一个是研究,另一个是法律。
我不反对法律,但法律是工具,应该根据你的目标精心设计。所以你需要知道自己想要什么。你需要知道如果只是为了抢先,为了说一句我们比别人好,我们的价值观比你们的好,如果为了这个去制定法律会有什么后果?这根本不是正确的方法。所以我发现有时候会有这种,我称之为是一种比较傲慢的态度,比如说什么我们是在输出价值观,那我们凭什么这样说呢?事实上现在在欧洲我们对实时面部识别或生物识别系统有非常严格的规定,但同时也暴露了一些问题。现在AI法案基本上禁止在某些情况下公开使用AI,所以警察不能使用。这意味着在实践中警察必须进行人工监控,这有什么意义吗?最终,我认为面部识别的这个问题并不在于AI本身,而在于数据收集和数据使用的问题,因为理论上你可以在需要时使用,然后删除掉信息就好。
我个人对此其实是没有意见的,就说如果我的脸被扫描系统在技术上是可靠的,就说我不会被误配或其他什么危害,比如那我的脸被扫描没匹配上,那我的图像就被完全删除就行。所以关于如何收集,如何删除数据是有规则的,但如果确实有正确的匹配,我们为什么不利用这个机会呢?所以我认为围绕面部识别的很多辩论都是基于意识形态的,而不是我们实际可以在这种侵入性技术中实施的具体工具,以确保找到平衡点。当然,如果这项技术在某些国家被滥用了。我是说就我个人对欧洲的了解,我不认为我们会面临这种风险。也许在东欧的某些国家我不知道,但有时人们会说鉴于我们的传统和文化,我看不到这种风险,所以我不明白为什么我们不在适当的保障措施下允许警方使用这些工具来提高效率,让每个人都更安全。所以一直有这种讨论,就是好像在欧盟唯一重要的基本权利就是罪犯的权利,那街头民众的基本权利呢。
Neal: 没有冒犯的意思,只是聊到这突然想分享一个趣事,就是很多年前我也在罗马被抢劫过。实际上也不是抢劫,是他们通过阳台翻进了我睡觉的房间,然后偷走了我的一切行李,包括我的现金、护照、电脑、相机,甚至是眼镜。
Mazzini:这是可怕的记忆。这很糟糕,我现在经常倡导真正基于证据的监管,你们知道就是基于知识的监管。在我的一次TED演讲中,我也确实传达了这个核心信息,因为当我参与这项法案工作时,我有一种直觉,事情并不总是那么非黑即白的,因为我自己感受到了很多细微差别。虽然我觉得了解得还不够充分,但总有人在催。不行,我们得赶紧推进,结果就形成了现在的结果。
所以对于AI这样重要的事情,无论是收益还是风险,如此复杂的一个事情,我不希望人们重复欧盟的这种做法,很少有人真正具备政策敏感性、法律专业知识和技术理解的综合能力。所以你不能急于求成,你可以去看是否有一个特别相关的问题,比如说版权问题。我不知道啊。先举这个例子,那就专注于那个问题。但不要在没有充分理解的情况下就过度推进这种宽泛的全面性法规,因为监管将会产生重大影响。
关于个人AI工具使用
Zhuoran: 那我就在这么不开心的回忆后面问最后一个好玩儿的问题吧。
Mazzini: 到目前为止我们都很开心啊。
Zhuoran: 这倒是没错,我其实想问你平时会自己使用哪些AI工具?
Mazzini: 你看,我必须承认我用的不多。我偶尔会用ChatGPT,但我现在是一直用免费版的,因为不知道为什么我就是还没有进入到那种去尝试各种工具的状态,但我现在决定要用了,因为我变得超级忙,所以我真的很需要帮助,需要一个助手,我也没时间找人,所以我就想要一个助手。好吧,我需要开始使用它,所以我现在决定买个付费版。但比如昨天我跟一个人聊天,他告诉我我有Gemini、Grok、ChatGPT......还有另一个什么的,我说,哇,你也太先进了,居然还同时使用它们。我还在纠结是免费版还是付费版的,但说实话我更想用开源的工具,就是想在自己电脑上装个模型,只是我还不会弄。
Zhuoran: 其实有很多人已经越来越在日常生活中依赖AI了,可能已经有一点无法独立思考了。
Mazzini: 这确实是个问题,这可能才是真正的问题。对就业的影响和对我们思维能力的影响,在我看来这些才是政策制定者现在应该关注的真正问题。我其实不太担心那些东西,我不担心那些什么AI威胁人类生存之类的问题。你提到的这个问题没有比这更紧迫的问题了,甚至包括那些关于基本权利风险的宏大法规都没有这些紧迫。我们其实应该专注于这些问题才对,因为这些问题更难解决,所以对政策制定者来说是很难处理的。
该怎么办呢?我们得允许人们自由使用他们想要的工具,因为如果你直接禁掉,大家会不高兴,所以你得允许啊。但问题是我们怎么才能不让人们的智力退化?我们需要对教育制度做什么改变呢?需要对工作环境做什么改变,才能确保我们不会丢失重要数据呢?这些问题要复杂得多,不是写个规定就能解决的。简单粗暴地说,我们禁了它很容易,但这样你就失去了所有好处。我希望政策制定者能更认真对待这些问题。
首先要做的是收集数据,真正了解影响到底是什么,真正投资、研究投资、科学投资那些能做基础工作的大学,然后开始采取真正管理技术,而不是禁止技术的措施。所以我觉得技术一直都是这样的,最终我们会学会与它共存。我希望AI也是如此,而且我们仍能保持控制力。我们仍然能够掌控这个系统,但如果我们只是继续被系统操纵,就像手机在某些方面或者社交媒体那样,情况只会变得更糟。
Zhuoran: 说到这个我想起,因为我们今天还看到一家在展览馆的公司发布了一个新的产品,叫做记者AI。嗯,也许未来可能会夺走我们的工作。
Neal: 我不这么认为。
Mazzini: 对,因为我觉得作为人类,这有点像生成式AI的讨论,比如版权问题,因为版权所有者都很害怕,觉得应该要征得他们同意,不然他们就要失业了。现在,在这个转型期,我们确实面临这样的危机,像你们这样的人或者艺术家们感到受到了威胁,会去担心失业这些问题,但我觉得至少到现在为止,我们还是很看重我们能对话这件事,看重我能读到你写的东西。你的想法确实AI可能做得同样好。但如果我知道这是AI写的,对我来说这其中的价值就不一样了。所以,我觉得这就是人类的附加价值,不能被AI替代的地方。我希望作为人类,我们会继续真实这一点。如果我要写商务邮件,我可能不在乎是谁写的,但如果我想写诗,或者看好的新闻报道是AI写的还是人写的,这个区分就很重要了,即使看起来一样好,也还是有区别的。
Neal: AI可以写作,但AI不能去做调查或者其他很多记者能做的事情就是这样。
Mazzini: 正是如此。