这条消息真正不寻常的地方,不是“欧洲又要管AI”了,而是欧洲这次盯住的,已经不是一个单纯的模型,而是一个正在变成流量入口、信息入口、分发入口的产品。4月10日,欧盟委员会表态称,正在评估 OpenAI 的 ChatGPT 是否应被纳入《数字服务法案》更严格的框架之下;而更早的媒体消息则直接把方向指向了“超大型在线搜索引擎”这一级别。

许多人第一眼看到“监管更严”,会把重点放在“后来限制更多了”。但问题恰恰不只在这里。OpenAI 自己按 DSA 披露的数据,写得很清楚:公布的是 ChatGPT search 在欧盟的月活,不是整个 ChatGPT 所有使用场景的一锅端统计;而这个数字已经到了约 1.204 亿,远远高过欧盟把平台或搜索引擎拉进最严监管层级的 4500 万门槛。说白了,欧洲目前看到的,不再只是一个聊天工具,而是一个已经具备“替代搜索、承接信息分发”的大体量产品。
更值得注意的是,公开口径实则还留着一个超级关键的空间。路透援引欧委会发言人的话说,委员会目前仍在评估,而且大语言模型是否落入 DSA 范围,要按个案判断。也就是说,这事还没到最后正式盖章的那一步。可信号已经超级明确了:欧洲监管机构至少已经不再把 ChatGPT 只当成“模型能力”问题来看,而是在认真思考,能不能按平台型、搜索型服务的逻辑去审视它。这个变化,比一句“从严监管”更有分量。

一旦真被正式指定为 VLOP 或 VLOSE,后面的事就不是普通备案那么简单。欧盟官方说明里写得很直白:被指定后,相关服务只有 4 个月时间完成 DSA 合规;它不仅要建立对监管和用户的联络机制、在条款和处理流程上更透明,还要针对广告、推荐系统或内容治理决策提供更多透明度。更重的一层在后面——它还要定期识别、分析和评估系统性风险,提交风险缓解措施,并接受至少每年一次的独立合规审计。
这就意味着,欧洲这次的关注点,已经不只是“模型会不会胡说八道”这么简单,而是它作为一个面向海量用户的信息接口,会不会带来更广泛的社会性影响。官方文件里点到的风险就包括非法内容、基本权利、公共安全和社会福祉。换句话说,监管正在从“你这个模型怎么训练、怎么说明”往“你这个产品如何影响现实世界的信息流动”推进。前者更像 AI Act 管模型层,后者则是 DSA 管平台层。欧盟自己也明确区分了这两套逻辑:AI Act 管的是通用AI模型及其系统性风险义务,DSA 管的是面向海量用户服务时产生的平台责任。

这才是这条消息最耐人寻味的地方。过去许多科技公司都愿意把 AI 产品包装成“助手”“工具”“提高效率的软件”,由于这样听上去更轻,也更容易把监管焦点放在技术本身。可当越来越多用户开始把 ChatGPT 当搜索框、当问答入口、当内容分发口来用,监管者盯上的就不会只是模型参数,而会是它在公共信息空间里的实际角色。OpenAI 去年主动披露月活,本来是履行现有义务;但这个动作反过来也给了欧盟一个超级硬的尺度:它已经大到足以被按超大体量服务来重新定性。
再往后看,这件事影响的恐怕也不只是 OpenAI 一家。只要生成式 AI 产品继续往搜索、问答、信息入口、交易入口这些位置走,欧洲监管迟早会追问同一个问题:你到底只是个模型,还是已经成了平台?一旦这个口子被 ChatGPT 先撬开,后面的行业参照系就会被重写。真正关键的,已经不是“欧盟会不会更严”,而是欧洲正在用一种很清楚的方式告知所有 AI 公司:当你拿走流量入口,就得接住平台责任。至于欧委会最后会按“整个平台”还是按“搜索功能”落锤,这才是接下来最值得盯住的下一步