摘要: 欧盟委员会已向Google,Meta,Microsoft,Snap,Tiktok和X向Google,Meta,Microsoft,Snap,Tiktok和X发送了一系列正式的信息请求(RFI),涉及他们如何向Google,Meta,Microsoft向Google,Meta,Microsoft发送了一系列正式信息请求,Snap,Tiktok和X,介绍他们如何处理与使用AI的使用有关的风险。
欧盟委员会要求科技巨头提供关于生成式人工智能风险的信息
欧盟委员会向谷歌、Meta、微软、Snap、TikTok和X发送了一系列正式信息请求(RFI),询问它们如何处理与生成式人工智能使用相关的风险。
这些请求涉及必应、Facebook、谷歌搜索、Instagram、Snapchat、TikTok、YouTube和X,根据数字服务法案(DSA),这些平台被指定为非常大型在线平台(VLOPs),必须评估和减轻系统风险,同时遵守其他规定。
委员会在周四的一份新闻稿中表示,他们要求这些平台提供有关在其服务中处理与生成式人工智能相关风险的具体减轻措施的更多信息,包括所谓的“幻觉”,即AI技术生成虚假信息;深度伪造视频的病毒传播;以及自动操纵服务可能误导选民。
欧盟还表示,他们计划在复活节后进行一系列压力测试,测试平台处理生成式人工智能风险的准备情况,例如在6月欧洲议会选举前可能出现的政治深度伪造视频风险。
欧盟强调,合成内容的制作成本正在大幅降低,这加剧了在选举期间可能涌现误导性深度伪造视频的风险。因此,他们正在加大对有能力广泛传播政治深度伪造视频的主要平台的关注。
欧盟的目标是建立“执法结构生态系统”,以便在选举前利用这些结构。
委员会今天的信息请求还旨在解决生成式人工智能风险的更广泛范围,而不仅仅是选民操纵,例如与深度伪造色情视频或其他恶意合成内容生成相关的危害,无论生成的内容是图像/视频还是音频。
这些平台被要求在4月24日前回复这些其他生成式人工智能的信息请求。
欧盟也关注那些可能分发误导、恶意或有害深度伪造视频的较小平台,以及能够以较低成本生成合成媒体的较小人工智能工具制造商。
虽然这些平台和工具制造商不在委员会对非常大型在线平台的明确DSA监督范围内,但其扩大监管影响的策略是间接施加压力,通过较大平台(在这种情况下可能充当放大器或分发渠道);以及通过自律机制,例如前述的反虚假信息行为准则;以及AI协议,预计在(硬性法律)AI法案通过后不久开始运行。
暂无评论内容