人工智能在创意产业中的应用:滥用、争议与以使用为导向的监管推动

简要概述

AI滥用引发高调争议,促使全球监管机构推动以使用为中心的透明度、同意和问责措施,同时关于现有框架是否能跟上快速发展的技术的辩论仍在继续。

AI is quickly reshaping creative practice

AI正迅速重塑创作实践,但其滥用也在同样快速地扩散。未披露的AI辅助写作、声音和肖像克隆,以及AI生成的图像在被发布甚至获奖后反复出现,引发高调争议,侵蚀公众对文化机构的信任。

监管机构和平台正忙于应对,采取披露要求、内容标签提案、出处和水印标准以及有针对性的执法等措施。然而,现行框架仍然零散、缓慢且常常不明确。立法者如何在不扼杀创新的前提下保护创作者和消费者?现有规则是否有能力跟上快速变化的AI格局?这些问题成为当今科技与创意领域最紧迫的辩论核心。

过去几年中最引人注目的AI争议之一是理·库丹的《东京同情塔》,该作品获得2024年芥川奖。作者披露,小说大约有5%的内容——主要是故事中聊天机器人的回应——由ChatGPT生成。这一披露引发了关于文学中的作者身份和透明度的讨论。批评者意见分歧:有人称赞该作品是利用AI探索语言和技术的创新之作,也有人视之为对传统原创作者身份和文学完整性的挑战。主要媒体报道强调了作品的主题——正义、同理心以及AI的社会影响——以及将生成模型融入获奖作品所引发的程序性问题,促使呼吁制定更明确的披露标准和重新审视奖项评选标准。这一案例已成为关于创作自主权、版权以及AI在艺术中伦理界限的更广泛讨论的标志性事件,对出版商、奖项委员会和作者规范产生深远影响。

另一高调事件涉及莱娜·麦克唐纳的《Darkhollow学院:第二年》,读者在第三章发现了嵌入的AI提示和编辑说明。这一意外披露显示,作者曾使用AI工具模仿另一位作家的风格,立即引发反弹和广泛报道。这一事件凸显了当前出版流程的局限性以及制定关于AI辅助写作的明确规范的必要性。它加强了对透明度的呼声,引发了关于编辑监管和质量控制的讨论,并在商业小说中的归属、风格模仿和知识产权风险方面激起了更广泛的辩论。

在视觉艺术领域,德国摄影师鲍里斯·埃尔达格森最近引发争议,他提交到索尼世界摄影奖的一幅作品被揭示为完全由AI生成。该作品最初赢得了“创意公开”类别,引发了关于AI生成内容与传统摄影界限的讨论。摄影师最终拒绝领奖,而批评者和行业人士质疑比赛应如何对待AI辅助或AI生成的作品。

音乐行业也面临类似挑战。2025年,Haven的英国电子舞曲《I Run》成为一场高调的AI争议,原因是该曲的主唱声部被使用类似真实艺术家的合成语音技术生成。主要流媒体平台因违反冒充和版权规则下架了该曲,激起广泛谴责,重新呼吁在AI模仿在世表演者时必须获得明确同意和归属,并加快关于流媒体服务、权益持有人和监管机构如何管理AI辅助音乐以保护艺术家、执行版权和维护创作归属信任的政策和法律辩论。

监管机构应对AI危害:欧盟、美国、英国和意大利推出基于风险的框架

AI使用带来的危害问题——包括创作者将AI生成作品冒充人为创作的案例——已成为紧迫议题,新兴的监管框架开始应对这一挑战。

欧盟的《AI法案》建立了基于风险的法律框架,于2024年生效,分阶段实施义务,直至2026–2027年。该法律要求对生成系统进行透明度要求,包括在特定场景下标注AI生成内容、对高风险应用进行风险评估和治理,并授权欧盟AI办公室和国家监管机构执行合规。这些规定直接针对未披露的AI生成媒体和模型训练不透明等挑战。

一些国家立法者也在快速行动。例如,意大利在2025年推动了一部全面的国家AI法,针对深度伪造犯罪等有害用途加大惩罚力度,并制定了透明度和人工监督要求,展示了地方立法如何补充欧盟层面的规则。欧盟委员会同时在制定非强制性工具和行业行为准则,特别是针对通用人工智能,但由于技术快速发展,推行过程中遇到延误和行业阻力,反映出制定及时、实用规则的难度。

英国采取“鼓励创新”的监管策略,结合政府白皮书、如Ofcom和ICO等监管机构的行业指导,以及强调安全、透明、公平和问责的原则性监管。英国并未制定类似欧盟的统一法规,而是侧重于指导方针和逐步建立监管能力。

在美国,政策制定者采取行业部门主导的策略,依据2023年10月颁布的行政命令14110,协调联邦在安全、可靠和可信AI方面的行动。这一策略强调风险管理、安全测试和有针对性的规则制定,诸如《美国AI行动计划》等联邦文件提供指导、标准制定和采购规则,而非单一全面的法律。

马丁·卡萨多倡导以使用为中心的AI监管,以保护创作者而不扼杀创新

对创作者和平台而言,实际影响十分明确。监管机构正推动更强的披露要求,包括明确标注AI生成内容、声音和肖像克隆的同意规则、生成媒体的出处和水印标准,以及更严格的版权和衍生作品规则。这些措施旨在防止冒充、保护表演者和作者,并增强平台对潜在误导性内容的问责——本质上是落实由安德烈森·霍洛维茨的合伙人马丁·卡萨多在a16z播客中推荐的“以使用为中心”的监管策略。

他认为,政策应优先考虑AI的部署方式及其可能造成的具体危害,而非试图监管AI模型的开发本身——后者变化迅速、难以界定且易于规避。风险投资家警告说,过于宽泛、以开发为导向的规则可能会抑制开放研究,削弱创新。

马丁·卡萨多强调,利用AI进行的非法或有害活动应在现有法律下仍可追究责任,监管应首先确保刑事、消费者保护、民权和反垄断法规得到有效执行。如存在漏洞,他主张制定基于实证、针对特定风险的法律,而非宽泛、推测性的命令,以免扼杀技术进步。

专家认为,保持AI开发的开放性(如支持开源模型)对于维护长期创新和竞争力至关重要,同时确保监管措施精准、实用、聚焦于实际危害。

IN-2.76%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)