一直被外界寄予极高期望的 OpenAI 文生视频 AI 模型 Sora 自今年 2 月首次展示以来,就没有任何关于何时正式发布的消息了。当地时间 11 月 26 日,一些据称参与了 Sora 测试的艺术家泄露了该模型的访问权限(API),以抗议 OpenAI 对他们的压榨行为。
当日,公共 AI 模型社区 Hugging Face 突然出现了一个文生视频的项目。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端,让所有 Hugging Face 的用户可以使用 Sora 生成视频。
图片来源:Hugging Face 项目截图
通过这一前端,用户可以通过输入简短的文字描述来生成分辨率高达 1080p 的 10 秒视频。但项目创建三个小时后,OpenAI 就关闭了所有艺术家对 Sora 的早期访问权限。目前该项目已无法使用。在短短的三小时内,用户通过这一项目生成了 87 个视频并发布了出来。
图片来源:测试视频
目前 OpenAI 并没有公开确认所谓的 Sora 泄露是否属实。但是 OpenAI 强调,参与其 " 研究预览 " 是 " 自愿的,没有义务提供反馈或使用该工具 "。
OpenAI 暂停 Sora 访问权限这一举动也暴露出 AI 行业的透明度问题。随后,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。截至发稿,这封信已经收到 550 个签名,包括马斯克。
OpenAI 压榨过度,艺术家们怒了:我们不是你的免费研发人员
当地时间 11 月 26 日,一小群参与 Sora 测试的艺术家在 Hugging Face 泄露了 Sora 的访问权限,以表达对 OpenAI 的不满。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端,让所有 Hugging Face 的用户可以使用 Sora 生成视频。
此前,OpenAI 向数百名艺术家开放了 Sora 的早期使用权,以测试这款新的 AI 视频生成器。但部分艺术家认为,OpenAI 利用了他们的无偿劳动,并利用他们来提升公司形象。
为引起外界对 OpenAI 这一行为的关注,他们在公共 AI 模型社区 Hugging Face 上发布了一个在线项目,允许公众使用 Sora 生成视频。
随项目同时发布的还有一封言辞激烈的公开信。在信中,艺术家们将 OpenAI 比作 " 中世纪的封建领主 ",谴责他们利用了艺术家的无私贡献,却并没有给出合理的报酬。" 我们获得了 Sora 的使用权,并承诺成为早期测试者、红队成员和创意合作伙伴。然而,我们认为,我们被引诱进行‘艺术洗白’,以告诉世界 Sora 对艺术家来说是一个有用的工具。"
这封信充斥着对 OpenAI 的不满,艺术家们写道:"我们不是你的无偿研发人员。我们不是你的:免费错误测试人员、PR(公关)傀儡、训练数据和验证令牌。"
尽管参与模型测试的艺术家有数百名,但只有少数作品进行展映,而且报酬极为有限,与 OpenAI 获得的巨大公关和营销价值相比,简直是微不足道。更让这些艺术家们愤怒的是," 每个影片都需要 OpenAI 团队的批准才能分享。这个早期访问计划似乎更多关注的是公关和广告,而不是创作表达和批评。"
他们在信中强调," 我们并不反对将 AI 技术作为艺术工具使用(如果我们反对,可能就不会参加这个项目)。我们不同意的是艺术家项目的推出方式,以及该工具在可能公开发布之前的呈现方式。我们发布这个声明,希望 OpenAI 能变得更加开放,对艺术家更加友好,并在支持艺术方面不只是公关作秀。"
他们还呼吁其他艺术家们使用开源的视频生成工具来抵制 OpenAI 这种闭源公司。" 开源视频生成工具让艺术家能够在没有门槛、商业利益或服务于任何公司的公关目的下,探索前卫艺术。我们也鼓励艺术家使用自己的数据集来训练自己的模型。"
但在艺术家们上线 Sora API 项目后三小时,OpenAI 迅速切断了访问权限。OpenAI 发言人 Niko Felix 称,公司将暂停所有用户对 Sora 的访问,同时调查情况。但是他拒绝说明这个项目是不是真的链接到了 Sora 模型。"Sora 仍处于研究预览阶段,我们正努力在创造力与更广泛的强大安全措施之间取得平衡。"
Felix 同时说道:" 我们 alpha 版本的数百名艺术家塑造了 Sora 的发展,帮助确定新功能和保障措施的优先级。参与是自愿的,没有提供反馈或使用该工具的义务。我们很高兴为这些艺术家提供免费访问权限,并将继续通过赠款、活动和其他计划为他们提供支持。我们相信 AI 可以成为一种强大的创意工具,并致力于让 Sora 既实用又安全。"
AI 研发缺乏透明度," 寒蝉效应 " 问题突出
在 OpenAI 暂停 Sora 访问权限后,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。
截至发稿,这封信已经收到 550 个签名,与 OpenAI 极其不对付的马斯克也在其中。
图片来源:公开信网站
这次事件在 AI 行业中并不常见,因为早期测试人员的反馈受到公司的严格控制,而且严厉的批评很少公开。通常,公司会亲自挑选哪些外部人员可以提前访问系统,在某些情况下,公司会要求这些用户签署保密协议或获得批准,然后才能公开分享系统生成的任何图像、视频或文本响应。
但最近,越来越多的 AI 安全专家批评这种做法对独立研究产生了寒蝉效应,降低了透明度,并阻碍了对公司行为的问责。斯坦福大学的基础模型透明度指数显示,没有一家主要的基础模型开发商能够提供足够的透明度(最高得分 54 分,满分 100 分),这揭示了 AI 行业缺乏透明度。
OpenAI 的员工此前也指责公司强迫员工签署 " 封口协议 ",不允许离职员工发表对公司负面言论,否则公司可以收回员工已有股权。离职员工也不得对外公开这些协议内容。
为此,今年六月,OpenAI 和谷歌 DeepMind 的一批员工联合发布了一份名为《对 AI 发出警告》的公开信。
公开信预警,AI 技术存在加剧不平等,操纵和误导信息,失去控制并威胁人类的风险。AI 公司技术迭代的同时产生了大量安全相关的非公开信息,它们没有主动披露的动机。监管部门对此难以形成有效制约,只能由现任或前任员工要求它们向公众负责。
上述员工在公开信中对包括 OpenAI 在内的 AI 公司提出了四点呼吁:其一,不强迫员工签订禁止批评公司的协议;其二,为公司现任和前任员工提供匿名的安全反馈机制;其三,允许现任和前任员工向董事会、监管机构、其他安全机构提出对公司技术安全的担忧;其四,公司不对公开分享风险相关机密信息的现任和前任员工进行报复。
正如 Hugging Face 的一则评论所说,"AI 并非凭空而来。它建立在创意人员的肩膀上,而这些创意人员往往没有得到认可。Sora 泄密事件敲响了警钟:没有道德的创新就是剥削。"
每日经济新闻
登录后才可以发布评论哦
打开小程序可以发布评论哦