介绍 Livepeer AI 子网

新手5/28/2024, 11:51:17 AM
Livepeer AI子网是Livepeer推出的一个创新项目,旨在打造首个具备AI计算能力的去中心化视频处理网络。作为一个去中心化的视频直播网络协议,Livepeer自2017年推出以来,一直致力于提供基于区块链的、高性价比的解决方案,以取代传统的中心化直播。Livepeer AI 子网提供低成本、高性能的处理服务,通过利用 Livepeer 的数千个 GPU 开放网络,解决了中心化 AI 计算的结构性问题。本文详细介绍了 Livepeer AI 子网的概念、工作原理、建立原因以及如何参与其中。

生成式人工智能的兴起标志着视频创作领域的巨大变革。

自从Open AI的Sora演示了通过输入文本提示到AI来降低视频创作障碍的可能性以来,生成式视频领域的发展速度一直在迅速加快。顶级的开源AI视频模型Stable Diffusion在短短两个月内就吸引了超过1000万用户。但是,AI视频工具的有希望的增长面临着严重的挑战。全球互联网垄断公司,包括NVIDIA,Microsoft Azure和Amazon Web Services (AWS),控制着价值490亿美元的GPU市场,这推高了价格,造成了全球AI计算瓶颈。

这就是我们推出 Livepeer AI 子网的原因:世界上第一个具有 AI 计算能力的去中心化视频处理网络。 Livepeer AI 子网利用 Livepeer 的数千个 GPU 的开放网络提供低成本、高性能的处理,解决了集中式 AI 计算的结构性问题。该子网建立在 Livepeer 开创性的去中心化视频处理网络的架构之上,提供全球可访问且经济实惠的开放视频基础设施,并通过基于区块链的代币经济激励无限的可扩展性。

那么什么是AI子网?让我们开始吧。

什么是 Livepeer AI 子网?

AI 子网是 Livepeer 视频基础设施网络的一个分叉分支,为新的去中心化人工智能媒体处理市场和工具的安全开发和测试提供了一个沙盒。

这意味着,虽然更广泛的 Livepeer 网络将继续以视频转码和计算为核心,服务于价值 1000 多亿美元的流媒体市场,但 Livepeer AI 子网将满足对 AI 计算能力日益增长的需求。该子网旨在处理任何生成式人工智能视频或工作流程改进任务,如缩放、字幕和识别,随着开发的进展,任何人都可以运行自己的模型,以满足特定的视频和媒体任务。

该子网使视频开发人员能够向其应用程序添加一套快速增长的生成式 AI 功能,例如文本到图像、图像到图像和图像到视频转换。

生成媒体提示也称为人工智能推理任务,是指使用经过训练的人工智能模型运行、评估或分析新数据以完成任务的过程。这类推理任务的一个例子是,向 Midjourney 这样的模型输入描述性文本命令,并根据该命令接收图像的过程。

Tsunameme.ai 上生成的 AI 生成输出 - 第一个构建在 Livepeer AI 子网上的演示应用程序。这项工作使用了文本到图像和图像到视频管道。尝试使用 Livepeer 测试版生成您自己的 AI 媒体,网址为 https://tsunameme.ai。

Livepeer 的 AI 网络架构旨在将不同的 AI 推理任务组织成离散的任务类型。这些不同任务类型中的每一种都被称为管道(pipeline),用于发送、接收和返回作业请求。Livepeer AI 子网还允许 Livepeer Orchestrator 节点运营商通过为 AI 处理任务部署 GPU 资源来赚取 ETH 和 LPT 收入。

如何在 AI 子网上处理任务的技术工作流程。网关节点将任务传递给协调器,协调器可能运行相同或不同管道的多个 AI-Runner Docker 容器。这些管道可能已经拥有所请求的模型,或者可以根据需要动态加载它们。

虽然管道代表特定的作业类型,例如文本到图像或图像到视频,但每个管道中可以运行许多不同的模型以产生不同的结果。 Livepeer 作为一个网络,支持特定的管道,而开发人员可以选择他们想要在给定管道中运行的模型。

目前,重点是使用 Huggingface 的 Diffusers 库开发的扩散(Diffusion)模型,但未来的更新将扩展对其他模型类型的支持。扩散模型是一种强大的人工智能生成模型,常用于生成高质量的图像和音频。在此阶段的 AI 子网中,鼓励协调器保持至少一个管道所使用的模型处于激活状态(“热启动”)并在其 GPU 上运行。

点击这里 了解有关子网特色工具和模型的更多信息。

AI 子网如何运作?

Livepeer 采用去中心化的按任务付费模式。这种去中心化的市场定价方式使开发人员能够按需提交任务并支付费用,而不是像中心化模式那样需要向云提供商预留昂贵的计算能力。开发人员还可以根据他们所需的网络性能和可用供应量,设定自己愿意支付的价格。

该图说明了 Livepeer 如何根据效率将任务分配给分布式 GPU 网络,而不是通过集中式服务器引导 AI 处理请求。

Livepeer 人工智能网络架构中两个最重要的组件是:

  • AI Orchestrator 节点:这些节点负责执行人工智能任务。它们将人工智能模型 “预热”在 GPU 上,以便立即处理,并能在任务到来时动态加载模型,从而优化响应时间和资源利用率。
  • AI 网关节点: 这些节点管理任务流,根据能力和当前负载将任务分配给相应的协调器,确保高效的任务分配和系统可扩展性。

应用程序开发人员可以通过运行自己的 AI 网关节点并根据其 API 构建应用程序,或者通过访问远程托管的网关节点服务(如果他们不想托管自己的节点),将 AI 功能添加到他们的应用程序中。

无限的可扩展性

Livepeer AI 网络基础设施旨在无需许可即可扩展,随着需求的增加,可以轻松集成其他 Orchestrator 和网关节点。它依靠专门的 ai-runner Docker 镜像来执行 AI 模型,从而简化了部署并增强了新管道的可扩展性。持续的开发旨在提高性能并扩大容器的功能,以支持日益复杂的人工智能模型和自定义用户定义的管道。

为什么要构建 Livepeer AI 子网?

人工智能视频工具降低了准入门槛,现在任何人都可以通过几个字的文本命令,创建过去需要布景、专门工作人员和数小时剪辑的场景。人工智能还能快速改进缩放、帧插值、字幕生成以及许多其他关键的视频制作任务。对这种技术的需求日益增长,但只有少数全球计算垄断企业能提供可扩展的基础设施。此外,这些工具的激增只会加剧集中式人工智能计算的全球瓶颈。

除了高度集中的服务器网络固有的单点故障风险外,轻松生成的 AI 内容正在酝酿一场信任和真实性危机。这些因素加在一起,对 AI 视频行业的可持续发展构成了重大风险。Livepeer 的 AI 子网通过专注于上述问题的三个核心解决方案,为创建可持续、可盈利的开放式 AI 视频基础设施开辟了一条先驱之路:

全球可访问的超低成本基础设施

Livepeer 打破了 GCP 和 AWS 等提供商的集中式束缚,这些提供商要求您租用、运行和管理他们的 GPU 服务器。AI 子网使 Livepeer 能够迈出人工智能的第一步,使其转码网络上已有的数千个 GPU 发挥作用。

这种提供人工智能计算存取的新颖方式,在节约成本方面的潜力不容小觑。与管理和承担专用服务器的成本相比,人工智能视频生成可以简单地抽象为单个任务或工作流程。然后,可以根据需求将其提交到人工智能子网上,该子网由 Livepeer 备受赞誉的低成本、高可靠性网络提供支持,该网络每周已经转码数百万分钟的传统视频,并且拥有大量富余的 GPU 资源可供使用。

由于人工智能初创公司受益于大量风险投资和投资,因此创始人和资助者很容易忽略生成视频所涉及的巨大成本。但是,一旦初始资金耗尽或市场转坏,高可靠性和低成本的计算服务对AI视频的可持续发展就至关重要。凭借其在去中心化视频计算领域令人印象深刻的传统,Livepeer 在提供这种服务方面具有得天独厚的优势。

开放且无需许可的人工智能媒体市场

人工智能内容将永远改变视频制作方式,这一点毋庸置疑。然而,它将如何、为何以及以何种方式改变,却有可能发生在封闭的环境中。

强大的私营公司控制着最杰出的 AI 模型,其中许多都是闭源的。根据物联网分析研究,NVIDIA 提供了人工智能数据中心惊人的 92% 的 GPU 计算能力,而微软和 OpenAI 则瓜分了 69% 的基础模型和平台市场。这种人工智能计算能力的集中式结构会造成单点故障的风险。如果一家公司倒闭或被政府关闭,那么所有用户都将受到牵连。

Livepeer 的子网体现了其对开源开发的承诺,这种开发方式具有抗审查性,并利用区块链和通证经济激励用户共享硬件,从而创建一个可无限扩展的 GPU 网络。无论用户来自哪个国家或受制于哪家公司,这种基础技术的获取都应是开放的并可根据需求随时使用。

内容验证和真实性

人工智能时代的到来带来了真实性危机。辨别真假是消费者的负担,也是平台和创作者的责任。这就是为什么需要快速实施全行业解决方案的原因。

Livepeer 已成为第一个加入 C2PA 的去中心化人工智能基础设施项目,C2PA 是一个开放的技术标准,为出版商、创作者和消费者提供了追踪不同类型媒体来源的能力。 C2PA 的成员包括 TikTok、Adobe、谷歌、索尼、英特尔、BBC、微软和 OpenAI。 Livepeer 很荣幸能加入 C2PA 技术工作组,并致力于将开放和去中心化的原则引入内容来源和真实性的全球标准制定中。

Livepeer的人工智能子网目前正在制定措施,通过显示清晰出处线索的本地加密签名来解决虚假内容问题。

Livepeer 人工智能路线图

Livepeer AI 子网的推出标志着 Livepeer 在其开放且无需许可的网络上无限扩展去中心化视频计算市场的愿景的一个重要里程碑。 Livepeer 网络上的 AI 视频计算路线图总结为 3 个不同的开发阶段。

第一阶段:AI 子网设计和稳定性(已完成)

截至 5 月 1 日,子网概念验证的设计以及现有 Livepeer Orchestrator 节点运营商的初始集成已经完成。Orchestrator 节点的性能基准测试也已完成,旨在保证网络性能满足演示应用程序和产品的需求。目前已有超过 20 个高性能 AI Orchestrator 节点处于激活状态。有关稳定性阶段的回顾 [可以在这里找到]

第二阶段:AI 子网优化(进行中)

随着 AI 子网的启动,我们现在正致力于提高为 AI Orchestrator 和 AI 网关节点运营商提供的服务质量。本阶段的主要目标是通过扩展兼容 GPU 的范围(低显存 GPU 和服务器 GPU)、减少容器加载时间以及处理边缘情况来提高网络供给。本阶段的工作还将包括通过我们的全新 AI 视频初创企业计划与精选设计合作伙伴合作,改进应用程序开发人员的集成体验。这些合作伙伴将提供宝贵的用户反馈,帮助我们了解开发人员在 Livepeer 主网上使用 AI 处理的需求和要求。

第 3 阶段:Livepeer 主网和 AI 网络扩展(2024 年第 3 季度)

在优化阶段之后,Livepeer 预计在 2024 年第三季度启动主网,提供高质量的 AI 开发人员体验,并包含各种工具和软件开发工具包。网络扩展将允许高效执行自定义模型和工作流程,安全运行自定义容器代码,支持灵活的推理请求(冷启动或热启动)以降低开发人员成本,并建立一种验证协调器真实性并确保内容来源的方法。

谁可以参与 Livepeer AI 子网?

硬件提供商:贡献GPU并赚取费用

AI 子网为整个 Livepeer 生态系统的基础设施提供商释放了新的收入来源:

  • 现有的 Livepeer Orchestrator 现在可以设置并运行 AI Orchestrator 节点来执行文本到图像、图像到图像和图像到视频的推理工作,这为他们现有的转码收入增加了一层丰厚的费用。
  • 成为 Livepeer Orchestrator - 在 Livepeer 网络上设置您自己的 Orchestrator 节点,并开始处理视频转码和 AI 任务。
  • 加入 Orchestrator 池,通过向 Livepeer 网络提供消费者 GPU 开始赚取奖励,而无需运行您自己的 AI Orchestrator 节点。
  • 成为 Livepeer 网络合作伙伴 - 如果您拥有服务器 GPU 或运行现有计算网络,则可以通过专门的合作伙伴大规模贡献计算。

Livepeer 网络对所有基础设施提供商开放,无需许可。Livepeer 文档可帮助硬件提供商轻松开始使用 Livepeer AI 子网。您还可以在这里找到 Orchestrator 常见问题。填写此表,表达您对获得向 Livepeer AI 子网提供计算支持的兴趣。

开发人员:以 AI 工作者的身份将模型引入网络

随着 AI 子网的发展,开发人员将能够定义和部署自定义管道和工作流程,确保他们的应用程序始终处于人工智能和视频技术的前沿。

开发人员还可以设置 AI 网关来测试和完善其应用程序,并访问用于 AI 任务的 API。

子网是无需许可的,因此开发人员可以立即使用子网上的现有人工智能管道进行实验,尽管子网的当前阶段并不适合生产就绪的应用。可以在这里查看Alpha文档。

对于致力于去中心化人工智能,并希望直接在子网上大规模构建的创始人来说,Livepeer 正在推出 AI 视频创业计划。这是一个仅限受邀者参与的项目,由 5-8 家初创公司组成,在生成媒体领域进行创新。每家初创公司将获得 40,000 美元的补助资金,包括基础设施的使用额度和专门的 Livepeer 工程支持。要检查您是否符合资格,您可以在 这里申请加入该计划。

保持最新状态

今日 Livepeer AI 子网的推出,标志着该项目的一个令人兴奋的里程碑,但这只是 Livepeer 提供全球开放视频基础设施使命的下一步。由于生成式人工智能将导致未来几年创建的视频内容数量级增加,Livepeer 网络旨在确保其有能力成为推动这一增长浪潮的基础设施。

隆重推出:Livepeer.AI

作为 AI 子网发布的一部分,我们还发布了 Livepeer.ai - Livepeer 网络上人工智能的大本营。

加入社区

加入 Livepeer Discord,与 Livepeer 社区互动,获得支持并提供反馈,帮助我们完善和增强人工智能子网。#ai-video 频道是了解和分享 Livepeer + AI 想法的绝佳入口。关注我们的公告,了解最新更新、活动、里程碑和参与机会。

声明:

  1. 本文转载自[mirror],著作权归属原作者[Livepeer],如对转载有异议,请联系Gate Learn团队,团队会根据相关流程尽速处理。
  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
  3. 文章其他语言版本由Gate Learn团队翻译, 在未提及Gate.io的情况下不得复制、传播或抄袭经翻译文章。

介绍 Livepeer AI 子网

新手5/28/2024, 11:51:17 AM
Livepeer AI子网是Livepeer推出的一个创新项目,旨在打造首个具备AI计算能力的去中心化视频处理网络。作为一个去中心化的视频直播网络协议,Livepeer自2017年推出以来,一直致力于提供基于区块链的、高性价比的解决方案,以取代传统的中心化直播。Livepeer AI 子网提供低成本、高性能的处理服务,通过利用 Livepeer 的数千个 GPU 开放网络,解决了中心化 AI 计算的结构性问题。本文详细介绍了 Livepeer AI 子网的概念、工作原理、建立原因以及如何参与其中。

生成式人工智能的兴起标志着视频创作领域的巨大变革。

自从Open AI的Sora演示了通过输入文本提示到AI来降低视频创作障碍的可能性以来,生成式视频领域的发展速度一直在迅速加快。顶级的开源AI视频模型Stable Diffusion在短短两个月内就吸引了超过1000万用户。但是,AI视频工具的有希望的增长面临着严重的挑战。全球互联网垄断公司,包括NVIDIA,Microsoft Azure和Amazon Web Services (AWS),控制着价值490亿美元的GPU市场,这推高了价格,造成了全球AI计算瓶颈。

这就是我们推出 Livepeer AI 子网的原因:世界上第一个具有 AI 计算能力的去中心化视频处理网络。 Livepeer AI 子网利用 Livepeer 的数千个 GPU 的开放网络提供低成本、高性能的处理,解决了集中式 AI 计算的结构性问题。该子网建立在 Livepeer 开创性的去中心化视频处理网络的架构之上,提供全球可访问且经济实惠的开放视频基础设施,并通过基于区块链的代币经济激励无限的可扩展性。

那么什么是AI子网?让我们开始吧。

什么是 Livepeer AI 子网?

AI 子网是 Livepeer 视频基础设施网络的一个分叉分支,为新的去中心化人工智能媒体处理市场和工具的安全开发和测试提供了一个沙盒。

这意味着,虽然更广泛的 Livepeer 网络将继续以视频转码和计算为核心,服务于价值 1000 多亿美元的流媒体市场,但 Livepeer AI 子网将满足对 AI 计算能力日益增长的需求。该子网旨在处理任何生成式人工智能视频或工作流程改进任务,如缩放、字幕和识别,随着开发的进展,任何人都可以运行自己的模型,以满足特定的视频和媒体任务。

该子网使视频开发人员能够向其应用程序添加一套快速增长的生成式 AI 功能,例如文本到图像、图像到图像和图像到视频转换。

生成媒体提示也称为人工智能推理任务,是指使用经过训练的人工智能模型运行、评估或分析新数据以完成任务的过程。这类推理任务的一个例子是,向 Midjourney 这样的模型输入描述性文本命令,并根据该命令接收图像的过程。

Tsunameme.ai 上生成的 AI 生成输出 - 第一个构建在 Livepeer AI 子网上的演示应用程序。这项工作使用了文本到图像和图像到视频管道。尝试使用 Livepeer 测试版生成您自己的 AI 媒体,网址为 https://tsunameme.ai。

Livepeer 的 AI 网络架构旨在将不同的 AI 推理任务组织成离散的任务类型。这些不同任务类型中的每一种都被称为管道(pipeline),用于发送、接收和返回作业请求。Livepeer AI 子网还允许 Livepeer Orchestrator 节点运营商通过为 AI 处理任务部署 GPU 资源来赚取 ETH 和 LPT 收入。

如何在 AI 子网上处理任务的技术工作流程。网关节点将任务传递给协调器,协调器可能运行相同或不同管道的多个 AI-Runner Docker 容器。这些管道可能已经拥有所请求的模型,或者可以根据需要动态加载它们。

虽然管道代表特定的作业类型,例如文本到图像或图像到视频,但每个管道中可以运行许多不同的模型以产生不同的结果。 Livepeer 作为一个网络,支持特定的管道,而开发人员可以选择他们想要在给定管道中运行的模型。

目前,重点是使用 Huggingface 的 Diffusers 库开发的扩散(Diffusion)模型,但未来的更新将扩展对其他模型类型的支持。扩散模型是一种强大的人工智能生成模型,常用于生成高质量的图像和音频。在此阶段的 AI 子网中,鼓励协调器保持至少一个管道所使用的模型处于激活状态(“热启动”)并在其 GPU 上运行。

点击这里 了解有关子网特色工具和模型的更多信息。

AI 子网如何运作?

Livepeer 采用去中心化的按任务付费模式。这种去中心化的市场定价方式使开发人员能够按需提交任务并支付费用,而不是像中心化模式那样需要向云提供商预留昂贵的计算能力。开发人员还可以根据他们所需的网络性能和可用供应量,设定自己愿意支付的价格。

该图说明了 Livepeer 如何根据效率将任务分配给分布式 GPU 网络,而不是通过集中式服务器引导 AI 处理请求。

Livepeer 人工智能网络架构中两个最重要的组件是:

  • AI Orchestrator 节点:这些节点负责执行人工智能任务。它们将人工智能模型 “预热”在 GPU 上,以便立即处理,并能在任务到来时动态加载模型,从而优化响应时间和资源利用率。
  • AI 网关节点: 这些节点管理任务流,根据能力和当前负载将任务分配给相应的协调器,确保高效的任务分配和系统可扩展性。

应用程序开发人员可以通过运行自己的 AI 网关节点并根据其 API 构建应用程序,或者通过访问远程托管的网关节点服务(如果他们不想托管自己的节点),将 AI 功能添加到他们的应用程序中。

无限的可扩展性

Livepeer AI 网络基础设施旨在无需许可即可扩展,随着需求的增加,可以轻松集成其他 Orchestrator 和网关节点。它依靠专门的 ai-runner Docker 镜像来执行 AI 模型,从而简化了部署并增强了新管道的可扩展性。持续的开发旨在提高性能并扩大容器的功能,以支持日益复杂的人工智能模型和自定义用户定义的管道。

为什么要构建 Livepeer AI 子网?

人工智能视频工具降低了准入门槛,现在任何人都可以通过几个字的文本命令,创建过去需要布景、专门工作人员和数小时剪辑的场景。人工智能还能快速改进缩放、帧插值、字幕生成以及许多其他关键的视频制作任务。对这种技术的需求日益增长,但只有少数全球计算垄断企业能提供可扩展的基础设施。此外,这些工具的激增只会加剧集中式人工智能计算的全球瓶颈。

除了高度集中的服务器网络固有的单点故障风险外,轻松生成的 AI 内容正在酝酿一场信任和真实性危机。这些因素加在一起,对 AI 视频行业的可持续发展构成了重大风险。Livepeer 的 AI 子网通过专注于上述问题的三个核心解决方案,为创建可持续、可盈利的开放式 AI 视频基础设施开辟了一条先驱之路:

全球可访问的超低成本基础设施

Livepeer 打破了 GCP 和 AWS 等提供商的集中式束缚,这些提供商要求您租用、运行和管理他们的 GPU 服务器。AI 子网使 Livepeer 能够迈出人工智能的第一步,使其转码网络上已有的数千个 GPU 发挥作用。

这种提供人工智能计算存取的新颖方式,在节约成本方面的潜力不容小觑。与管理和承担专用服务器的成本相比,人工智能视频生成可以简单地抽象为单个任务或工作流程。然后,可以根据需求将其提交到人工智能子网上,该子网由 Livepeer 备受赞誉的低成本、高可靠性网络提供支持,该网络每周已经转码数百万分钟的传统视频,并且拥有大量富余的 GPU 资源可供使用。

由于人工智能初创公司受益于大量风险投资和投资,因此创始人和资助者很容易忽略生成视频所涉及的巨大成本。但是,一旦初始资金耗尽或市场转坏,高可靠性和低成本的计算服务对AI视频的可持续发展就至关重要。凭借其在去中心化视频计算领域令人印象深刻的传统,Livepeer 在提供这种服务方面具有得天独厚的优势。

开放且无需许可的人工智能媒体市场

人工智能内容将永远改变视频制作方式,这一点毋庸置疑。然而,它将如何、为何以及以何种方式改变,却有可能发生在封闭的环境中。

强大的私营公司控制着最杰出的 AI 模型,其中许多都是闭源的。根据物联网分析研究,NVIDIA 提供了人工智能数据中心惊人的 92% 的 GPU 计算能力,而微软和 OpenAI 则瓜分了 69% 的基础模型和平台市场。这种人工智能计算能力的集中式结构会造成单点故障的风险。如果一家公司倒闭或被政府关闭,那么所有用户都将受到牵连。

Livepeer 的子网体现了其对开源开发的承诺,这种开发方式具有抗审查性,并利用区块链和通证经济激励用户共享硬件,从而创建一个可无限扩展的 GPU 网络。无论用户来自哪个国家或受制于哪家公司,这种基础技术的获取都应是开放的并可根据需求随时使用。

内容验证和真实性

人工智能时代的到来带来了真实性危机。辨别真假是消费者的负担,也是平台和创作者的责任。这就是为什么需要快速实施全行业解决方案的原因。

Livepeer 已成为第一个加入 C2PA 的去中心化人工智能基础设施项目,C2PA 是一个开放的技术标准,为出版商、创作者和消费者提供了追踪不同类型媒体来源的能力。 C2PA 的成员包括 TikTok、Adobe、谷歌、索尼、英特尔、BBC、微软和 OpenAI。 Livepeer 很荣幸能加入 C2PA 技术工作组,并致力于将开放和去中心化的原则引入内容来源和真实性的全球标准制定中。

Livepeer的人工智能子网目前正在制定措施,通过显示清晰出处线索的本地加密签名来解决虚假内容问题。

Livepeer 人工智能路线图

Livepeer AI 子网的推出标志着 Livepeer 在其开放且无需许可的网络上无限扩展去中心化视频计算市场的愿景的一个重要里程碑。 Livepeer 网络上的 AI 视频计算路线图总结为 3 个不同的开发阶段。

第一阶段:AI 子网设计和稳定性(已完成)

截至 5 月 1 日,子网概念验证的设计以及现有 Livepeer Orchestrator 节点运营商的初始集成已经完成。Orchestrator 节点的性能基准测试也已完成,旨在保证网络性能满足演示应用程序和产品的需求。目前已有超过 20 个高性能 AI Orchestrator 节点处于激活状态。有关稳定性阶段的回顾 [可以在这里找到]

第二阶段:AI 子网优化(进行中)

随着 AI 子网的启动,我们现在正致力于提高为 AI Orchestrator 和 AI 网关节点运营商提供的服务质量。本阶段的主要目标是通过扩展兼容 GPU 的范围(低显存 GPU 和服务器 GPU)、减少容器加载时间以及处理边缘情况来提高网络供给。本阶段的工作还将包括通过我们的全新 AI 视频初创企业计划与精选设计合作伙伴合作,改进应用程序开发人员的集成体验。这些合作伙伴将提供宝贵的用户反馈,帮助我们了解开发人员在 Livepeer 主网上使用 AI 处理的需求和要求。

第 3 阶段:Livepeer 主网和 AI 网络扩展(2024 年第 3 季度)

在优化阶段之后,Livepeer 预计在 2024 年第三季度启动主网,提供高质量的 AI 开发人员体验,并包含各种工具和软件开发工具包。网络扩展将允许高效执行自定义模型和工作流程,安全运行自定义容器代码,支持灵活的推理请求(冷启动或热启动)以降低开发人员成本,并建立一种验证协调器真实性并确保内容来源的方法。

谁可以参与 Livepeer AI 子网?

硬件提供商:贡献GPU并赚取费用

AI 子网为整个 Livepeer 生态系统的基础设施提供商释放了新的收入来源:

  • 现有的 Livepeer Orchestrator 现在可以设置并运行 AI Orchestrator 节点来执行文本到图像、图像到图像和图像到视频的推理工作,这为他们现有的转码收入增加了一层丰厚的费用。
  • 成为 Livepeer Orchestrator - 在 Livepeer 网络上设置您自己的 Orchestrator 节点,并开始处理视频转码和 AI 任务。
  • 加入 Orchestrator 池,通过向 Livepeer 网络提供消费者 GPU 开始赚取奖励,而无需运行您自己的 AI Orchestrator 节点。
  • 成为 Livepeer 网络合作伙伴 - 如果您拥有服务器 GPU 或运行现有计算网络,则可以通过专门的合作伙伴大规模贡献计算。

Livepeer 网络对所有基础设施提供商开放,无需许可。Livepeer 文档可帮助硬件提供商轻松开始使用 Livepeer AI 子网。您还可以在这里找到 Orchestrator 常见问题。填写此表,表达您对获得向 Livepeer AI 子网提供计算支持的兴趣。

开发人员:以 AI 工作者的身份将模型引入网络

随着 AI 子网的发展,开发人员将能够定义和部署自定义管道和工作流程,确保他们的应用程序始终处于人工智能和视频技术的前沿。

开发人员还可以设置 AI 网关来测试和完善其应用程序,并访问用于 AI 任务的 API。

子网是无需许可的,因此开发人员可以立即使用子网上的现有人工智能管道进行实验,尽管子网的当前阶段并不适合生产就绪的应用。可以在这里查看Alpha文档。

对于致力于去中心化人工智能,并希望直接在子网上大规模构建的创始人来说,Livepeer 正在推出 AI 视频创业计划。这是一个仅限受邀者参与的项目,由 5-8 家初创公司组成,在生成媒体领域进行创新。每家初创公司将获得 40,000 美元的补助资金,包括基础设施的使用额度和专门的 Livepeer 工程支持。要检查您是否符合资格,您可以在 这里申请加入该计划。

保持最新状态

今日 Livepeer AI 子网的推出,标志着该项目的一个令人兴奋的里程碑,但这只是 Livepeer 提供全球开放视频基础设施使命的下一步。由于生成式人工智能将导致未来几年创建的视频内容数量级增加,Livepeer 网络旨在确保其有能力成为推动这一增长浪潮的基础设施。

隆重推出:Livepeer.AI

作为 AI 子网发布的一部分,我们还发布了 Livepeer.ai - Livepeer 网络上人工智能的大本营。

加入社区

加入 Livepeer Discord,与 Livepeer 社区互动,获得支持并提供反馈,帮助我们完善和增强人工智能子网。#ai-video 频道是了解和分享 Livepeer + AI 想法的绝佳入口。关注我们的公告,了解最新更新、活动、里程碑和参与机会。

声明:

  1. 本文转载自[mirror],著作权归属原作者[Livepeer],如对转载有异议,请联系Gate Learn团队,团队会根据相关流程尽速处理。
  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
  3. 文章其他语言版本由Gate Learn团队翻译, 在未提及Gate.io的情况下不得复制、传播或抄袭经翻译文章。
即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!
It seems that you are attempting to access our services from a Restricted Location where Gate.io is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.