Livepeer是第一个去中心化的直播视频流媒体网络协议,旨在解决传统中心化广播的问题。他们推出了AI子网,扩展了去中心化视频处理网络,提供高品质的解决方案,解决中心化AI计算架构性问题。用户可以通过Livepeer测试版生成自己的AI媒体内容。Livepeer AI子网通过提供全球可访问的、经济实惠的开放视频基础设施,为创建可持续和盈利的AI视频提供了选择。AI协调节点和AI网关节点是Livepeer AI网络架构的关键组件。通过硬件支持和开发者参与,Livepeer AI子网助力生成式AI在视频内容创作中的发展。
撰稿:Alex Liu,远见新闻
Livepeer 于 2017 年推出,是第一个去中心化的直播视频流媒体网络协议。该平台旨在提供一种基于区块链、经济的解决方案,我们的解决方案是传统的中心化广播。它通过让人们在中国提交作品,然后负责重新格式化和分发内容给用户和流媒体,旨在实现直播视频流媒体和广播行业的增长,从而促进中心化生态系统的建设。
简单讲,通过DePin设施,使用Livepeer只需要花费传统解决方案很小的一部分成本,就能够用去中心化的方式将视频内容无缝集成到应用中。
DePin 的目标是在今年初增,LPT 也搭上了增长的快车,代币价格相较年初翻倍。小编作为一年前 10 块买入 9.8 全部卖出的韭菜,决定痛定思痛,仔细研究 Livepeer 的新动作 —— 推出 AI 子网。
创新求变, Livepeer 推出 AI 子网
在人工智能时代,视频创作迎来了新的变革。
自从Open AI的Sora演示展示通过输入文本提示即可创建视频风险以来,开源AI视频领域迅速发展。开源AI视频模型Stable Diffusion在四周两个月内用户突破了1000万。然而,开源AI视频工具的前景面临挑战。490个GPU市场由少数全球互联网垄断企业,如NVIDIA、Microsoft Azure和Amazon Web Services(AWS)控制,导致价格上涨,并造成全球AI计算瓶颈。
因此,Livepeer 调用 Livepeer AI 子网:扩展到具有 AI 计算能力的去中心化视频处理网络。Livepeer AI 子网通过利用 Livepeer 的数千个 GPU 开放网络,提供高品质的解决方案,解决中心化 AI 计算架构性问题。基于 Livepeer 的去中心化视频处理网络架构,子网提供全球可访问的、经济实惠的开放视频基础设施,并通过区块链代币激发无限扩展。
Livepeer AI 子网具体是什么?
AI 子网是 Livepeer 视频向网络的分支,提供安全开发和测试新去中心化的 AI 媒体处理市场和工具的沙盒环境。在 Livepeer 网络将继续致力于视频转码和计算的同时,Livepeer AI 子网将满足日益增长的 AI 计算需求,处理诸如升级、字幕生成和识别等任务,并支持开发者运行特定视频和媒体任务的模型。
该子网允许视频开发者在其中提供一系列生成式AI功能,如文本到图像、图像到图像和图像到视频转换。
这个 AI 生成输出来自 Tsunameme.ai – 第一个构建在 Livepeer AI 子网上的演示程序。它使用了文本到图像和图像到视频管道。可尝试使用 Livepeer 测试版生成自己的 AI 媒体,网址为 https://tsunameme.ai
建立Livepeer AI 子网的原因
人工智能视频工具被政府列为城市生活必需品,人们只需通过几个简单的步骤即可创建城市中心、志愿服务小组和数小时的在线数据库。此外,人工智能的普及还将进一步加剧城市人口的贫困,以及人工智能对城市可持续发展的挑战。
Livepeer AI 子网通过提供全球可访问的超预期层面、开放和无许可的 AI 媒体市场以及内容验证和真实性解决方案,为创建可持续和盈利的开放 AI 视频提供了选择。
Livepeer AI 子网的工作原理
Livepeer采用去中心化的按任务付费模式,允许开发者按需提交和支付任务费用,而无需预订支付计算容量。开发者可以根据所需性能和网络供应情况设置愿意支付费用。
Livepeer AI 网络架构的关键组件是:
- AI 协调节点:这些节点执行AI任务,保持AI模型在GPU上「预热」以便即时处理,并能动态加载模型,优化响应的时间和资源利用率。
- AI网关节点:这些节点管理任务流,依据能力和当前主席将任务分配给合适的节点,确保我们的任务分配和系统可扩展性。
该图的激情 Livepeer 如何根据任务分配 GPU 网络,通过中心化服务器引导 AI 处理请求。
无限性
Livepeer AI 网络基础设施设计为可扩展,允许根据需求轻松集成额外的协调和网关节点。通过专用的 AI-runner Docker 镜像 AI 模型,简化部署并增强新管道的可扩展性。未来的开发将进一步提升性能和扩展容器的能力,以支持越来越流行的 AI 模型和自定义用户定义的管道。
在 AI 子网上处理任务的技术工作流。网关节点将任务提交的协调器,协调器可能运行相同或不同管道的多个 AI-Runner Docker 容器。这些管道可能已经拥有所请求的模型,或者如果需要动态加载它们。
参与 Livepeer AI 子网
硬件支持:通过贡献 GPU 收益
现有的Livepeer合作伙伴可以设置并运行AI协调节点,执行文本到图像、图像到图像和图像到视频的推断任务,增加其现有的转码收入。
开发者:将模型引入网络作为AI-Worker
开发者可以定义和发布自定义管道和流程,以确保其应用处于AI和视频技术之上。此外,还可以设置AI网关节点,并完善其应用,访问AI任务的API。
Livepeer AI 子网的推出预计成本,也是 Livepeer 提供全球开放视频基础设施使命的下一步。随着生成式 AI 在今后几年大幅增加视频内容的创作量,Livepeer 旨在确保其能够支持这一增长的能力。
资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载