Apus Network 的 Trustless GPU 解决方案,实现 AO 中的 Trustless AI

审阅:0xmiddle

来源:内容公会 - 新闻

介绍

在快速发展的人工智能(AI)领域,确保 AI 推理结果的可信性和可验证性至关重要。传统的集中式 AI 系统通常缺乏透明度,容易受到篡改,从而削弱了信任。

Apus Network 通过利用设计来实现 AO 生态系统内的 Trustless AI 解决方案解决了这些挑战。该方法结合了 Arweave 的去中心化存储和 AO 的超并行计算,以提供可验证和可信的 AI 推理结果,为更可靠和透明的 AI 应用铺平了道路。

受 aos-llama 和 opML 的启发,我们设计了 Apus Network,详细介绍如下。

1. aos-llama 介绍

Apus Network 的 Trustless GPU 解决方案,实现 AO 中的 Trustless AI

1. aos-llama 特性

aos-llama 的主要特性如下:

1.构建 AOS 镜像:

  • aos-llama 使用 llama2.c 推理引擎来构建 AOS 镜像,从而实现 AO 进程中的完全链上执行。

2.提供 Lua 接口:

  • 它提供了一个 Lua 接口,可以从 Arweave 加载 Llama 模型并生成文本。

3.包含转换工具:

  • aos-llama 包含将模型转换为 llama2.c 格式并发布到 Arweave 的工具。

4.提供综合工具集:

  • 它提供用于构建 AOS 镜像、转换模型和发布到 Arweave 的工具。

这些特性使 aos-llama 能够高效地在 AO 上执行 AI 推理。

2. 技术架构图

Apus Network 的 Trustless GPU 解决方案,实现 AO 中的 Trustless AI

aos-llama 的技术架构可以分为以下几个主要部分:

1.Llama AO 进程:

在 AO 环境中,Llama AO 进程负责运行 Llama 模型。

2.AOS.wasm:

这是一个发布到 Arweave 的 WebAssembly 模块。它使用 emcc-lua 工具构建。

3.构建 Docker:

  • 构建过程在 Docker 容器中进行,使用 emcc-lua 生成 AOS.wasm。
  • 容器包括必要的源代码和构建脚本,如 llama-run.cpp、llama.lua、emcc_lua_lib 和 main.lua。

4.模型转换和发布:

  • 使用特定工具将模型转换为适当的格式并发布到 Arweave。
  • 转换后,模型文件存储在 Arweave 上,准备由 AO 进程加载使用。

5.Arweave:

  • Arweave 作为一个去中心化存储平台,存储 AOS.wasm 和模型文件。
  • AO 从 Arweave 加载 AOS.wasm 和模型文件以执行AI推理任务。

详细过程:

预构建:

  • 在 Docker 构建容器中,预构建步骤包括编译 llama-run.cpp 生成 llama-run.o 并从 GitHub 仓库获取 libllama.a。

构建 AOS.wasm:

  • 使用 emcc-lua 工具,将预构建的 llama-run.o 和 libllama.a 结合生成最终的 AOS.wasm 文件。

发布到 Arweave:

  • 生成的 AOS.wasm 和模型文件发布到 Arweave,供 AO 使用。

加载和执行:

  • AO 从 Arweave 加载 AOS.wasm 和模型文件并执行 AI 推理任务。这实现了链上 AI 模型调用和可验证的 AI 推理结果。

这种架构确保了 AI 模型和推理过程的去中心化存储和验证,增强了系统的安全性和可靠性。

2. 什么是 Trustless AI?

Trustless AI 是指一个框架或系统,其中 AI 推理的结果是可信和可验证的,无需依赖中央权威或中介机构。这个概念确保 AI 模型的预测和输出是透明的、防篡改的,并且可以被任何一方独立验证。

Apus Network 的 Trustless GPU 解决方案,实现 AO 中的 Trustless AI

opML(Optimistic Machine Learning on Blockchain)是一种创新方法,它使用类似于乐观汇总系统的交互式欺诈证明协议,使区块链系统能够执行 AI 模型推理。基于 AO 和 Arweave 的架构,这可以很容易地实现。

3. Apus Network 的 Trustless GPU 解决方案,实现 AO 中的 Trustless AI

AO 的主要焦点是使用 WASM(WebAssembly)运行进程(智能合约),这些进程在 CPU 上执行,以提供确定性的计算结果。这种确定性对于智能合约的可验证性至关重要。

然而,基于 GPU 的计算是非确定性的,对传统区块链平台构成挑战。由于 Apus Network 并非专门为智能合约设计,因此它不需要被 WebAssembly(Wasm)的设计限制用于 AI 推理。基于 SCP 的设计,它可以在 AO 上实现 Trustless AI 的目标。

Apus Network 的 Trustless GPU 解决方案,实现 AO 中的 Trustless AI

利用 AO 的超并行计算,Apus Network 的 Trustless GPU 网络被设计为安全、高效和可扩展的 AI 推理解决方案,为 Arweave 中的 AI 提供必要的计算能力,同时满足 Trustless AI 的三大支柱:GPU 完整性、AI 模型可信度和可验证的推理结果。该图提供了关键组件及其交互的概述。

组件和工作流程:

1.Apus AO 进程:

  • 使用 AI 模型或 AI DApp 的 AO 进程开发人员可以开发他们希望的推理提示,并方便地从 Apus Network 官方文档中的支持模型目录中查询指定模型。这会触发一个 Apus AO 进程。AO 管理数据传输以及 AO 进程与 AI 模型之间的连接。

2.Arweave 存储:

  • AI 模型存储在 Arweave 上,确保这些模型的不可变性和可用性。
  • 每个存储在 Arweave 上的 AI 模型都有一个唯一的 ID,以便高效查询。这些模型通过 Ar.io 网关浏览器选择的网关从 GPU 网络发布到 Arweave 上。

3.GPU 网络:

  • Apus Network 利用具有已建立完整性的 GPU 网络执行 AI 推理任务。
  • 这些 GPU 通过 DePHY DID(去中心化物理设备标识)进行识别和管理,确保计算由受信任的硬件执行。
  • Apus Network 基于 SCP 设计,确保所有程序、消息、AI 模型和日志都存储在 Arweave 上,保持结果的可信性和可验证性。

4.推理请求和结果验证:

  • 该过程始于来自 AI DApp 或 AO 进程的推理请求,指定输入和模型 ID。
  • Apus AO 进程管理数据传输,从 Arweave 查询指定模型。
  • AI 推理在 GPU 网络上执行,结果返回给 Apus AO 进程。

5.安全性和可信性:

  • 基于 SCP(基于存储的共识范式)的设计和 opML 的验证原则,实施 AI 推理结果变得非常简单。
  • Apus Network 的设计基于 SCP,保证所有程序、消息、AI 模型和日志都存储在 Arweave 上,保持 AI 过程的可信性和可验证性。

6.成本管理:

  • 计算成本由用户管理,他们可以自行执行计算或选择特定的网络节点执行。
  • 这种灵活性允许用户优化其成本和性能需求。

结论

Apus Network 通过其 Trustless GPU 解决方案,为在 AO 生态系统中实现 Trustless AI 提供了一个强大的框架。通过结合 Arweave 的去中心化存储与 GPU 网络的完整性,Apus Network 确保 AI 推理结果是可验证、可信和透明的。这种创新方法不仅增强了 AI 应用的可靠性,还为各种去中心化平台中的 AI 集成提供了更安全和高效的途径。