本站报道:

英伟达的 Rubin 芯片正在将人工智能转化为廉价的基础设施。正因如此,像 比特张量 这样的开放式智能市场开始变得重要起来。

英伟达利用 CES 2026 展会预示着人工智能运行方式的重大转变。该公司并未率先推出消费级 GPU,而是发布了 Rubin,一个机架级 AI 计算平台,旨在让大规模推理更快、更便宜、更高效。

鲁宾将人工智能转化为工业基础设施

英伟达在CES上的发布会清楚地表明,它已经不再销售……单个芯片它出售人工智能工厂。

鲁宾是英伟达的下一代数据中心这是继 Blackwell 之后推出的平台。它将新型 GPU、高带宽 HBM4 内存、定制 CPU 和超高速互连技术集成到一个紧密结合的系统中。

与前几代产品不同,Rubin 将整个机架视为一个单一的计算单元。这种设计减少了数据传输,提高了内存访问效率,并降低了运行大型模型的成本。

因此,它允许云提供商和企业以更低的单代币成本运行长上下文和推理密集型人工智能。

这一点很重要,因为现代人工智能工作负载不再像以前那样单一。聊天机器人他们越来越依赖许多规模较小的模型、代理商和专业服务机构进行实时通话。

降低成本改变了人工智能的构建方式

Rubin 通过降低推理成本并提高可扩展性,催生了一种新型的 AI 经济模式。开发者可以部署数千个经过精细调优的模型,而不是一个庞大的单体应用。

企业可以运行基于代理的系统,这些系统使用多种模型来执行不同的任务。

然而,这又带来了一个新的问题。一旦人工智能变得模块化且应用广泛,就必须有人决定由哪个模型来处理每个请求。必须有人来衡量性能、管理信任关系并处理支付。

云平台可以托管模型,但它们不提供中立的模型交易市场。

Bittensor 正好可以填补这个空白。

Bittensor它不出售计算能力。它运行一个去中心化网络,人工智能模型在其中竞争以提供有用的输出。该网络使用链上性能数据对这些模型进行排名,并以它的原生代币 TAO 支付报酬。

每个 Bittensor 子网都像一个市场,专门交易特定类型的智能,例如文本生成、图像处理或数据分析。表现优异的模型获得更多份额,而表现不佳的模型则会失去影响力。

随着模型数量的增加,这种结构的价值也越来越高。

为什么英伟达的鲁宾让Bittensor的模型变得可行?

Rubin 与 Bittensor 并不竞争。它生产Bittensor的经济模型大规模工作。

随着英伟达降低人工智能运行成本,越来越多的开发者和公司能够部署专用模型。这就更加需要一个中立的系统,用于跨云和组织对这些模型进行排名、选择和付费。

Bittensor 提供了这样一个协调层。它将海量的 AI 服务转化为一个开放、竞争的市场。

英伟达掌控着人工智能的物理层:芯片、内存和网络。鲁宾通过降低人工智能的运行成本和加快运行速度,进一步强化了这种控制。

Bittensor 运行在上一层。它负责处理智能的经济效益,决定使用哪些模型以及给予哪些奖励。

随着人工智能向智能体群和模块化系统发展,经济层面的集中化变得越来越困难。

这意味着什么

Rubin 计划于 2026 年晚些时候推出,这将扩展数据中心和云端的 AI 容量。这将推动模型和代理数量的增长,从而竞争实际工作负载。

像Bittensor这样的开放网络将从这种转变中受益。它们并不会取代英伟达的基础设施,而是为其提供市场。

从这个意义上讲,鲁宾并没有削弱去中心化人工智能,而是为其提供了组织的目标。