2021 年时我还是一个 Axie Infinity 玩家,并且运营着一个小型奖学金公会。如果你未曾经历那个时代,让我来告诉你——绝对狂野。
Axie Infinity 这款游戏让人们意识到加密货币和游戏可以结合到一起。从本质上来说,这是一款简单的 Pokémon 风格的策略游戏,玩家需要组建一支由 3 名 Axie(非常凶猛的战士)组成的团队,每个 Axie 都拥有独特的能力。你可以带领自己的队伍对战其他队伍,通过参与游戏并获胜获得 SLP 代币奖励。
但真正让非游戏玩家感到兴奋的是通过游戏赚钱的潜力。Axie 的迅速崛起得益于两大机制:
第一个是 Breeding Axies。获取两个 Axie,使用 SLP 代币繁殖它们,就诞生了 voilà——一个新的结合原有的两个 Axie 独特能力的 Axie。于是这样稀有且强大的 Axies(游戏玩家称之为 OP Axies)成为了热门商品,一个繁忙的繁殖市场出现了。
第二个机制是奖学金项目。来自世界各地的企业玩家开始将 Axies 借给「学者」。这些玩家通常来自菲律宾或阿根廷等发展中国家,他们无法支付 1000 多美元的前期费用来购买 3 个 Axie NFT。学者们每天都在打游戏赚取代币,并与奖学金公会分享利润,公会通常会抽成 30-50%。
在其鼎盛时期,特别是在 2019 疫情期间,Axie 对发展中国家的当地经济产生了重大影响。在菲律宾(约 40% 的 Axie Infinity 用户都在那里),许多玩家的收入远高于最低工资。公会获利丰厚。
这就解决了游戏开发者的一个关键问题:玩家流动性。通过激励玩家每天花几个小时积极玩游戏,Axie 确保每个玩家都会有一个对手等在那里,让玩家体验更有吸引力。
但这是有代价的。
为了解决玩家的流动性问题,Axie 送出大量代币来激励玩家参与。故事从此处开始。由于 SLP 没有上限,代币疯狂膨胀,价格暴跌,生态系统崩溃。代币贬值,玩家就会离开。Axie 几乎在一夜之间从「玩赚」宠儿变成了一个警世故事。
但如果有一种方法可以解决玩家流动性问题,而不需要不可持续的代币经济学会怎样?
这正是 ARC / AI Arena 在过去三年里一直在默默努力的事情。现在,它开始开花结果了。
1、玩家流动性是命脉
玩家流动性是多人游戏的命脉,也是长期成功的关键。
许多 Web3 和独立游戏都面临着「冷启动」问题——玩家太少,无法快速配对或形成繁荣社区。他们没有游戏大厂所拥有的营销预算或自然的 IP 意识。这就会导致漫长的等待时间、无法配对以及较高的流失率等问题。
这些游戏通常都会慢慢地痛苦地消亡。
因此,游戏开发者必须从一开始就优先考虑玩家的流动性。游戏需要这样那样的活动来维持乐趣——国际象棋需要两名玩家,而大规模战斗需要数千名玩家。技能匹配机制进一步提高了门槛,需要更多玩家来保持游戏的公平性和吸引力。
对于 Web3 游戏来说,风险更大。根据 Delphi Digital 的年度游戏报告,Web3 游戏的用户获取成本比传统手机游戏高出 77%,这使得玩家留存率变得至关重要。
强大的玩家基础能够确保公平匹配、充满活力的游戏经济(即更多的道具买卖)以及更活跃的社交互动,从而让游戏变得更有趣。
2、ARC——AI 游戏先锋由 ArenaX Labs 开发的 ARC 正在引领 AI 在线游戏体验的未来。简而言之,他们使用 AI 来解决困扰新游戏的玩家流动性问题。
如今游戏内大多数 AI 机器人的问题就在于它们太差劲了。一旦你花几个小时掌握了窍门,这些机器人就会变得非常容易被打败。它们是为了帮助新玩家而设计的,但却不能为经验丰富的玩家带来太多挑战或粘性。
想象一下,AI 玩家的技能可以与顶级人类玩家相媲美。想象一下,可以在任何时间、任何地点与它们对抗,而无需等待配对。想象一下,训练你的 AI 玩家模仿你的游戏风格,拥有它,并通过其表现赚取奖励。
这对玩家和游戏公司来说都是双赢的。
游戏公司使用类似人类的 AI 机器人来让游戏大受欢迎,提高玩家流动性,改善用户体验,提高留存率——这是新的游戏后来者在竞争激烈的市场中生存的关键因素。
玩家获得了一种参与游戏的新方式,在训练 AI 并与其对抗的过程中建立了更强烈的归属感。
让我们来看看他们是怎么做的。
3、产品和架构
母公司 ArenaX Labs 正在开发一系列产品来解决玩家流动性问题。
现有产品:AI Arena,一款 AI 格斗游戏。
新产品:ARC B2B,一个 AI 驱动的游戏 SDK,可以很容易地集成到任何游戏中。
新产品:ARC 强化学习(RL)
(1)AI Arena:游戏
AI Arena 是一款能让人联想到任天堂的 Super Smash Bros 的格斗类游戏,各种各样古怪的卡通角色在竞技场中展开战斗。
但在 AI Arena 中,每个角色都是由 AI 控制的——你扮演的不是战士,而是他们的教练。你的任务是使用你的策略和专业知识来训练你的 AI 战士。
训练你的战士就像训练一个学生为战斗做准备。在训练模式中,你打开数据收集并创建战斗场景来对它们的动作进行微调。例如,如果你的战士离对手很近,你可以教它们用你的盾牌挡格,然后连击。如何远距离战斗?训练他们发动远程攻击。
你可以控制收集什么样的数据,确保只记录最好的动作用于训练。经过练习,你可以细化超参数,以获得更多的技术优势,或者简单地使用对初学者友好的默认设置。一旦训练完成,你的 AI 战士就可以参加战斗了。
万事开头难——训练一个有效的模型需要时间和实验。我的第一个战士好几次都从平台上掉了下来,并不是被对手击中掉下来的。但经过几次迭代后,我成功创建了一个表现良好的模型。看到你的训练得到了回报,是一件令人深感满足的事情。
AI Arena 通过 NFT 战士引入了额外的深度。每个 NFT 角色都有独特的外观特征和战斗属性,这些都会影响游戏玩法。这增加了另一个策略层。
目前,AI Arena 在 Arbitrum 主网上运行,并且只有那些有 AI Arena NFT 的人才可以访问,在完善游戏玩法的同时保持社区的排他性。玩家可以加入公会,聚集冠军 NFT 和 NRN 进行链上战斗排名,并获得奖励。这样做是为了吸引忠诚的玩家并推动竞争。
最终,AI Arena 是 ARC 的 AI 培训技术的展台。虽然这是他们进入生态系统的入口点,但真正的愿景远远超出了这款游戏自身。
(2)ARC:基础设施
ARC 是一个专为游戏设计的 AI 基础设施解决方案。
ArenaX 团队从头开始,甚至开发自己的游戏基础设施,是因为 Unity 和 Unreal 等现有解决方案无法满足他们的愿景。
三年多的时间里,他们精心设计了一个强大的技术栈,能够处理数据聚合、模型训练和模型检查,以进行模仿和强化学习。这种基础设施是 AI Arena 的支柱,但它的潜力要大得多。
随着团队不断完善他们的技术,第三方工作室开始找到 ARC,希望获得该平台的授权或白标签。认识到这一需求后,他们将 ARC 的基础设施形式化为 B2B 产品。
如今,ARC 直接与游戏公司合作,提供 AI 游戏体验。其价值主张是:
永久玩家流动性即服务
将 AI 玩法作为一个简单集成
永久玩家流动性即服务
ARC 专注于人类行为克隆——训练专门的 AI 模型来模仿人类行为。这与今天游戏中 AI 的主要用途不同,后者使用生成式模型来创建游戏资产,并使用 LLM 来驱动对话。
使用 ARC SDK,开发者可以创建类似人类的 AI 智能体,并根据游戏需求进行扩展。SDK 简化了繁重的工作。游戏公司可以在不处理复杂的机器学习的情况下引入 AI。
集成后,部署 AI 模型只需要一行代码,ARC 负责基础设施、数据处理、训练和后端部署工作。
ARC 采用与游戏公司合作的方式,帮助他们:
捕获原始游戏玩法数据,并将其转换为用于 AI 训练的有意义的数据集。
确定与游戏机制相关的关键玩法变量和决策点。
将 AI 模型输出映射到游戏内活动,确保功能顺畅——例如,将 AI 的「右击」输出与特定的游戏控制联系起来。
AI 是如何工作的?
ARC 针对游戏互动使用了四类模型:
前馈神经网络:适用于具有速度或位置等数值特征的连续环境。
表格代理:对具有有限离散场景的游戏尤为理想。
层次化和卷积神经网络正在开发中。
有两个与 ARC 的 AI 模型相关的互动空间:
状态空间定义了代理在任何给定时刻对游戏的了解。对于前馈网络,这是输入特征(如玩家的速度或位置)的组合。对于表格代理,这是代理在游戏中可能遇到的离散场景。
动作空间描述代理在游戏中可以做什么,从离散输入(如按下按钮)到连续控制(如操纵杆移动)。这会映射到游戏输入。
状态空间为 ARC 的 AI 模型提供输入,AI 模型处理输入并生成输出。随后这些输出通过动作空间转化为游戏动作。
ARC 与游戏开发者密切合作,以确定最关键的功能并相应地设计状态空间。他们还测试各种模型配置和大小,以平衡智能和速度,确保游戏操作顺畅,引人入胜。
据该团队称,Web3 公司对他们的玩家流动性服务的需求尤其高。这些公司为获得更好的玩家流动性而付费,ARC 将把这笔收入的很大一部分用于 NRN 代币回购。
将 AI 玩法带给玩家:训练师平台
ARC SDK 还让 web3 公司访问他们的游戏的训练师平台,允许玩家训练并提交代理。
与 AI Arena 一样,玩家可以设置模拟,获取游戏玩法数据并训练空白 AI 模型。这些模型会随着时间的推移而进化,在保留之前的知识的同时融入新的游戏玩法数据,不需要每次更新都从头开始。
这开启了令人兴奋的可能性:玩家可以在市场上出售他们定制训练的 AI 代理,创造一个新的游戏内经济层。在 AI Arena 中,技术娴熟的训练师可以组成公会,他们可以向其他公司提供训练技能。
对于那些完全集成代理功能的公司来说,Parallel Play(平行游戏)的概念也变得生动起来。AI 代理全天候可用,可以同时参与多个比赛或游戏实例。这就解决了玩家的流动性问题,并为用户粘性和收益创造了新的机会。
但这还不是全部……
(3)ARC RL:从一对一到多对一
如果说 AI Arena 和 ARC 训练师平台感觉像是单人模式(你可以在其中训练自己的 AI 模型),那么 ARC RL 就类似于多人模式。
想象一下:一整个游戏 DAO 汇集其玩法数据来训练一个共享 AI 模型,每个人都共同拥有该模型并从中受益。这些「主代理」代表了所有玩家的集体智慧,通过引入集体努力和战略合作推动的竞争来改变电竞。
ARC RL 使用强化学习(即「RL」)和众包人类游戏玩法数据来训练这些「超智能」代理。
强化学习的工作原理是奖励最优行为的代理。它在游戏中尤其有效,因为奖励功能是明确而客观的,如造成的伤害、获得的金币或胜利。
这是有先例的:
DeepMind 的 AlphaGo 在围棋比赛中击败了专业人类棋手,通过数百万场自生成的比赛训练,每次迭代都在完善自己的策略。
我之前没有意识到这一点,但早在 chatGPT 创建之前,OpenAI 就已经在游戏圈中广为人知了。
OpenAI Five 在 Dota 2 中使用强化学习碾压顶级人类玩家,并在 2019 年击败了世界冠军。它通过加速模拟和大量的计算资源掌握了团队合作等先进的策略。
OpenAI Five 每天运行数百万个游戏,相当于每天 250 年的模拟游戏,由 256 个 GPU 和 128,000 个 CPU 提供强大支持。通过跳过图形渲染,它大大加快了学习速度。
最初,该 AI 表现出不稳定的行为,比如漫无目的地闲逛,但很快就改善了。它掌握了一些基本策略,如在小路上匍匐以及盗资源,最终发展为复杂操作,如伏击。
强化学习的关键理念是,AI 代理通过经验学习如何取得成功,而不是被直接告知该做什么。
ARC RL 通过使用离线强化学习来使自己与众不同。AI 代理不是从自己的试错中学习,而是从别人的经验中学习。这就像是观看别人骑自行车视频的学生,观察他们的成功和失败,并利用这些知识来避免摔倒,更快地提高。
这种方法提供了一个额外好处:协作训练和模型的共同所有权。这不仅让强大的 AI 代理变得更加普及,也让玩家、公会和开发者的动机更加一致。
在「超智能」游戏代理的创建中,有两个关键角色:
赞助商:类似公会的带头人,他们质押大量 NRN 代币来启动和管理 RL 代理。赞助商可以是任何实体,但很可能是游戏公会、DAO、web3 社区,甚至是像 Luna 这样受欢迎的链上个性化代理。
玩家:质押少量 NRN 代币贡献其游戏玩法数据以训练代理的个人。
赞助商协调和指导他们的玩家团队,确保高质量的训练数据,使他们的 AI 代理在代理比赛中具有竞争优势。
奖励是根据超级代理在比赛中的表现来分配的。70% 的奖励归玩家所有,10% 归赞助商所有,剩下的 20% 归 NRN 金库所有。这种结构让所有参与者都有一致的激励机制。
数据贡献
你如何让玩家乐于贡献自己的游戏玩法数据?不容易的。
ARC 让提供游戏玩法数据变得简单而有益。玩家不需要专业知识,只要玩游戏就行了。在一个会话结束后,他们会被提示提交数据去训练一个特定代理。仪表板跟踪他们的贡献和他们支持的代理。
ARC 的归因算法通过评估贡献和奖励高质量、有影响力的数据来确保质量。
有趣的是,即使你是一个糟糕的玩家(像我一样),你的数据也是有用的。糟糕的游戏玩法可以帮助代理学习不该做什么,而技术高超的游戏玩法则可以教授最佳策略。冗余数据被过滤掉以保持质量。
简而言之,ARC RL 被设计成一种低摩擦的大众市场产品,以共同拥有超越人类能力的代理为中心。
4、市场规模ARC 的技术平台是多功能的,支持多种类型的游戏,如射击游戏、格斗游戏、社交赌场、赛车、卡牌交易游戏和 RPG。它是为那些需要保持玩家粘性的游戏量身定制的。
ARC 的产品主要针对两个市场:
ARC 主要关注的是独立开发者和公司,而不是老牌大厂。由于品牌影响力和分销资源有限,这些小公司通常很难在早期吸引玩家。
ARC 的 AI 代理通过从一开始就创造一个充满活力的游戏环境来解决这个问题,即使在游戏的初始阶段也能确保动态的游戏玩法。
这可能会让许多人感到惊讶,但独立游戏领域确实是游戏市场的主要力量:
Steam 上 99% 的游戏都是独立游戏。
2024 年,独立游戏在 Steam 上创造了总收入的 48%。
另一个目标市场是 Web3 游戏。大多数 Web3 游戏都是由新兴公司开发的,它们也面临着这样那样的独特挑战,如钱包登录、加密质疑和高昂的用户获取成本。这些游戏通常存在玩家流动性问题,AI 代理可以填补空白,保持游戏的吸引力。
虽然 Web3 游戏最近因为缺乏吸引人的体验而举步维艰,但正在显现复苏迹象。
例如,最早的 AAA 级 Web3 游戏之一 Off the Grid 最近取得了早期主流成功,首月就有 900 万个钱包进行了 1 亿笔交易。这为该行业获取广泛成功铺平了道路,为 ARC 创造了支持这一复兴的机会。
5、ARC 团队ArenaX Labs 背后的创始团队拥有丰富的机器学习和投资管理专业知识。
首席执行官兼首席技术官 Brandon Da Silva 曾在一家加拿大投资公司主导机器学习研究,专注于强化学习、Bayesian 深度学习和模型适应性。他率先开发了以风险平价和多资产组合管理为中心的 10 亿美元量化交易策略。
首席运营官 Wei Xie 在同一家公司管理着 70 亿美元的流动性策略投资组合,并主持其创新投资项目,专注于 AI、机器学习和 Web3 技术等新兴领域。
ArenaX Labs 在 2021 年获得了 500 万美元的种子轮融资,由 Paradigm 领投,Framework ventures 参投。该公司在 2024 年 1 月获得了 600 万美元的融资,由 SevenX Ventures、FunPlus / Xterio 和 Moore Strategic Ventures 领投。
6、NRN 代币经济学——一次健康的改革
ARC/AI Arena 有一个代币——NRN。让我们先来盘点一下如今的情况。
考察供给侧和需求侧将使我们更清楚地了解趋势走向。
(1)供给侧
NRN 的总供应量为 10 亿,其中约 4.09 亿(40.9%)处于流通中。
在撰写本文时,该代币价格为 0.72 美元,这意味着市值为 2900 万美元,完全稀释后估值为 7100 万美元。
NRN 于 2024 年 6 月 24 日发布,40.9% 的流通供应来自:
社区空投(占总数的 8%)
基金会金库(占 10.9%,其中有 2.9% 已解锁,36 个月线性解锁)
社区生态系统奖励(占 30%)
大部分流通供应(40.9% 中的 30%)由社区生态系统奖励组成,项目管理这些代币并将其战略性地分配给质押奖励、游戏奖励、生态系统增长计划和社区驱动计划。
解锁时间表令人放心,短期内没有重大事件:
下一个解锁是基金会的 OTC 销售(1.1%),从 2024 年 12 月开始,12 个月线性解锁。这只会使月通胀率增加 0.09%,不太可能引起重大担忧。
投资者和贡献者的分配(总供应量的 50%)要到 2025 年 6 月才开始解锁,即使到那时,也会在 24 个月内进行线性解锁。
目前,抛售压力预计仍将相当可控,主要源于生态系统奖励。关键是信任团队有能力战略性地部署这些资金,以推动协议的增长。
(2)需求侧
NRN v1——玩家经济
最初,NRN 被设计为与 AI Arena 游戏经济相关联的战略资源。
玩家将 NRN 押在 AI 玩家身上,如果它们赢了就会获得奖励,如果输了就会失去部分质押。这创造了一种直接利益相关的动态,将其转变为一项竞技运动,并为熟练的玩家提供经济激励。
奖励使用 ELO 系统进行分配,确保基于技能的平衡支付。其他收益来源还包括游戏道具购买、装扮升级和比赛入场费。
最初的代币模式完全依赖于游戏的成功以及不断有新玩家愿意购买 NRN 和 NFT 参与到游戏中来。
下面来说一下我们为何如此兴奋……
NRN v2——玩家&平台经济
NRN 改进的 v2 代币经济学通过将代币的效用从 AI Arena 扩展到更广泛的 ARC 平台,引入了强大的新需求驱动因素。这种演变将 NRN 从特定游戏代币转变为平台代币。在我看来,这是非常积极的转变。
NRN 的三个新需求驱动因素包括:
来自 ARC 集成的收入。集成 ARC 的游戏公司将通过集成费用和与游戏表现挂钩的持续版税为金库创造收益。金库资金可以推动 NRN 回购,发展生态系统,并激励训练师平台上的玩家。
训练师市场费用。NRN 从训练师场的收费中获取价值,玩家可以在训练师市场上交易 AI 模型和游戏玩法数据。
参与 ARC RL 的质押:赞助商和玩家都必须质押 NRN 才能加入 ARC RL。随着越来越多的玩家进入 ARC RL,对 NRN 的需求也相应增加。
尤其令人兴奋的是游戏公司的收益。这标志着从纯粹的 B2C 模式向 B2C 和 B2B 混合模式的转变,创造了 NRN 经济的持续的外部资本流入。随着 ARC 拥有更广阔的目标市场,这种收益流将超过 AI Arena 本身所能产生的收益。
训练师市场的费用虽然有前景,但取决于生态系统能否达到临界规模——足够多的游戏、训练师和玩家来维持活跃的交易活动。这是一个长期事业。
在短期内,ARC RL 质押可能是最直接和最具反射性的需求驱动因素。资金充足的初始奖励池和新产品发布的兴奋可能会引发早期采用,推高代币价格并吸引参与者。这就形成了需求上升和经济增长的反馈循环。然而,反过来看,如果 ARC RL 难以维持用户粘性,需求可能会很快消失。
网络效应的潜力是巨大的:更多游戏→更多玩家→更多游戏加入→更多玩家。这种良性循环可以将 NRN 定位为 Crypto AI 游戏生态系统中的核心代币。
7、游戏 AI 模型之母结局是什么?ARC 的优势在于它能够推广各种游戏类型。随着时间的推移,让他们能够收集到独一无二的特定游戏玩法数据库。随着 ARC 与更多游戏的集成,它可以不断地将这些数据反馈到自己的生态系统中,从而创造一个增长和完善的良性循环。
一旦这个横断面游戏数据集达到临界质量,它将成为一个非常有价值的资源。想象一下,利用它来训练游戏开发的通用 AI 模型——为大规模设计、测试和优化游戏开启新的可能性。
现在还为时尚早,但在数据就是新石油的人工智能时代,这方面的潜力是无限的。
8、我们的想法NRN 演变为平台游戏——代币重定价
随着 ARC 和 ARC RL 的发行,该项目不再只是一个单一产品的游戏公司,它现在将自己定位为一个平台和 AI 游戏。这一转变应该会导致 NRN 代币的重新评级,在这之前 NRN 代币受限于 AI Arena 的成功。通过 ARC RL 引入新的代币源,再加上与游戏公司的收入分成协议和训练师交易费的外部需求,为 NRN 的效用和价值创造了更广泛、更多样化的基础。
成功与游戏合作伙伴密切相关
ARC 的商业模式将其成功与它合作的公司联系在一起,因为收益流是基于代币分配(在 Web3 游戏中)和游戏版税的支付。与之紧密结合的游戏值得一看。
如果 ARC 游戏获得巨大成功,那么由此产生的价值将回流到 NRN 持有者手中。相反,如果合作游戏陷入困境,价值流将受到限制。
期待与 Web3 游戏的更多集成
ARC 平台非常适合 Web3 游戏,在 Web3 游戏中,具有激励机制的竞争玩法与现有的代币经济完美结合。
通过集成 ARC, Web3 游戏可以立即进入「AI 代理」叙事。ARC RL 将社区聚集在一起,激励他们朝着共同的目标前进。这也为创新机制开辟了新的机会,比如让「游戏到空投」等活动更吸引玩家。通过将 AI 和代币激励相结合,ARC 增加了传统游戏无法复制的深度和兴奋度。
AI 玩法有一个学习曲线
AI 玩法有陡峭的学习曲线,这可能会给新玩家带来摩擦。我花了一个小时才弄清楚如何在 AI Arena 中正确训练我的玩家。
然而,ARC RL 的玩家体验摩擦更小,因为当玩家玩游戏并提交数据时,AI 训练是在后端处理的。另一个悬而未决的问题是,当玩家知道自己的对手是 AI 时,他们会有什么感觉。这对他们有影响吗?会增强还是削弱游戏体验?只有时间才能告诉我们答案。
9、光明的未来AI 将在游戏世界中开启全新的突破性体验。
Parallel Colony 和 Virtuals 等团队正在推动自主 AI 代理的发展,而 ARC 则通过专注于人类行为克隆来开拓自己的利基市场——提供一种创新方法来解决玩家流动性挑战,而不依赖不可持续的代币经济学。
从游戏到成熟平台的转变对 ARC 来说是一个巨大的飞跃。这不仅通过与游戏公司的合作开启了更大的机遇,也重构了 AI 与游戏的集成方式。
凭借其改进的代币经济学和强大网络效应的潜力,ARC 的光明之路似乎才刚刚开始。
,免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com