英雄联盟(LOL)是一个经典的MOBA游戏,自2009年发布以来就一直受到全球球员的欢迎,因为它具有深奥的战术性和激烈的竞争性。 每场比赛都需要你的战术游戏,以发挥丰富多样的英雄角色、良好的团队合作和强烈刺激的游戏气氛。
德文作为LOL中最难操作的操作员之一,是一个ADC(一个由身体伤害主导的远程输出角色 ) 。 在一件衣服中,一位球员被认为是最强壮的德文(Devon),他是一个红锚,泰勒·斯坦坎普(Tyler Steinkamp ), 他可能更熟悉Tyler1这个名字。 他在Twitch上有5 313万追随者,他的名声甚至跟Faker不一样。
Tyler1 现场截图
2016年,他因恶意言辞和针对其他玩家的头顶行动而被禁止。 在禁令期间,他转向了其他游戏和内容创作,并继续在Twitch上提升个性。 2018年,在与Riot的合作和行为得到改善之后,他了解到禁令,重新启动了视频游戏,并迅速恢复了他的高知名度。
如果他是你的LOL教练,你认为你可以赢得比赛吗?这不是一个主意,这是现实。Tyler1在X平台上写道 : “ 我把自己变成一个AI伙伴, 让你在英雄联盟中更强大! ” 。 而这需要后座AI来做这一切。 后座AI是一个免费LOL AI组合。 在游戏中, 它会为玩家提供实时游戏评论和建议, 包括购买设备和线对线策略的建议。 不管你是新还是新, 后座AI可以帮助你提升游戏经验, 并使它更快地运作。 它已经被Riot正式接受, 因此不需要禁止数字 。
泰勒1 显示后座AI 的能力, 在发行的视频中, 它使用他自己的声音。让我们看看泰勒1是如何违背他自己的AI的。
后座 AI 优化后座 AI, 以尽量减少对游戏性能的影响, 确保游戏经验在使用期间仍然平稳。 后座 Buddy 和游戏后大厅功能现已在后座左手应用程序中可用 。 Backseat 左手应用程序, Backseat 显示, 实时问答、游戏前建议和更多全球创作者的声音将在未来启动 :
Buddy可以通过Tyler1的语音和界面覆盖提供实时评论和见解,包括采购建议和线到线战略,而竞争仍在进行中。
游戏后前厅允许您在比赛结束后访问 PGL 页面, 获取游戏的详细摘要, 包括每个玩家的优势、 改进点和亮点 。
据后座说,自2024年初以来,泰勒1和他的团队一直在努力建立LOL的最终伙伴应用程序。 这样,他们想成为提高联盟水平和让每个游戏都有趣的最佳方法。 后座AI处于早期阿尔法阶段,他们提供两个等级,即每月低层高级成员4.99美元。
候选人名单链接:https://www.backseat.gg/join-waitlist
虽然泰勒1打得很好, 外面的LOL球员不想买钱:他们认为新手也许应该提醒他们, “30秒后,你们要和龙战斗, 捡起闪光和大动作。” 并且“你们的经济现在比对方高, 你们应该有足够的侵略力来侵略相反的球场。” 但是,对于高级球员来说, 玩球游戏太快了, 对于高级球员来说,游戏意识已经是内部化的成本了, 不需要AI提醒他们。
其他人质疑使用软件来实时跟踪每个英雄的状态。 此外,为了赢得像LOL这样的MOBA游戏,需要宏观决策,当集体战斗发起时,当队友被卖掉时,需要充分了解整个战斗,但后座AI没有判断能力。
但早在2018年,AI让人类在另一场经典的MOBA游戏, Dota 2. OpenAI Five中输掉。 在OpenAI, OpenAI Five中, 击败了世界冠军军OG, 得分为2:0。
?
?
根据当时OpenAI的公开培训细节,OpenAI Five99.9 % 成功率的99.9 %, 是因为10个实时月积累了相当于45,000年的游戏经验,平均每天有250年的模拟经验。 与拥有丰富的人才、算术和资源的OpenAI相比,Tyler1和他的新开办公司很难从拳击游戏中获取实际人员培训数据。 也就是说,让他们获得大量培训数据,在短时间内缺乏足够的算术资源来大幅提升模型的游戏水平。
在后座之前,多模范的AI游戏助理已经是主要技术公司宝藏的轨道。 三天前,英国Weida的创始人王仁勋首席执行官王仁勋在2024年的COPOPUTEX科技大会G-Assist项目上发布了自己的“游戏集 ” 。 在RTX的驱动下,G-Assist能够看到玩家的当前游戏状态,并在G-Assist项目的帮助下,在他想要打开的宝箱之一(G-Assist项目 ), 与游戏的知识库连接。
在你的演示文稿的英文版中,当你第一次进入方舟:生存演变时,你需要找到设备,选择在最初阶段最有价值的武器,并询问G-Assist项目,如果遇到恐龙、躲避或驯服,G-Assist项目可以完全帮助你度过新的阶段,没有痛苦。
在今年的微软建设2024开发者大会之前, 副驾驶(GPT-4o)升格为GPT-4o, 玩《我的世界》, 是一个巨大的惊喜。 它可以告诉你如何建造,如何避免僵尸。 它不需要看录像, 它就像一个老手教书的老手一样。
事实上,大型模型学会像LOL那样玩游戏。 这个游戏是AI的极好的训练试验场。 在一场对一场游戏中,AI必须用复杂的策略来应对,这需要高效的分类、精确的决策和强大的自我优化。 游戏中有明确的激励和点,可以让研究人员进一步评估和适应。
除了大型技术工厂之外,AI对游戏的理解也得到了加强,许多开发商正在尝试跳跃。 当OpenAI刚刚推出第一个多模型大型模型时,GPT-4V(GPT-4V ), X平台(前Twitter)博客@pwang_szn 晒黑了他自己的OpenAI 视觉API 解释LOL, 该演示使用了一个LNG和T1之间的竞争视频,这产生了超过50万在线用户的观众观看。
实现进程分为七个步骤:
提取视频框架; 构建描述提示; 发送 GPT 请求; 生成语音语音提示; 生成语音脚本; 将脚本转换为音频; 将音频与视频相结合 。
在这样复杂的一步之后,我们只能解释游戏后视频,我们无法实时完成。仅在过去6个月里,没有7个步骤,大模型本身就能够一步一步地实现,甚至超越了实时解释的能力,成为你的智力伙伴。看起来,几个月后,我们也许能看到人工智能玩家在LPL球场上的表现。
注册有任何问题请添加 微信:MVIP619 拉你进入群
打开微信扫一扫
添加客服
进入交流群
发表评论