登录
首页 >  文章 >  python教程

使用强化学习和线性 Q 网络掌握贪吃蛇游戏(使用 Python)

来源:dev.to

时间:2024-10-18 18:28:02 214浏览 收藏

“纵有疾风来,人生不言弃”,这句话送给正在学习文章的朋友们,也希望在阅读本文《使用强化学习和线性 Q 网络掌握贪吃蛇游戏(使用 Python)》后,能够真的帮助到大家。我也会在后续的文章中,陆续更新文章相关的技术文章,有好的建议欢迎大家在评论留言,非常感谢!

使用强化学习和线性 Q 网络掌握贪吃蛇游戏(使用 Python)

人工智能 (AI) 从最初的概念阶段已经走过了很长的路。强化学习 (RL) 世界是人工智能最迷人的子领域之一,智能体通过与环境交互来学习,以最大化累积奖励。强化学习的真正魅力在于它的试错学习能力,这与传统的基于规则的编程形成鲜明对比。在本文中,我们将探讨如何使用强化学习来教机器玩经典的贪吃蛇游戏,这是一项需要规划、策略和适应性的任务。

我们进行此探索的主要工具是线性 Q 网络 (LQN),这是一种为实现 Q 学习(一种流行的 RL 技术)而构建的神经网络架构。我们将介绍整个过程,从设置环境、训练代理,到最后将所有内容集成到自学习贪吃蛇游戏 AI 中。

贪吃蛇和人工智能的基础知识
在深入研究强化学习之前,我们先来分析一下贪吃蛇游戏及其带来的挑战。贪吃蛇游戏是一款简单的街机风格游戏,其中一条蛇在网格中连续移动。玩家的任务是引导蛇吃食物并避免撞到墙壁或自己的身体。每吃掉一次食物,蛇就会变得更长,并且随着空间变得更紧,挑战也随之增加。

教 AI 智能体玩贪吃蛇很困难,因为它要求智能体:

  • 避免自我碰撞。
  • 有策略地导航到食物。
  • 处理环境不断变化的动态游戏状态。

这就是强化学习的闪光点。通过对代理的良好行为(例如吃食物)给予奖励以及对错误(例如撞墙)进行惩罚,代理可以学习玩游戏的最佳策略。

什么是强化学习?
强化学习是一种机器学习,其中代理与环境交互,做出决策(行动),并根据这些决策接收反馈(奖励或惩罚)。随着时间的推移,智能体的目标是通过调整其行为来最大化累积奖励。

在强化学习中,代理不断遵循循环:

  • 观察状态:代理从环境中收集信息。
  • 选择一个操作:根据状态,代理决定最佳的操作方案。
  • 执行操作:代理执行操作并移动到新状态。
  • 接收反馈:代理根据操作的结果收到奖励或惩罚。

代理的目标是学习最优策略,即从状态到动作的映射,以最大化长期累积奖励。对于蛇来说,智能体的状态包括蛇的位置、食物位置和蛇前进的方向。它的动作很简单(左转、右转或直行),但游戏动态使其成为一项不平凡的任务。

Q-Learning:我们代理的基础
Q-Learning 是一种离策略 RL 算法,其中代理学习 Q 值函数,该函数估计在特定状态下采取操作的价值。 Q 值本质上代表了智能体可以从该操作中期望的未来奖励,并且随着时间的推移,智能体通过调整这些 Q 值来改进其预测。

Q 值函数使用贝尔曼方程更新:

Q_new(状态, 动作) = 奖励 + gamma * max(Q_next_state(all_actions))

地点:

  • 奖励是代理采取行动后立即获得的奖励。
  • gamma 是决定未来奖励价值的折扣因子。
  • max(Q_next_state) 是考虑所有可能的操作后,下一个状态的最大预期奖励。

通过根据经验迭代更新 Q 值,代理可以了解哪些操作从长远来看会带来更好的结果。

线性 Q 网络 (LQN):用于 Q 学习的神经网络
Q-Learning 的原始形式使用 Q-table,将状态映射到操作。然而,随着状态空间的增长(例如,蛇的许多可能位置),由于内存和计算的限制,维护 Q 表变得不切实际。这就是线性 Q 网络 (LQN) 的用武之地。

LQN 使用神经网络近似 Q 值函数。我们有一个模型,它以状态作为输入并输出每个可能动作的 Q 值,而不是 Q 表。该网络使用反向传播进行训练,最大限度地减少预测 Q 值与实际目标 Q 值之间的差异。

线性 Q 网络的架构
贪吃蛇游戏的线性 Q 网络具有简单的架构:

输入层:它接受游戏的状态表示,其中包括蛇的位置、方向、食物的位置和潜在危险(墙壁或蛇自己的身体)等详细信息。
隐藏层:全连接层,从输入状态学习抽象特征。
输出层:输出每个可能动作的 Q 值(左转、右转或继续前进)。选择 Q 值最高的动作作为下一步。

网络使用 ReLU 激活函数为模型添加非线性,使其能够学习状态和最佳动作之间的复杂关系。

贪吃蛇游戏环境
Snake 游戏环境是使用 Pygame 构建的,Pygame 是一个流行的游戏开发 Python 库。游戏处理蛇的运动,检测碰撞(与墙壁或蛇本身),随机放置食物,并检查游戏结束条件。

环境中的关键功能包括:

  • 移动蛇:根据当前动作向前移动蛇。
  • 放置食物:将食物放置在网格上的随机位置。
  • 检查碰撞:确定蛇是否撞到了墙壁或自己的身体。

游戏不断更新,为代理提供新的状态,然后代理选择下一步行动。通过在这个动态环境中进行训练,代理可以改善其决策。

训练代理
为了训练代理,我们使用重播内存和批量训练机制。在每个时间步,代理的经验(状态、行动、奖励、下一个状态)都存储在内存中。在每个训练步骤中,都会对一批随机经验进行采样,并使用这些过去的经验来训练网络。

此方法通过减少连续经验之间的相关性来帮助稳定训练,并使代理能够从各种游戏情况中学习。

训练过程遵循以下步骤:

  • 观察游戏当前的状态(蛇的位置、食物、危险)。
  • 使用 LQN 模型预测可能操作的 Q 值。
  • 选择一个动作:代理要么利用其知识(选择具有最高 Q 值的动作),要么根据探索-利用权衡探索新动作(随机选择)。
  • 执行动作,移动蛇,观察奖励。
  • 将经历储存在记忆中。
  • 通过采样一批过去的经验并更新网络的权重来训练模型。

重复此过程,直到智能体精通游戏。

可视化代理的进度
为了跟踪智能体的学习进度,我们绘制了游戏得分和得分随时间的移动平均值。随着智能体的进步,它的生存时间会更长,吃的食物会更多,得分也会增加。您可以使用 Matplotlib 实时可视化训练结果。

修改和集成代理
该项目可以轻松修改和扩展。您可以尝试不同的神经网络架构,调整奖励结构,甚至创建新的游戏规则来增加挑战。此外,经过训练的代理可以集成到各种应用程序中,例如手机游戏或人工智能竞赛。

结论
强化学习是一个强大的工具,使智能体能够从与环境的交互中学习。通过将强化学习应用于贪吃蛇游戏,我们创建了一个能够高水平玩该游戏的自学习人工智能。从 Q-Learning 到线性 Q-Networks 的旅程提供了关于如何将神经网络与 RL 相结合来解决复杂任务的见解。

对于任何对强化学习、游戏人工智能或神经网络感兴趣的人来说,这个项目都是一个很好的起点。代码可以轻松扩展,并且学习过程可以应用于其他游戏或现实世界的问题。

源代码
您可以使用以下链接从 GitHub 下载 Python 源代码:源代码

参考
强化学习的贪吃蛇游戏

今天关于《使用强化学习和线性 Q 网络掌握贪吃蛇游戏(使用 Python)》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

声明:本文转载于:dev.to 如有侵犯,请联系study_golang@163.com删除
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>