游戏辅助 -- 走路call中ecx值分析

简介: 游戏辅助 -- 走路call中ecx值分析

一、上节课找到了走路call,进call里面,有个ecx的值,直接拿来用了,所以要找ecx的来源


0a2653c851af460fa595bd959398a8f1.png 0eacb84100b54626af849e6b562bf92a.png


二、在函数头部下断,走路,让程序断下来,在堆栈窗口按回车,跳转到来源


2d65d23f6d4748949b924e4057485923.png


三、ecx来自ebx,继续往上找ebx来源


2e9b90b2ca334476abebe75bafe6eeaa.png


四、ebx来自eax,eax来自call 4d4db0,push ebx,下面有个pop ebx,下面正好有5个参数和add esp,14平栈


4cebaac233b3433da32a72337a77fc60.png


五、进call,里面有fs:[2C],运行汇编代码的时候必须在挂在主线程


6de278e6d6694ce5bb08e7e842b7e74b.png

目录
相关文章
|
10月前
游戏辅助 -- DLL窗口实现人物走动
游戏辅助 -- DLL窗口实现人物走动
41 0
|
10月前
|
算法 机器人 Python
动态规划法在扫地机器人中的实战应用(基于动作值函数的策略迭代 python 附源码)
动态规划法在扫地机器人中的实战应用(基于动作值函数的策略迭代 python 附源码)
114 0
|
10月前
|
机器学习/深度学习 算法 Python
动态规划法和策略迭代在扫地机器人中确定状态值和动作值函数的策略评估(python实现 附源码 超详细)
动态规划法和策略迭代在扫地机器人中确定状态值和动作值函数的策略评估(python实现 附源码 超详细)
100 0
|
2月前
|
机器学习/深度学习 人工智能 算法
《一文读懂!Q-learning状态-动作值函数的直观理解》
Q-learning算法是强化学习领域的核心,广泛应用于机器人控制、游戏AI和自动驾驶等领域。其关键在于理解状态-动作值函数(Q值),即智能体在特定状态下采取某动作的长期价值评估。通过不断与环境交互,智能体根据奖励信号更新Q值,逐步优化行为策略,最终实现累积奖励最大化。掌握Q值计算及其更新机制,是深入理解强化学习的基础,也是设计高效AI系统的关键。
100 25
文本,好看的设计------我独自升级,六芒星技能表,可以用来判断是否在能力值之内的事情,使用六芒星可以显示能力之内,能力之外的事情,用以判断
文本,好看的设计------我独自升级,六芒星技能表,可以用来判断是否在能力值之内的事情,使用六芒星可以显示能力之内,能力之外的事情,用以判断
文本,好看的设计------我独自升级,六芒星技能表,可以用来判断是否在能力值之内的事情,使用六芒星可以显示能力之内,能力之外的事情,用以判断
|
9月前
游戏辅助 -- 三种分析角色坐标方法(CE、xdbg、龙龙遍历工具)
游戏辅助 -- 三种分析角色坐标方法(CE、xdbg、龙龙遍历工具)
241 0
|
9月前
|
Linux iOS开发 MacOS
【随手记】maplotlib.use函数设置图像的呈现方式
【随手记】maplotlib.use函数设置图像的呈现方式
86 0
|
10月前
游戏辅助 -- 实战找人物对象基址
游戏辅助 -- 实战找人物对象基址
88 0
|
10月前
|
前端开发 JavaScript 索引
创建您的第一个记忆卡片游戏
创建您的第一个记忆卡片游戏
83 0
|
定位技术 C#
飞行棋之简单框架---游戏头和初始化地图
飞行棋之简单框架---游戏头和初始化地图
155 0