[LitCTF 2023]easy_shark

简介: [LitCTF 2023]easy_shark

下载附件解压出现密码提示

使用010editor打开,发现frflags和deflags都被修改了,这就会造成压缩包伪加密

将它们都改回0,另存为再打开,不再出现密码提示

使用wirshark打开


过滤http并追踪,在最后一个包里找到了类似flag的格式但是应该经过了加密处理


{j13p5oznp_1t_z_900y_k3z771h_k001}


上面还有一个方程,解为17和77,两个数再加上一串字符,尝试仿射密码


仿射密码是一种替换密码,它是一个字母对一个字母的;


它的加密函数是D(x) = (a*x+b) (mod m),这里a,b变量就是密钥其中;


a和m互质,m是字母的数目(26)。

仿射解密得到flag

由于flag格式:NSSCTF{flag_木马连接的key},所以还要继续找一句话木马

经过寻找,在tcp流里找到一句话木马,且连接密码是a

故最终flag为

NSSCTF{w13e5hake_1s_a_900d_t3a771c_t001_a}

目录
相关文章
|
1月前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
8月前
|
分布式计算 大数据 Hadoop
Python大数据之PySpark(二)PySpark安装
Python大数据之PySpark(二)PySpark安装
607 0
|
分布式计算 Apache Spark
《Building Robust ETL Pipelines with Apache Spark》电子版地址
Building Robust ETL Pipelines with Apache Spark
92 0
《Building Robust ETL Pipelines with Apache Spark》电子版地址
|
存储 XML 缓存
01-PDI(Kettle)简介与安装
文章目录 01-PDI(Kettle)简介与安装 PDI(Kettle)简介 Kettle安装 Kettle核心知识点
01-PDI(Kettle)简介与安装
|
SQL 分布式计算 资源调度
carbondata1.5.1编译
What is CarbonData? Apache CarbonData is an indexed columnar data format for fast analytics on big data platform, e.g. Apache Hadoop, Apache Spark, etc. 因为我的spark是2.3.1的版本,而最新版的carbondata1.5.1才支持,但是官网没有编译好的,需要我们自己编译,在编译的时候遇到一些问题,记录一下.
carbondata1.5.1编译
|
存储 缓存 分布式计算
Spark—GraphX编程指南
GraphX 是新的图形和图像并行计算的Spark API。从整理上看,GraphX 通过引入 弹性分布式属性图(Resilient Distributed Property Graph)继承了Spark RDD:一个将有效信息放在顶点和边的有向多重图。为了支持图形计算,GraphX 公开了一组基本的运算(例如,subgraph,joinVertices和mapReduceTriplets),以及在一个优化后的 PregelAPI的变形。此外,GraphX 包括越来越多的图算法和 builder 构造器,以简化图形分析任务。
577 0
Spark—GraphX编程指南
|
消息中间件 SQL 分布式计算
Spark Sreaming实战(二)-小试流式处理
Spark Sreaming实战(二)-小试流式处理
114 0
Spark Sreaming实战(二)-小试流式处理
|
SQL 分布式计算 大数据
Python之fastparquet:fastparquet的简介、安装、使用方法之详细攻略
Python之fastparquet:fastparquet的简介、安装、使用方法之详细攻略
Python之fastparquet:fastparquet的简介、安装、使用方法之详细攻略
|
Java 分布式数据库 Hbase
HBase使用例子(中文翻译)
通过编码(java)的形式对HBase进行一系列的管理涉及到对表的管理、数据的操作等。 1、 对表的创建、删除、显示以及修改等,可以用HBaseAdmin,一旦创建了表,那么可以通过HTable的实例来访问表,每次可以往表里增加数据。 2、 插入数据 创建一个Put对象,在这个Put对象里可以指定要给哪个列增加数据,以及当前的时间戳等值,然后通过调用HTable.put(Put)来提交操作,子猴在这里提请注意的是:在创建Put对象的时候,你必须指定一个行(Row)值,在构造Put对象的时候作为参数传入。 3、 获取数据 要获取数据,使用Get对象,Get对象同Put对象一样有好
176 0
SQuirreL – Phoenix的GUI
本文主要介绍如何通过SQuirreL访问Phoenix,以及如何在SQuirreL中配置Phoenix参数。 什么是SQuirrel? SQuirreL SQL Client是一个开源免费软件, 可以通过jdbc对多种数据库进行可视化的管理,查询等。
4978 0

热门文章

最新文章

下一篇
开通oss服务