python将矩阵存为lmdb文件

简介: python将矩阵存为lmdb文件

由于工作需要,将C++生成的矩阵存入LMDB再用caffe进行处理,输出的矩阵失去了它原本的shape,因此只能记录下来:

矩阵X(n*ell):


-372302407
1319544887
-223830618
-184109131
-328009648
-182855917
749988319
-1387505086
-1967883425
1022949309
1680638116
1541327498


矩阵Y(r*n):


1
0
0
0
11
-34
-280
109
151
-205
-105
156
-152
-151
27
199
-202
-125
-95
# 向lmdb数据库存入两个矩阵X和y,大小分别为n*ell、r*n
import numpy as np
import lmdb
# X:r*n
# Y:n*ell
r = 4
n = 32
ell = 30
X_path = './X.txt'
Y_path = './Y.txt'
def write_lmdb(filename):
    print('Write lmdb')
    lmdb_env = lmdb.open(filename, map_size=int(1e9))
    n_samples= 1
    # 读入X
    with open(X_path, 'r') as f:
        # 读取图像文件的二进制格式数据
        X_temp = f.read()
        X_temp = X_temp.split('\n')
        del (X_temp[-1])
        X = [int(i) for i in X_temp]
        X = np.array(X).astype(np.int64)
        # print(X)
    # 读入Y
    with open(Y_path, 'r') as f:
        # 读取图像文件的二进制格式数据
        Y_temp = f.read()
        Y_temp = Y_temp.split('\n')
        del (Y_temp[-1])
        y = [int(i) for i in Y_temp]
        y = np.array(y).astype(np.int64)
        # print(y)
    # 写入LMDB
    for i in range(n_samples):
        with lmdb_env.begin(write=True) as lmdb_txn:
            lmdb_txn.put(str('X_'+str(i)).encode(), X)
            lmdb_txn.put(str('y_'+str(i)).encode(), y)
            print('X:',X)
            print('y:',y)
def read_lmdb(filename):
    print('Read lmdb')
    lmdb_env = lmdb.open(filename)
    lmdb_txn = lmdb_env.begin()
    lmdb_cursor = lmdb_txn.cursor()
    n_samples=1
    read_array = []
    with lmdb_env.begin() as lmdb_txn:
        with lmdb_txn.cursor() as lmdb_cursor:
            for key, value in lmdb_cursor:
                if('X'.encode() in key):
                    read_temp = np.frombuffer(value, dtype=np.int64)
                    read_array.append(read_temp)
                if('y'.encode() in key):
                    read_temp = np.frombuffer(value, dtype=np.int64)
                    read_array.append(read_temp)
                n_samples = n_samples + 1
    x_read_temp = read_array[0]
    x_read = []
    x_read_line = []
    print("X: ")
    for i in range(x_read_temp.size):
        x_read_line.append(x_read_temp[i])
        if len(x_read_line) == (n+r)*ell: # 列数
            x_read.append(x_read_line.copy())
            x_read_line.clear()
    print(x_read)
    y_read_temp = read_array[1]
    y_read = []
    y_read_line = []
    print("Y: ")
    for i in range(y_read_temp.size):
        y_read_line.append(y_read_temp[i])
        if len(y_read_line) == n+r: # 列数
            y_read.append(y_read_line.copy())
            y_read_line.clear()
    print(y_read)
    print('n_samples',n_samples)
write_lmdb('temp.db')
read_lmdb('temp.db')


输出如下:


Write lmdb
X: [-372302407 1319544887 -223830618 ... 1998175905 -616375716 -132621858]
y: [   1    0    0    0   11  -34 -280  109  151 -205 -105    3  156 -152
 -151   27  199 -202 -125  -95  318  -88 -173  273  262 -127 -152 -322
  -18  198  110   65   14 -310  192  103    0    1    0    0 -215 -217
    0  -65 -123 -110  171   39  -78  -21   24  -61   23  -44  113  184
  169 -240 -157  -16  136  182 -331  156   26  112 -188 -175  244 -195
   30 -228    0    0    1    0  -55  -15  -62  -41  -24 -140  -94  198
 -130   -4  -33 -206  256 -230 -406 -170   84  -45 -283 -136   38  -39
   64  -84   85  -85   41 -241  -42 -107  -19 -135    0    0    0    1
  124    5 -235 -121   49 -115  242  -61 -353  106  353 -210 -194  219
 -228  183  -80  110  218 -243   10 -190 -338  -75   11 -177   31 -208
  176  -66   97 -134]


Read lmdb(由于数据太长,省略了后面的)
X: 
[[-372302407, 1319544887, -223830618, -184109131, ...], ...]
Y: 
[[1, 0, 0, 0, 11, -34, -280, 109, 151, -205, ...], ...]
相关文章
|
9天前
|
机器学习/深度学习 存储 算法
解锁文件共享软件背后基于 Python 的二叉搜索树算法密码
文件共享软件在数字化时代扮演着连接全球用户、促进知识与数据交流的重要角色。二叉搜索树作为一种高效的数据结构,通过有序存储和快速检索文件,极大提升了文件共享平台的性能。它依据文件名或时间戳等关键属性排序,支持高效插入、删除和查找操作,显著优化用户体验。本文还展示了用Python实现的简单二叉搜索树代码,帮助理解其工作原理,并展望了该算法在分布式计算和机器学习领域的未来应用前景。
|
1月前
|
机器学习/深度学习 数据可视化 数据挖掘
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
在现代数据分析中,高维时间序列数据的处理和预测极具挑战性。基于矩阵分解的长期事件(MFLEs)分析技术应运而生,通过降维和时间序列特性结合,有效应对大规模数据。MFLE利用矩阵分解提取潜在特征,降低计算复杂度,过滤噪声,并发现主要模式。相比传统方法如ARIMA和深度学习模型如LSTM,MFLE在多变量处理、计算效率和可解释性上更具优势。通过合理应用MFLE,可在物联网、金融等领域获得良好分析效果。
61 0
使用Python实现基于矩阵分解的长期事件(MFLEs)时间序列分析
|
19天前
|
监控 网络安全 开发者
Python中的Paramiko与FTP文件夹及文件检测技巧
通过使用 Paramiko 和 FTP 库,开发者可以方便地检测远程服务器上的文件和文件夹是否存在。Paramiko 提供了通过 SSH 协议进行远程文件管理的能力,而 `ftplib` 则提供了通过 FTP 协议进行文件传输和管理的功能。通过理解和应用这些工具,您可以更加高效地管理和监控远程服务器上的文件系统。
48 20
|
25天前
|
存储 数据采集 数据处理
如何在Python中高效地读写大型文件?
大家好,我是V哥。上一篇介绍了Python文件读写操作,今天聊聊如何高效处理大型文件。主要方法包括:逐行读取、分块读取、内存映射(mmap)、pandas分块处理CSV、numpy处理二进制文件、itertools迭代处理及linecache逐行读取。这些方法能有效节省内存,提升效率。关注威哥爱编程,学习更多Python技巧。
|
26天前
|
存储 JSON 对象存储
如何使用 Python 进行文件读写操作?
大家好,我是V哥。本文介绍Python中文件读写操作的方法,包括文件读取、写入、追加、二进制模式、JSON、CSV和Pandas模块的使用,以及对象序列化与反序列化。通过这些方法,你可以根据不同的文件类型和需求,灵活选择合适的方式进行操作。希望对正在学习Python的小伙伴们有所帮助。欢迎关注威哥爱编程,全栈路上我们并肩前行。
|
1月前
|
存储 算法 Serverless
剖析文件共享工具背后的Python哈希表算法奥秘
在数字化时代,文件共享工具不可或缺。哈希表算法通过将文件名或哈希值映射到存储位置,实现快速检索与高效管理。Python中的哈希表可用于创建简易文件索引,支持快速插入和查找文件路径。哈希表不仅提升了文件定位速度,还优化了存储管理和多节点数据一致性,确保文件共享工具高效运行,满足多用户并发需求,推动文件共享领域向更高效、便捷的方向发展。
|
2月前
|
计算机视觉 Python
如何使用Python将TS文件转换为MP4
本文介绍了如何使用Python和FFmpeg将TS文件转换为MP4文件。首先需要安装Python和FFmpeg,然后通过`subprocess`模块调用FFmpeg命令,实现文件格式的转换。代码示例展示了具体的操作步骤,包括检查文件存在性、构建FFmpeg命令和执行转换过程。
72 7
|
3月前
|
开发者 Python
Python中__init__.py文件的作用
`__init__.py`文件在Python包管理中扮演着重要角色,通过标识目录为包、初始化包、控制导入行为、支持递归包结构以及定义包的命名空间,`__init__.py`文件为组织和管理Python代码提供了强大支持。理解并正确使用 `__init__.py`文件,可以帮助开发者更好地组织代码,提高代码的可维护性和可读性。
171 2
|
3月前
|
中间件 Docker Python
【Azure Function】FTP上传了Python Function文件后,无法在门户页面加载函数的问题
通过FTP上传Python Function至Azure云后,出现函数列表无法加载的问题。经排查,发现是由于`requirements.txt`中的依赖包未被正确安装。解决方法为:在本地安装依赖包到`.python_packages/lib/site-packages`目录,再将该目录内容上传至云上的`wwwroot`目录,并重启应用。最终成功加载函数列表。
|
4月前
|
Java Python
> python知识点100篇系列(19)-使用python下载文件的几种方式
【10月更文挑战第7天】本文介绍了使用Python下载文件的五种方法,包括使用requests、wget、线程池、urllib3和asyncio模块。每种方法适用于不同的场景,如单文件下载、多文件并发下载等,提供了丰富的选择。

热门文章

最新文章