mysql中blob数据处理

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: package epoint.mppdb_01.h3c;import java.io.File;import java.
package epoint.mppdb_01.h3c;

import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URI;
import java.sql.Blob;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;

import org.apache.commons.net.ftp.FTPClient;
import org.apache.commons.net.ftp.FTPReply;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class MySQLblobToMPPphoto {

    // MySQL连接
    public static Connection getMySQLConnection() throws Exception {
        String MySQLDRIVER = "com.mysql.jdbc.Driver";
        String MySQLURL = "jdbc:mysql://192.168.186.13:3306/bigdata_scene03_rktj";
        String MySQLUSERNAME = "root";
        String MySQLPASSWORD = "Gepoint";
        Connection MySQLconn = DriverManager.getConnection(MySQLURL, MySQLUSERNAME, MySQLPASSWORD);
        return MySQLconn;
    }

    // MPP连接
    public static Connection getMPPConnection() throws Exception {
        String MPPDRIVER = "com.MPP.jdbc.Driver";
        String MPPURL = "jdbc:MPP://192.168.186.14:5258/bigdata_scene03_rktj";
        String MPPUSERNAME = "mpp";
        String MPPPASSWORD = "h3c";
        Connection MPPconn = DriverManager.getConnection(MPPURL, MPPUSERNAME, MPPPASSWORD);
        return MPPconn;
    }

    //
    public static void getMySQLblobToHDFS() throws Exception {
        Connection conn = getMySQLConnection();
        ResultSet rs = null;

        try {
            String sql = "select ROW_ID,photo from t_rk_baseinfo_blob limit 10";
            Statement prest = conn.prepareStatement(sql);
            rs = prest.executeQuery(sql);

            while (rs.next()) {
                int row_id = rs.getInt(1);
                Blob photo = rs.getBlob(2);
                System.out.println(row_id + "  " + photo);
                InputStream in = photo.getBinaryStream();
                OutputStream out = new FileOutputStream("H:/photo/" + row_id + ".jpg");
                int len = 0;
                byte[] buffer = new byte[1024];
                while ((len = in.read(buffer)) != -1) {
                    out.write(buffer, 0, len);
                }
                upload("H:/photo/" + row_id + ".jpg");
            }
            prest.close();
            rs.close();
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            // 关闭连接
            if (conn != null) {
                try {
                    conn.close();
                    conn = null;
                } catch (Exception e) {
                    e.printStackTrace();
                }
            }
        }
    }

    public static void main(String[] args) throws Exception {

        getMySQLblobToHDFS();

    }

    // HDFS附件上传
    public static void upload(String uploadpath) throws Exception {
        Configuration conf = new Configuration();
        URI uri = new URI("hdfs://192.168.186.14:8020");

        FileSystem fs = FileSystem.get(uri, conf, "HDFS");

        Path resP = new Path(uploadpath);
        Path destP = new Path("/photo");

        if (!fs.exists(destP)) {
            fs.mkdirs(destP);
        }

        fs.copyFromLocalFile(resP, destP);
        fs.close();
        System.out.println("***********************");
        System.out.println("上传成功!");

    }

    // HDFS附件下载
    public static void download() throws Exception {
        Configuration conf = new Configuration();
        String dest = "hdfs://192.168.186.14:/photo/11.png";
        String local = "D://11.png";
        FileSystem fs = FileSystem.get(URI.create(dest), conf, "hdfs");
        FSDataInputStream fsdi = fs.open(new Path(dest));
        OutputStream output = new FileOutputStream(local);
        IOUtils.copyBytes(fsdi, output, 4096, true);
        System.out.println("***********************");
        System.out.println("下载成功!");
    }

}
相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
5天前
|
存储 关系型数据库 MySQL
轻松入门MySQL:揭秘MySQL游标,数据处理的神秘利器(16)
轻松入门MySQL:揭秘MySQL游标,数据处理的神秘利器(16)
|
7月前
|
存储 SQL 关系型数据库
【MySQL异常】Row size too large (> 1982). Changing some columns to TEXT or BLOB or using ROW_FORMAT=DYNA
【MySQL异常】Row size too large (> 1982). Changing some columns to TEXT or BLOB or using ROW_FORMAT=DYNA
64 0
|
10月前
|
SQL 关系型数据库 MySQL
MySQL数据库,从入门到精通:第十一篇——MySQL数据处理之增删改指南
MySQL数据库,从入门到精通:第十一篇——MySQL数据处理之增删改指南
128 0
|
5天前
|
关系型数据库 MySQL 数据处理
Mysql基础第十四天,使用数据处理函数
Mysql基础第十四天,使用数据处理函数
60 0
|
9月前
|
JSON 关系型数据库 MySQL
MySQL全文搜索与JSON支持:高效检索与灵活数据处理
本文深入探讨了MySQL数据库中的全文搜索与JSON支持,通过详细的代码示例,阐述了全文搜索的原理、全文索引的创建,以及JSON数据类型的使用与操作。全文搜索在数据库中的重要性日益凸显,MySQL提供了全文索引来实现高效的文本数据检索,通过MATCH AGAINST语句,可以轻松地进行全文搜索操作。此外,MySQL的JSON支持为半结构化数据的存储和查询提供了灵活的解决方案,您可以存储JSON对象、数组等数据,并使用JSON函数来查询和修改数据。
455 0
|
10月前
|
存储 SQL 关系型数据库
【MySQL】看完这篇不信你学不会如何使用数据处理函数(二)
【MySQL】看完这篇不信你学不会如何使用数据处理函数(二)
62 0
|
10月前
|
SQL 存储 算法
【MySQL】看完这篇不信你学不会如何使用数据处理函数(一)
【MySQL】看完这篇不信你学不会如何使用数据处理函数(一)
77 0
|
9月前
|
SQL 关系型数据库 MySQL
MySQL防误删数据处理方式
万一手一抖把表里的数据修改错误或者误删了所有还是提前开启
77 0