Data Lake Analytics IP白名单设置攻略

简介:

当我们成功开通了 DLA 服务之后,第一个最想要做的事情就是登录 DLA 数据库。而登录数据库就需要一个连接串。下面这个页面是我们首次开通 DLA 之后的界面,在这里我们要创建一个服务访问点。

image.png

在上面界面中点击 “创建服务访问点” 即可弹出右侧服务访问点配置界面。这里您可以选择创建 经典网络访问点 或者 VPC 网络访问点。
image.png

下面介绍一下这两种网络的不同地方。

经典网络

我们假定您购买了一台 ECS 并且想要在家或者公司中通过 SSH 访问这台 ECS,那么您一定需要知道这台 ECS 的公网 IP 地址,并且 SSH 的端口号也一定要在防火墙上打开。

DLA 创建经典网络就是在为您生成这个公网地址,只不过不同的是 DLA 帮您生成的是一个 域名地址。 这个域名地址会动态的指定到 DLA 服务集群入口地址上。

在创建公网地址的步骤如下:
image.png

默认创建服务访问点的 IP 白名单为 “0.0.0.0/0” 这是一个使用 CIDR 方法表示的IP地址范围。具体是是任意地址来源。

您也可以选择更加安全的方式,只设置可以访问 DLA 的允许 IP。

VPC网络

“VPC 网络” 就是 “专有网络” 两者只是名称叫法不同,单本质是同一个产品。 VPC 网络的特点就是,允许用户在公有云上为自己划出一片区域,并允许用户在这片区域中自己规划自己的网络环境。任何外部公网都不能直接访问到 VPC 网络内部。这样实现了更加安全的网络隔离。

配置 VPC 网络您需要先了解 VPC 产品相关知识:https://help.aliyun.com/product/27706.html

VPC 网络的创建步骤如下:
image.png

查看连接串

创建成功之后您就可以在控制台的下放看到服务访问点的连接串。
image.png

相关实践学习
使用ROS创建VPC和VSwitch
本场景主要介绍如何利用阿里云资源编排服务,定义资源编排模板,实现自动化创建阿里云专有网络和交换机。
阿里云专有网络VPC使用教程
专有网络VPC可以帮助您基于阿里云构建出一个隔离的网络环境,并可以自定义IP 地址范围、网段、路由表和网关等;此外,也可以通过专线/VPN/GRE等连接方式实现云上VPC与传统IDC的互联,构建混合云业务。 产品详情:https://www.aliyun.com/product/vpc
目录
相关文章
|
7月前
|
JSON 数据可视化 Linux
数据可视化工具JSON Crack结合内网穿透实现公网访问
数据可视化工具JSON Crack结合内网穿透实现公网访问
数据可视化工具JSON Crack结合内网穿透实现公网访问
|
安全
将云数据仓库ADB的Solr集群的host更改为公网地址
将云数据仓库ADB的Solr集群的host更改为公网地址
85 3
|
弹性计算 索引
【Elastic Engineering】Elasticsearch:使用 alias 数据类型来遵循 ECS (Elastic Common Schema)
Elasticsearch:使用 alias 数据类型来遵循 ECS (Elastic Common Schema)
312 0
【Elastic Engineering】Elasticsearch:使用 alias 数据类型来遵循 ECS (Elastic Common Schema)
|
数据库
LeetCode(数据库)- The Airport With the Most Traffic
LeetCode(数据库)- The Airport With the Most Traffic
132 0
|
索引
【Elastic Engineering】Elasticsearch:如何在导入时忽略格式错误的数据
Elasticsearch:如何在导入时忽略格式错误的数据
414 0
|
SQL 分布式计算 对象存储
Data Lake Analytics: 自动推断 OSS 上的 CSV 文件
截止目前,Data Lake Analytics(下面简称 DLA)已经和 OSS 有很多深度的集成,详情可以参见 DLA 的官方文档:DLA 和 OSS 整合。 为了能够提供更好的使用体验,目前可以通过 DLA 自动探测 OSS 上的多种文件格式,并自动生成建表语句,大大减少建表的使用成本。
Data Lake Analytics: 自动推断 OSS 上的 CSV 文件
|
SQL NoSQL 关系型数据库
教程:使用Data Lake Analytics读/写MongoDB数据
Data Lake Analytics 作为云上数据处理的枢纽,最近加入了对于MongoDB 的支持, 这篇教程带你玩转 DLA 的 MongoDB 支持。 创建数据库 在 DLA 里面创建一个底层映射到 MongoDB 的外表的语法如下: CREATE DATABASE `mongo_test`.
2888 0
教程:使用Data Lake Analytics读/写MongoDB数据
|
弹性计算 缓存 网络协议
进阶路线 Class 1:基于ECS搭建FTP服务
本节课程学习如何在 Linux 实例上安装并配置 vsftpd。
1331 0
进阶路线 Class 1:基于ECS搭建FTP服务
|
SQL 关系型数据库 MySQL
Data Lake Analytics账号和权限体系详细介绍
一、Data Lake Analytics介绍 数据湖(Data Lake)是时下大数据行业热门的概念:https://en.wikipedia.org/wiki/Data_lake。基于数据湖做分析,可以不用做任何ETL、数据搬迁等前置过程,实现跨各种异构数据源进行大数据关联分析,从而极大的节省成本和提升用户体验。
2670 0
|
SQL 对象存储
Data Lake Analytics: 基于OSS文件自动推断建表
背景 用户在使用Data Lake Analytics对OSS上的数据建表时,需要预先知道目标文件的格式和schema信息。当目标文件中每条记录对应的列数很多时,需要一个个手动匹配,很不方便。 在新版的Data Lake Analytics中,支持了CREATE EXTERNAL TABLE LIKE 的语法。
1152 0