Python数据挖掘 环境搭建

简介: deepin有很多小伙伴想学习python,但windows写python基本是坑,deepin属于linux分支,界面美观,内置大量桌面软件,对新手十分友好,这里尝试在深度系统(deepin)内安装python开发工具 jupyt...
deepin

有很多小伙伴想学习python,但windows写python基本是坑,deepin属于linux分支,界面美观,内置大量桌面软件,对新手十分友好,这里尝试在深度系统(deepin)内安装python开发工具 jupyter,并完成一个绘制折线图的入门案例

将默认的bash更换为zsh(个人喜好,可跳过)

  • 首先,安装zsh:
sudo apt-get install zsh
  • 先安装git
sudo apt-get install git
  • 再安装oh-my-zsh
sudo wget https://github.com/robbyrussell/oh-my-zsh/raw/master/tools/install.sh -O - | sh
  • 切换到 zsh 模式
chsh -s /usr/local/bin/zsh
  • 配置.zshrc(可跳过)
cd ~
git clone git://github.com/seebi/zshrc.git .zsh
cd .zsh/
make install

安装python2, python3

sudo apt install python2
sudo apt install python3

安装pip

sudo apt install python-pip

安装pip3

sudo apt install python3-pip

apt安装virtualenv

sudo apt install virtualenv

pip安装virtualenv

pip install virtualenv

pip安装virtualenvwrapper

pip install virtualenvwrapper

配置virtualenvwrapper

  • 默认查看virualenvwrapper.sh的位置为
$HOME/.local/bin/virtualenvwrapper.sh
  • .zshrc底部新增
export WORKON_HOME=$HOME/.virtualenvs
source $HOME/.local/bin/virtualenvwrapper.sh
新增virtualenvwrapper配置项
  • 在shell中执行
source $HOME/.zshrc

创建python2和python3虚拟开发环境

  • 查看python2解释器所在位置(这里得到的路径为/usr/bin/python2.7)
whereis python2
  • 创建python2开发环境
mkvirtualenv py2 -p /usr/bin/python2.7
  • 查看python3解释器所在位置(这里得到的路径为/usr/bin/python3.5)
whereis python3
  • 创建python3开发环境
mkvirtualenv py3 -p /usr/bin/python3.5

virtualenvwrapper的使用

  • 进入到python2环境
workon py2
  • 从python2切换到python3环境(切换和进入是同一个命令)
workon py3
  • 虚拟环境中安装软件(以jupyter为例)
# 安装jupyter
pip3 install jupyter
  • virtualenvwrapper命令扩展(新手安装环境,请直接跳过)
#导出 虚拟环境中的包(备份)
pip freeze > requirements.txt
# 导入 安装备份的包信息(恢复)
pip install -r requirements.txt
# 退出虚拟环境
deactivate
# 删除虚拟环境
rmvirtualenv 环境名

jupyter启动

# 进入刚刚安装jupyter的虚拟环境
workon py3

# 开启jupyter
jupyter notebook

启动jupyter
在py3下新建工作空间
jupyter跑起来

在jupyter中安装 matplotlib 进行绘图(绘制折线图,并保存)

pip install matplotlib
import matplotlib.pyplot as plt
import random
import matplotlib.pyplot as plt
# 保证生成的图片在浏览器内显示
%matplotlib inline
plt.rcParams['font.family'] = ['Arial Unicode MS', 'sans-serif']
# 指定画板的大小等等
plt.figure(figsize=(6, 6), dpi=100)

# 指定axis的一些坐标点,必须是列表
x = [1,2,3,4,5,6,7]
y = [107,17,108,15,101,11,102]

# 画出折线图
plt.plot(x, y)

# 将图片保存在文件同级目录下(必须在show()的前面调用)
plt.savefig("./test.png")

# 最终显示图
plt.show()

代码分开执行
执行效果
目录
相关文章
|
12天前
|
数据采集 XML 存储
Python爬虫实战:一键采集电商数据,掌握市场动态!
这个爬虫还挺实用,不光能爬电商数据,改改解析规则,啥数据都能爬。写爬虫最重要的是要有耐心,遇到问题别着急,慢慢调试就成。代码写好了,运行起来那叫一个爽,分分钟几千条数据到手。
|
15天前
|
Java Shell C语言
课时14:Python环境搭建
接下来分享 Python 开发环境的搭建。其主要分为以下四部分。 1.开发环境搭建的意思 2.Python的解释器是什么 3.Python 的解释器分类 4.搭建步骤
|
15天前
|
JSON 监控 API
python语言采集淘宝商品详情数据,json数据示例返回
通过淘宝开放平台的API接口,开发者可以轻松获取商品详情数据,并利用这些数据进行商品分析、价格监控、库存管理等操作。本文提供的示例代码和JSON数据解析方法,可以帮助您快速上手淘宝商品数据的采集与处理。
|
16天前
|
JSON API 数据格式
Python 请求微店商品详情数据 API 接口
微店开放平台允许开发者通过API获取商品详情数据。使用Python请求微店商品详情API的主要步骤包括:1. 注册并申请API权限,获得app_key和app_secret;2. 确定API接口地址与请求参数,如商品ID;3. 生成签名确保请求安全合法;4. 使用requests库发送HTTP请求获取数据;5. 处理返回的JSON格式响应数据。开发时需严格遵循微店API文档要求。
|
20天前
|
存储 数据采集 JSON
Python爬取某云热歌榜:解析动态加载的歌曲数据
Python爬取某云热歌榜:解析动态加载的歌曲数据
|
21天前
|
数据采集 供应链 API
实战指南:通过1688开放平台API获取商品详情数据(附Python代码及避坑指南)
1688作为国内最大的B2B供应链平台,其API为企业提供合法合规的JSON数据源,直接获取批发价、SKU库存等核心数据。相比爬虫方案,官方API避免了反爬严格、数据缺失和法律风险等问题。企业接入1688商品API需完成资质认证、创建应用、签名机制解析及调用接口四步。应用场景包括智能采购系统、供应商评估模型和跨境选品分析。提供高频问题解决方案及安全合规实践,确保数据安全与合法使用。立即访问1688开放平台,解锁B2B数据宝藏!
|
1月前
|
数据采集 存储 前端开发
用Python抓取亚马逊动态加载数据,一文读懂
用Python抓取亚马逊动态加载数据,一文读懂
|
1月前
|
数据采集 JSON 测试技术
如何在Python中高效实现CSV到JSON的数据转换
在实际项目中,数据格式转换是常见问题,尤其从CSV到JSON的转换。本文深入探讨了多种转换方法,涵盖Python基础实现、数据预处理、错误处理、性能优化及调试验证技巧。通过分块处理、并行处理等手段提升大文件转换效率,并介绍如何封装为命令行工具或Web API,实现自动化批量处理。关键点包括基础实现、数据清洗、异常捕获、性能优化和单元测试,确保转换流程稳定高效。
151 83
|
1月前
|
算法 Serverless 数据处理
从集思录可转债数据探秘:Python与C++实现的移动平均算法应用
本文探讨了如何利用移动平均算法分析集思录提供的可转债数据,帮助投资者把握价格趋势。通过Python和C++两种编程语言实现简单移动平均(SMA),展示了数据处理的具体方法。Python代码借助`pandas`库轻松计算5日SMA,而C++代码则通过高效的数据处理展示了SMA的计算过程。集思录平台提供了详尽且及时的可转债数据,助力投资者结合算法与社区讨论,做出更明智的投资决策。掌握这些工具和技术,有助于在复杂多变的金融市场中挖掘更多价值。
52 12
|
1月前
|
数据采集 数据安全/隐私保护 Python
从零开始:用Python爬取网站的汽车品牌和价格数据
在现代化办公室中,工程师小李和产品经理小张讨论如何获取懂车帝网站的汽车品牌和价格数据。小李提出使用Python编写爬虫,并通过亿牛云爬虫代理避免被封禁。代码实现包括设置代理、请求头、解析网页内容、多线程爬取等步骤,确保高效且稳定地抓取数据。小张表示理解并准备按照指导操作。
从零开始:用Python爬取网站的汽车品牌和价格数据

热门文章

最新文章