python引包module出现No module named XXX,以及爬虫中文乱码问题

简介: python引包module出现No module named XXX,以及爬虫中文乱码问题
搞过其他开发语言的童鞋使用python引包,引用类文件或者方法都会觉得有些别扭吧。反正我是这么觉得的。
比如你有目录文件,结构如下:
d91e347833e8bf9e9c09b8400613d62756ba159c
首先项目下任何目录文件调用文件夹下面的文件,比如调用untils文件夹下面的os_utils.py,必须创建一个文件名为__init__.py的文件,即使是空文件。作用是声明该文件夹可以作为项目的目录使用。
现在 根目录下的文件引用文件夹download下的html_downloader.py文件。正常的情况下使用:
from download import html_downloader
但是 top_data下的spider_start.py 调用文件夹下面的html_downloader.py文件,如果使用:
from download import html_downloader 是不会报错的,但是执行if __name__ == "__main__" 主函数的话会报错: No module named XXX
网上解决该问题的方案很多,但是多少有效果。暂时我使用的方式是:
import os	#引入os
import sys	#引入sys
o_path = os.getcwd()	#获取项目的路径,这个路径是绝对路径,比如你的项目放在D盘根目录下,打印o_path的结果是D:\项目目录
sys.path.append(o_path)  #将该目录添加到该文件夹下,把当前目录当成根目录使用
from download import html_downloader #然后可以跟根目录下的文件一样使用这样的方式引用
但是此时 根目录下的文件比如strat.py文件引用download目录下的html_downloader.py 文件,就要改成下面这种方式:
import download.html_downloader as downloader #不知道是为什么?没弄明白
这样的方式是目前唯一发现的可行的方案。也许有更好的方式,希望大神们在下面指教。
另外 使用 from .. import download.html_downloader的方式也会报错:E0402:Attempted relative import beyond top-level package,平常理解的..和.在python里都是不一样的。引包方式还是Java比较强大和人性化,不过毕竟python是解释型语言,需要更多的说明而不是写更多的代码。
最近在写一些东西用来方便自己,需要用到爬虫。也许你也用的到,也许也会碰到中文乱码问题。网络上的html大多使用utf-8编码,但是国内也有一些使用ISO-8859-1,gb2312,gbk等,遇到这种编码使用bytes(str, encoding=“gbk”) 由于GB18030>GBK>GB2312,转化GBK编码的页面使用gb18030比较可靠一些,在转str(btyes, encoding="utf-8),麻烦而且效果不好,只有小部分页面能够转化成功。
A没有使用转码的效果,B使用bytes和str转码后的效果,C是我这次使用的方法:
77899c4cbbf1ad06d6df42718917d087e77b80ab
上代码:
684328db685927649f230b0654caa0e63746a39e
框框内就是使用的我认为可以通杀任何网站的乱码问题,除非是utf-8和GBK不能编码的网站,有的话加个elif分支即可。
response是响应数据,使用较多就response.content返回二进制格式的数据,写文件用的多,response.text返回html字符串格式,response.encoding = '编码格式',是指定响应数据使用什么编码格式。如果是ISO-8859-1,gb2312,gbk等格式,使用utf-8编码就会出现乱码。如果是utf-8编码格式的html使用gbk来编码也会成乱码,不过补全是乱码,有些能编正确,比如:
5a3f973f8c695b0ffec2ed95cf4013295f9d40f6

目录
相关文章
|
14天前
|
数据采集 Web App开发 前端开发
处理动态Token:Python爬虫应对AJAX授权请求的策略
处理动态Token:Python爬虫应对AJAX授权请求的策略
|
14天前
|
数据采集 网络协议 API
协程+连接池:高并发Python爬虫的底层优化逻辑
协程+连接池:高并发Python爬虫的底层优化逻辑
|
2月前
|
数据采集 存储 JSON
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
|
22天前
|
数据采集 存储 Web App开发
处理Cookie和Session:让Python爬虫保持连贯的"身份"
处理Cookie和Session:让Python爬虫保持连贯的"身份"
|
24天前
|
数据采集 监控 Shell
无需Python:Shell脚本如何成为你的自动化爬虫引擎?
Shell脚本利用curl/wget发起请求,结合文本处理工具构建轻量级爬虫,支持并行加速、定时任务、增量抓取及分布式部署。通过随机UA、异常重试等优化提升稳定性,适用于日志监控、价格追踪等场景。相比Python,具备启动快、资源占用低的优势,适合嵌入式或老旧服务器环境,复杂任务可结合Python实现混合编程。
|
26天前
|
数据采集 存储 XML
Python爬虫入门(1)
在互联网时代,数据成为宝贵资源,Python凭借简洁语法和丰富库支持,成为编写网络爬虫的首选。本文介绍Python爬虫基础,涵盖请求发送、内容解析、数据存储等核心环节,并提供环境配置及实战示例,助你快速入门并掌握数据抓取技巧。
|
2月前
|
数据采集 存储 数据可视化
Python网络爬虫在环境保护中的应用:污染源监测数据抓取与分析
在环保领域,数据是决策基础,但分散在多个平台,获取困难。Python网络爬虫技术灵活高效,可自动化抓取空气质量、水质、污染源等数据,实现多平台整合、实时更新、结构化存储与异常预警。本文详解爬虫实战应用,涵盖技术选型、代码实现、反爬策略与数据分析,助力环保数据高效利用。
109 0
|
2月前
|
数据采集 Web App开发 JSON
Python爬虫基本原理与HTTP协议详解:从入门到实践
本文介绍了Python爬虫的核心知识,涵盖HTTP协议基础、请求与响应流程、常用库(如requests、BeautifulSoup)、反爬应对策略及实战案例(如爬取豆瓣电影Top250),帮助读者系统掌握数据采集技能。
190 0
|
2月前
|
数据采集 监控 调度
应对频率限制:设计智能延迟的微信读书Python爬虫
应对频率限制:设计智能延迟的微信读书Python爬虫
|
2月前
|
数据采集 机器学习/深度学习 数据可视化
Python量化交易:结合爬虫与TA-Lib技术指标分析
Python量化交易:结合爬虫与TA-Lib技术指标分析

推荐镜像

更多