开发者社区> 问答> 正文

python爬虫保存为txt的编码问题求解决??报错

代码如下:

# -*- coding: utf-8 -*-
#http://www.qiushibaike.com/8hr/page/1?s=4603425
import urllib2
from bs4 import BeautifulSoup
page=1
xiubai=open(r'xiubai.txt','w+')
for page in range(1,11):
    url="http://www.qiushibaike.com/8hr/page/"+str(page)+"?s=4603425"
    soup = BeautifulSoup(urllib2.urlopen(url).read())
    for result in soup.findAll("div", "content", title=True):
        xiubai.write(result.text)
报错:

Traceback (most recent call last):
  File "D:\python\python2.7.5\pythontest\爬虫\kanxiushibaike.py", line 13, in <module>
    xiubai.write(result.text)
UnicodeEncodeError: 'ascii' codec can't encode characters in position 2-10: ordinal not in range(128)

展开
收起
爱吃鱼的程序员 2020-06-22 15:17:50 519 0
1 条回答
写回答
取消 提交回答
  • https://developer.aliyun.com/profile/5yerqm5bn5yqg?spm=a2c6h.12873639.0.0.6eae304abcjaIB

    详解:

    【问题解答】python爬虫保存为txt的编码问题求解决?

    你查一下Python文档里的decode和encode谢谢,我用另外的办法实现了。其实我想把抓到的内容直接丢在自己的网页上面。windows下用GBK嘛

    引用来自“小猫嘿嘿哈”的答案

    windows下用GBK嘛xiubai=open(r'xiubai.txt','wb+')似乎这样就可以吧?不要说我记混了啊,各种语言稍有不同。
    2020-06-22 15:18:06
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
From Python Scikit-Learn to Sc 立即下载
Data Pre-Processing in Python: 立即下载
双剑合璧-Python和大数据计算平台的结合 立即下载