代码如下:
# -*- coding: utf-8 -*- #http://www.qiushibaike.com/8hr/page/1?s=4603425 import urllib2 from bs4 import BeautifulSoup page=1 xiubai=open(r'xiubai.txt','w+') for page in range(1,11): url="http://www.qiushibaike.com/8hr/page/"+str(page)+"?s=4603425" soup = BeautifulSoup(urllib2.urlopen(url).read()) for result in soup.findAll("div", "content", title=True): xiubai.write(result.text)报错:
Traceback (most recent call last): File "D:\python\python2.7.5\pythontest\爬虫\kanxiushibaike.py", line 13, in <module> xiubai.write(result.text) UnicodeEncodeError: 'ascii' codec can't encode characters in position 2-10: ordinal not in range(128)
详解:
【问题解答】python爬虫保存为txt的编码问题求解决?
你查一下Python文档里的decode和encode谢谢,我用另外的办法实现了。其实我想把抓到的内容直接丢在自己的网页上面。windows下用GBK嘛版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。