java写一个爬虫

简介:
package com.xh.crawle;

import java.io.BufferedReader;
import java.io.FileWriter;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.util.ArrayList;
import java.util.List;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

import javax.sql.rowset.spi.SyncFactory;

import org.apache.commons.httpclient.HttpClient;
import org.apache.commons.httpclient.HttpException;
import org.apache.commons.httpclient.HttpStatus;
import org.apache.commons.httpclient.methods.GetMethod;
/**
 * 多线程
 * @author kali
 *
 */
public class Test implements Runnable{
	String content;
	HttpClient client;
	GetMethod getMethod;
	String myDomain;
	static String strHomePage;
	static List<String> urls=new ArrayList<String>();
	
	int i=0;
	public String getContent(String url)
	{	i+=1;
		client=new HttpClient();
		getMethod=new GetMethod(url);
		StringBuffer buffer=new StringBuffer();
		InputStream in;
		try {
			int status=client.executeMethod(getMethod);
			if(status==HttpStatus.SC_OK)
			{
//				content=getMethod.getResponseBodyAsString();
				in=getMethod.getResponseBodyAsStream();
				content=in_str(in);
				FileWriter fileWriter=new FileWriter("F:\\jd2\\jd_"+i+"_"+Thread.currentThread().getName()+".html");
				buffer.append(content);
				fileWriter.write(buffer.toString());
				fileWriter.flush();
				fileWriter.close();
				//System.out.println(">>>>"+content);
				
				
				
			}
			
			getUrl(content);
			
			
		} catch (Exception e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
			
		
		}
		
		return content;
	}
	
	
	public static void main(String[] args) throws InterruptedException {
		Test test=new Test();
		strHomePage="http://www.jd.com";
		for(int i=0;i<10;i++)
		{
			
			new Thread(test).start();
			Thread.currentThread().sleep(500);
		}
	}
	
	
	public List<String> getUrl(String cont)
	{
		 String tmpStr = cont;  
		 myDomain=getDomain();
		 String regUrl = "(?<=(href=)[\"]?[\']?)[http://][^\\s\"\'\\?]*("+ myDomain + ")[^\\s\"\'>]*";   
		   //正则
		   Pattern p = Pattern.compile(regUrl, Pattern.CASE_INSENSITIVE);//Pattern.CASE_INSENSITIVE 大小写不敏感
		   Matcher m = p.matcher(tmpStr);  
		   boolean blnp = m.find();  
		   while(blnp)
		   {
			  
			   
			   if (!urls.contains(m.group(0))) 
			   {
				   urls.add(m.group(0));
				   System.out.println("<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<"+m.group(0));
				   System.out.println("<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<"+urls.size());
			   }
			   tmpStr = tmpStr.substring(m.end(), tmpStr.length());  
			   m = p.matcher(tmpStr);  
			   blnp = m.find();  
			   
		   }
		
		return urls;
	}
	
	
	public String getDomain() {  
		   String reg = "(?<=http\\://[a-zA-Z0-9]{0,100}[.]{0,1})[^.\\s]*?\\.(com|cn|net|org|biz|info|cc|tv)";  
		   //String reg = "(?<=http\\://\\w{0,100}[.]{0,1})[^.\\s]*?\\.(com|cn|net|org|biz|info|cc|tv)"; 
			
		   Pattern p = Pattern.compile(reg, Pattern.CASE_INSENSITIVE);  
		   Matcher m = p.matcher(strHomePage);  
		   boolean blnp = m.find();  
		   if (blnp == true) {  
		    return m.group(0);  
		   }  
		   return null;  
		} 
	
	
	
	public synchronized void Crawle(List<String> list)
	{
		while(!list.isEmpty())
		{
			getContent(list.get(0));
			System.out.println("*************************************************"+list.get(0));
			System.out.println("*************************************************"+urls.size());
			list.remove(0);
		}
		
		
	}
	
	
	public String in_str(InputStream in) throws IOException
	{
		InputStreamReader inputStreamReader=new InputStreamReader(in);
		StringBuffer buffer=new StringBuffer();
		BufferedReader bufferedReader=new BufferedReader(inputStreamReader);
		String line=bufferedReader.readLine();
		while(line!=null)
		{
			buffer.append(line);
			line=bufferedReader.readLine();
		}
		
		return buffer.toString();
	}


	@Override
	public void run() {
		

		getContent(strHomePage);
		if(!urls.isEmpty())
		{
			
			Crawle(urls);
			
		}
		
	}
	
	
	
	
}

目录
相关文章
|
6月前
|
数据采集 存储 Java
高德地图爬虫实践:Java多线程并发处理策略
高德地图爬虫实践:Java多线程并发处理策略
|
1月前
|
数据采集 缓存 Java
Python vs Java:爬虫任务中的效率比较
Python vs Java:爬虫任务中的效率比较
|
3月前
|
数据采集 存储 Java
Java爬虫图像处理:从获取到解析
Java爬虫图像处理:从获取到解析
|
2月前
|
数据采集 Java 数据挖掘
Java IO异常处理:在Web爬虫开发中的实践
Java IO异常处理:在Web爬虫开发中的实践
|
2月前
|
数据采集 存储 前端开发
Java爬虫开发:Jsoup库在图片URL提取中的实战应用
Java爬虫开发:Jsoup库在图片URL提取中的实战应用
|
3月前
|
数据采集 机器学习/深度学习 前端开发
Java爬虫中的数据清洗:去除无效信息的技巧
Java爬虫中的数据清洗:去除无效信息的技巧
|
3月前
|
数据采集 Java API
java接口防爬虫
8月更文挑战第9天
|
4月前
|
数据采集 Java API
java接口防爬虫
7月更文挑战第4天
130 13
|
3月前
|
数据采集 SQL 前端开发
Java SpringBoot自动化网页爬虫项目
这是一个基于Java Spring Boot的自动化网页爬虫平台,采用图形化界面定义爬虫流程,无需编写代码。该平台高度灵活且可配置,支持Xpath、JsonPath、CSS选择器及正则表达式等多种提取方式,兼容JSON、XML和二进制格式,并支持通过代理服务器访问。它还具备自动管理Cookie、保存数据至数据库或文件、自定义函数和SQL脚本等功能,同时集成了任务监控和日志记录系统。此外,平台支持HTTP接口调用和动态网页抓取,可通过Selenium模拟真实浏览器行为。用户可通过直观的操作界面轻松完成复杂的数据抓取任务。
|
4月前
|
数据采集 Web App开发 Java
Java爬虫安全策略:防止TikTok音频抓取过程中的请求被拦截
Java爬虫安全策略:防止TikTok音频抓取过程中的请求被拦截