3.数据库去重
我们也可以借助数据库实现 URL 的重复判断,首先我们先来设计一张 URL 的存储表,如下图所示:
此表对应的 SQL 如下:
/*==============================================================*/ /* Table: urlinfo */ /*==============================================================*/ create table urlinfo ( id int not null auto_increment, url varchar(1000), ctime date, del boolean, primary key (id) ); /*==============================================================*/ /* Index: Index_url */ /*==============================================================*/ create index Index_url on urlinfo ( url );
其中 id
为自增的主键,而 url
字段设置为索引,设置索引可以加快查询的速度。
我们先在数据库中添加两条测试数据,如下图所示:
我们使用 SQL 语句查询,如下图所示:
如果结果大于 0 则表明已经有重复的 URL 了,否则表示没有重复的 URL。
4.唯一索引去重
我们也可以使用数据库的唯一索引来防止 URL 重复,它的实现思路和前面 Set 集合的思想思路非常像。
首先我们先为字段 URL 设置了唯一索引,然后再添加 URL 数据,如果能添加成功则表明 URL 不重复,反之则表示重复。
创建唯一索引的 SQL 实现如下:
create unique index Index_url on urlinfo ( url );