模拟网络爬虫

/*
利用wget  指令和队列 模拟实现网络爬虫
利用自己的站点wzsts.host3v.com测试了一下
有一点错误
文件运行后拿到index.html
对于连接仅仅可以拿到 html 和htm 结尾的 而.com的没有考虑(设计文件可能多)
一次测试后了解到如下问题:
1.文件应该有树形话还原网站目录
2.文本记录的连接应该分类化
项目运行需要 su 根权限进行 
因为mv命令
本项目仅仅适合在linux下运行
本项目给真真的linux 爬虫做铺垫
*/
#include
using namespace std;
#include 
#include 
#include 
string s("index.html");
queueq;
 //略去一段
int main()
{
 //index.html
system("wget wzsts.host3v.com");

ofstream out("out.txt"); 
string mv("mv ");
string html(" html");
q.push(s);
  while(!q.empty())
   {
out<            
            
                        
本文标题:模拟网络爬虫
分享链接:http://www.hxwzsj.com/article/piiidd.html

其他资讯

Copyright © 2025 青羊区翔捷宏鑫字牌设计制作工作室(个体工商户) All Rights Reserved 蜀ICP备2025123194号-14
友情链接: 成都网站制作 成都网站设计制作公司 公司网站建设 品牌网站建设 成都网站建设 做网站设计 成都品牌网站建设 移动网站建设 网站设计 成都企业网站建设公司 成都企业网站建设 成都网站建设公司 成都网站建设 品牌网站建设 成都商城网站制作 网站建设费用 成都网站建设 网站设计制作 定制网站建设多少钱 重庆网站建设 成都响应式网站建设 手机网站建设