『壹』 如何批量提取网站所有的URL链接
可以网络一下 lmcjl在线工具,里面就提取全站链接的工具。同时自动筛选掉垃圾链接。
『贰』 有什么工具能把一个网站上所有url链接下载下来网页里面所有的url提取出来,有什么工具没
Sitemap 全站链接抓取 URL采集工具 - SEO查
网站链接提取工具
『叁』 如何获取网页的url
PHP从URL中提取网址,这里使用正则匹配preg_match()函数来实现,分两步来操作,第1步是从URL中提取主机名,第2步从主机名中提取得到后两段,通过这个具体示例你会对preg_match的用法有一个更深的了解。
1 <?php
2 // 从 URL 中取得主机名
3 preg_match("/^(http:\/\/)?([^\/]+)/i", "http://www.***.net/index.html", $matches);
4 $host = $matches[2];
5 // 从主机名中取得后面两段
6 preg_match("/[^\.\/]+\.[^\.\/]+$/", $host, $matches);
7 echo "domain name is: {$matches[0]}\n";
8 ?>
不过需要说明一下,据PHP官方手册上说,如果你仅仅想要检查一个字符串是否包含另外一个字符串, 不要使用preg_match()。 使用strpos()或strstr()替代完成效率会更高。
『肆』 如何提取一个网站上所有的URL地址,有没有什么工具
用sitemap生成工具吧,基本可以抓取所有网址。有专门的生成工具,不过我喜欢用爱站SEO工具包,里面有这个功能。注册个免费帐号就可以!
『伍』 用什么工具可以获取网页中的所有url地址 有哪位大虾告诉我啊 ``` 感激不尽`````
不用什么软件就可以实现的,你在浏览器的上方,有个查看,点击后,下面有一选项,查看源文件,这样就可以找到这个网页内的所有URL。可以用CTRL+F
然后HTTP这样一个一个的查。