如何下载整个网站的图片(只能通过网址访问,无超链接)
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何下载整个网站的图片(只能通过网址访问,无超链接)相关的知识,希望对你有一定的参考价值。
http://gaokao.gzzk.cn/sfzpath/******************.bmp
就是这个网址,每个星号代表一个数字,且只有某些数字才有对应的图片。我如何才能全部下载这些图片?
整站下载器什么的试过了,由于这些图片是被引用在不同账号的页面里,但又可直接访问,所以通过超链接搜索的方法是不行的。
那么如何下载?
请各路大神回答前看看其它回答里我的评论,那些都是补充!
这里有个图片批量下载器可以用。只需要导入图片网址文件并设置保存路径即可批量下载,支持下载错误重试,支持多线程。
你只需要生成图片网址文件,导入这个网址文件,然后让图片下载器去尝试下载,下载不到的就是这个网址不存在。
主要问题在于你的星号太多了,以至于生成全部的图片网址太难,最好能缩小数字范围。我试了下,从111111111111111111.bmp到200000000000000000.bmp就生成了快800M的txt文本文件,还因为文件太大不能用记事本打开。
这是我生成的网址文件样例,可用来参考。
太谢谢了,如果顺便跟我说说你那个网址文件怎么生成的,这两百分就是你的了。
(+﹏+)
网址文件是我写了个几行代码,自己生成的,你能不能给我个一定有图片的数字,我想测试一下,但一直都没成功下载到图片。
参考技术A 1.推荐楼主看《windows程序设计》最后一章。那是个ftp下载的例子,和http应该不会差太多吧,连接上后,遍历文件夹,只要找到文件就下载。
2.msdn上也有相应的http下载的例子,看winhttpopen函数下面的例子。 参考技术B 好吧,我来帮你解决一下。
网址里面的那些星号可能是一些时间,例如20140202.BMP
像这样的话你可以把网站黑了,然后进入网站后台查看所有的图片。
否则你只能一张张复制了。
我以前黑站的每次都能见到这种类型的照片,
望采纳追问
不是时间,是类似随机数的,我希望能有相关的批处理程式帮我筛选下载(目测需要重复判断九万亿次)时间成本不是问题,重要的是不要人力重复干活。而且悬赏分真的不能再高了。
追答可以试一下按键精灵,
追问但是如何判断无效图片呢?而且我希望能够多线程。
(考虑过按键精灵,但还是希望有更好的软件)
这些图片不在同一个页面里,而且也没有任何超链接可直接访问!
只能通过输入图片的 URL 直接访问。
有啥软件或者插件能把整个网址扒下来
参考技术A 用webzip,HTTrack
Website
Copier,
teleport
pro等软件,就可以下载整个网址下的所有内容,不过这个只是下载网站程序处理后的内容,并不能将网站的程序和数据库下载下来。
以上是关于如何下载整个网站的图片(只能通过网址访问,无超链接)的主要内容,如果未能解决你的问题,请参考以下文章
如何使用python制作网站服务器,让客户通过网址,访问我电脑的文件?