电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是相关的知识,希望对你有一定的参考价值。
电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是windows10系统 下载个很大的文件,下载一半了可以关机吗? 留明天下载??
很简单,因为百度网盘不支持迅雷下载暂停,只能通过浏览器内建下载。 PS:迅雷下载在某些情况会增加网站的负荷,所以不行。追问但其他的说可以
参考技术A 你可以重新下载一下腾讯超级旋风,或者在开机的时候按下,更新一下电脑,但最好不要这样,会使别的程序丢失,你用金山清理专家看看有没有漏洞,有的话及时补。 参考技术B 如果是自己的电脑是可以的。只要不删除BT就行了 参考技术C 最好不要,会损坏文件追问难怪,gta4我就是这样下载,文件不能解压,是已经损坏,谢谢你的提醒
本回答被提问者采纳 参考技术D 能VBA宏从IE中的链接下载多个文件
我想从链接列表中下载多个文件。我找到链接的网站受到保护。这就是我想使用IE(使用当前会话/ cookie)的原因。每个链接的目标是一个xml文件。文件太大而无法打开然后保存。所以我需要直接保存它们(右键单击,保存目标为)。
链接列表如下所示:
<html>
<body>
<p> <a href="https://example.com/report?_hhhh=XML"Link A</a><br>> </p>
<p> <a href="https://example.com/report?_aaaa=XML"Link B</a><br>> </p>
...
</body>
</html>
我想遍历所有链接并保存每个目标。目前我在“另存为”方面遇到问题。我真的不知道怎么做。到目前为止这是我的代码:
Sub DownloadAllLinks()
Dim IE As Object
Dim Document As Object
Dim List As Object
Dim Link As Object
' Before I logged in to the website
Set IE = CreateObject("InternetExplorer.Application")
IE.Visible = True
IE.Navigate ("https:\\......\links.html")
Do While IE.Busy
DoEvents
Loop
' Detect all links on website
Set Document = IE.Document
Set List = Document.getElementsByTagName("a")
' Loop through all links to download them
For Each Link In List
' Now I need to automate "save target as" / right-click and then "save as"
...
Next Link
End Sub
您是否有任何想法为每个链接自动“另存为”?
任何帮助表示赞赏。非常感谢,Uli
答案
下面是我根据您的情况调整的一个非常常见的示例,它显示了XHR和RegEx用于检索网页HTML内容,从中提取所有链接以及下载每个链接的目标文件的用法:
Option Explicit
Sub Test()
' declare vars
Dim sUrl As String
Dim sReqProt As String
Dim sReqAddr As String
Dim sReqPath As String
Dim sContent As String
Dim oLinks As Object
Dim oMatch As Object
Dim sHref As String
Dim sHrefProt As String
Dim sHrefAddr As String
Dim sHrefPath As String
Dim sHrefFull As String
Dim n As Long
Dim aContent() As Byte
' set source URL
sUrl = "https:\\......\links.html"
' process source URL
SplitUrl sUrl, sReqProt, sReqAddr, sReqPath
If sReqProt = "" Then sReqProt = "http:"
sUrl = sReqProt & "//" & sReqAddr & "/" & sReqPath
' retrieve source page HTML content
With CreateObject("Microsoft.XMLHTTP")
.Open "GET", sUrl, False
.Send
sContent = .ResponseText
End With
' parse source page HTML content to extract all links
Set oLinks = CreateObject("Scripting.Dictionary")
With CreateObject("VBScript.RegExp")
.Global = True
.MultiLine = True
.IgnoreCase = True
.Pattern = "<a.*?href *= *(?:'|"")(.*?)(?:'|"").*?>"
For Each oMatch In .Execute(sContent)
sHref = oMatch.subMatches(0)
SplitUrl sHref, sHrefProt, sHrefAddr, sHrefPath
If sHrefProt = "" Then sHrefProt = sReqProt
If sHrefAddr = "" Then sHrefAddr = sReqAddr
sHrefFull = sHrefProt & "//" & sHrefAddr & "/" & sHrefPath
oLinks(oLinks.Count) = sHrefFull
Next
End With
' save each link target into file
For Each n In oLinks
sHref = oLinks(n)
With CreateObject("Microsoft.XMLHTTP")
.Open "GET", sHref, False
.Send
aContent = .ResponseBody
End With
With CreateObject("ADODB.Stream")
.Type = 1 ' adTypeBinary
.Open
.Write aContent
.SaveToFile "C:\Test\" & n & ".xml", 2 ' adSaveCreateOverWrite
.Close
End With
Next
End Sub
Sub SplitUrl(sUrl, sProt, sAddr, sPath)
' extract protocol, address and path from URL
Dim aSplit
aSplit = Split(sUrl, "//")
If UBound(aSplit) = 0 Then
sProt = ""
sAddr = sUrl
Else
sProt = aSplit(0)
sAddr = aSplit(1)
End If
aSplit = Split(sAddr, "/")
If UBound(aSplit) = 0 Then
sPath = sAddr
sAddr = ""
Else
sPath = Mid(sAddr, Len(aSplit(0)) + 2)
sAddr = aSplit(0)
End If
End Sub
此方法不使用IE自动化。通常,Microsoft.XMLHTTP
处理的IE的cookie足以引用当前会话,因此如果您的网站不使用其他程序进行身份验证并生成链接列表,则该方法应该适合您。
以上是关于电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是的主要内容,如果未能解决你的问题,请参考以下文章