电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是相关的知识,希望对你有一定的参考价值。

电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是windows10系统 下载个很大的文件,下载一半了可以关机吗? 留明天下载??

很简单,因为百度网盘不支持迅雷下载暂停,只能通过浏览器内建下载。 PS:迅雷下载在某些情况会增加网站的负荷,所以不行。追问

但其他的说可以

参考技术A 你可以重新下载一下腾讯超级旋风,或者在开机的时候按下,更新一下电脑,但最好不要这样,会使别的程序丢失,你用金山清理专家看看有没有漏洞,有的话及时补。 参考技术B 如果是自己的电脑是可以的。只要不删除BT就行了 参考技术C 最好不要,会损坏文件追问

难怪,gta4我就是这样下载,文件不能解压,是已经损坏,谢谢你的提醒

本回答被提问者采纳
参考技术D

VBA宏从IE中的链接下载多个文件

我想从链接列表中下载多个文件。我找到链接的网站受到保护。这就是我想使用IE(使用当前会话/ cookie)的原因。每个链接的目标是一个xml文件。文件太大而无法打开然后保存。所以我需要直接保存它们(右键单击,保存目标为)。

链接列表如下所示:

<html>
<body>
<p> <a href="https://example.com/report?_hhhh=XML"Link A</a><br>> </p>
<p> <a href="https://example.com/report?_aaaa=XML"Link B</a><br>> </p>
...
</body>
</html>

我想遍历所有链接并保存每个目标。目前我在“另存为”方面遇到问题。我真的不知道怎么做。到目前为止这是我的代码:

Sub DownloadAllLinks()

Dim IE As Object
Dim Document As Object
Dim List As Object
Dim Link As Object

' Before I logged in to the website
Set IE = CreateObject("InternetExplorer.Application")
IE.Visible = True
IE.Navigate ("https:\\......\links.html")

Do While IE.Busy
  DoEvents
Loop

' Detect all links on website
Set Document = IE.Document
Set List = Document.getElementsByTagName("a")

' Loop through all links to download them

For Each Link In List

' Now I need to automate "save target as" / right-click and then "save as"
...

Next Link
End Sub

您是否有任何想法为每个链接自动“另存为”?

任何帮助表示赞赏。非常感谢,Uli

答案

下面是我根据您的情况调整的一个非常常见的示例,它显示了XHR和RegEx用于检索网页HTML内容,从中提取所有链接以及下载每个链接的目标文件的用法:

Option Explicit

Sub Test()
    ' declare vars
    Dim sUrl As String
    Dim sReqProt As String
    Dim sReqAddr As String
    Dim sReqPath As String
    Dim sContent As String
    Dim oLinks As Object
    Dim oMatch As Object
    Dim sHref As String
    Dim sHrefProt As String
    Dim sHrefAddr As String
    Dim sHrefPath As String
    Dim sHrefFull As String
    Dim n As Long
    Dim aContent() As Byte
    ' set source URL
    sUrl = "https:\\......\links.html"
    ' process source URL
    SplitUrl sUrl, sReqProt, sReqAddr, sReqPath
    If sReqProt = "" Then sReqProt = "http:"
    sUrl = sReqProt & "//" & sReqAddr & "/" & sReqPath
    ' retrieve source page HTML content
    With CreateObject("Microsoft.XMLHTTP")
        .Open "GET", sUrl, False
        .Send
        sContent = .ResponseText
    End With
    ' parse source page HTML content to extract all links
    Set oLinks = CreateObject("Scripting.Dictionary")
    With CreateObject("VBScript.RegExp")
        .Global = True
        .MultiLine = True
        .IgnoreCase = True
        .Pattern = "<a.*?href *= *(?:'|"")(.*?)(?:'|"").*?>"
        For Each oMatch In .Execute(sContent)
            sHref = oMatch.subMatches(0)
            SplitUrl sHref, sHrefProt, sHrefAddr, sHrefPath
            If sHrefProt = "" Then sHrefProt = sReqProt
            If sHrefAddr = "" Then sHrefAddr = sReqAddr
            sHrefFull = sHrefProt & "//" & sHrefAddr & "/" & sHrefPath
            oLinks(oLinks.Count) = sHrefFull
        Next
    End With
    ' save each link target into file
    For Each n In oLinks
        sHref = oLinks(n)
        With CreateObject("Microsoft.XMLHTTP")
            .Open "GET", sHref, False
            .Send
            aContent = .ResponseBody
        End With
        With CreateObject("ADODB.Stream")
            .Type = 1 ' adTypeBinary
            .Open
            .Write aContent
            .SaveToFile "C:\Test\" & n & ".xml", 2 ' adSaveCreateOverWrite
            .Close
        End With
    Next
End Sub

Sub SplitUrl(sUrl, sProt, sAddr, sPath)
    ' extract protocol, address and path from URL
    Dim aSplit
    aSplit = Split(sUrl, "//")
    If UBound(aSplit) = 0 Then
        sProt = ""
        sAddr = sUrl
    Else
        sProt = aSplit(0)
        sAddr = aSplit(1)
    End If
    aSplit = Split(sAddr, "/")
    If UBound(aSplit) = 0 Then
        sPath = sAddr
        sAddr = ""
    Else
        sPath = Mid(sAddr, Len(aSplit(0)) + 2)
        sAddr = aSplit(0)
    End If
End Sub

此方法不使用IE自动化。通常,Microsoft.XMLHTTP处理的IE的cookie足以引用当前会话,因此如果您的网站不使用其他程序进行身份验证并生成链接列表,则该方法应该适合您。

以上是关于电脑mega下载文件,原因文件档太大,所以下载到一半电脑可以暂停关机了,让明天再继续下载?? 我是的主要内容,如果未能解决你的问题,请参考以下文章

mega下载的文件在哪

下载类似 mega.co.nz 的文件

mega同时下载文件数

mega怎么合并序列

为啥chrome每次下载pdf文件时候提示可能损害计算机

VBA宏从IE中的链接下载多个文件