win10刻盘时出现无效的文件句柄如何修复?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了win10刻盘时出现无效的文件句柄如何修复?相关的知识,希望对你有一定的参考价值。
常规办法都试过了,杀毒、恢复系统到备份时间点、修补漏洞,都不行
1
按住键盘上面的“Shift”键,不要松...
2
等界面变成如图所示,选择“疑难解...
3
选择“高级选项”
4
选择“启动设置”
参考技术A 在虚拟机安装linux系统时,如果提示"无法获得 VMCI 驱动程序的版本: 句柄无效",如下所示:
解决办法:
在D:UsershwbDocumentsVirtual MachinesRed Hat Enterprise Linux 7 64 位 找到后缀为vmx的文件,编辑打开后在文本框输入 vmci0.present 点击查找下一个,查找到 vmci0.present="TRUE" 代码,将true更改为false点击保存即可
对于电脑水平属于小白的用户来说一般不知道win10系统提示句柄无效到底该怎么处理? 今天小编就给大家详细介绍一下关于win10系统提示句柄无效的处理办法:
1、此警告音是否由于安装了第三方软件后提示的,如果是建议卸载掉不要使用,或查看是不是游戏本身遇到了问题,可以卸载重新下载安装。
2、“句柄无效”通常是编程的错误,但你的情况显然不可能是编程的问题,应该是丢失或更改了某些系统文件。可能是你的dircetx错误,
或者是丢失了某些动态连接库的dLL文件。重新下载一个directx9.0c,安装试试。如果还不行,就重装操作系统,这样做比较省事。
windows spyder 运行 py 文件时出现无效语法错误
【中文标题】windows spyder 运行 py 文件时出现无效语法错误【英文标题】:windows spyder invalid syntax error while running py file 【发布时间】:2020-03-29 15:12:35 【问题描述】:我正在尝试从page 运行最后一个示例。我已经克隆了目录C:/Users/nn/Desktop/BERT/transformers-master
中的存储库。我在 Windows 机器上并使用 spyder IDE。为什么我会得到以下错误,我该如何解决?如何输入诗歌的开头部分?
import os
os.chdir('C:/Users/nn/Desktop/BERT/transformers-master/examples')
os.listdir()# It shows run_generation.py file
python run_generation.py \
--model_type=gpt2 \
--length=100 \
--model_name_or_path=gpt2 \
python run_generation.py \
--model_type=gpt2 \
--length=100 \
--model_name_or_path=gpt2 \
File "<ipython-input-10-501d266b0e64>", line 1
python run_generation.py \
^
SyntaxError: invalid syntax
我转到命令提示符并在下面尝试
cd C:/Users/nn/Desktop/BERT/transformers-master/examples
python3 run_generation.py \--model_type=gpt2 \--length=100 \--model_name_or_path=gpt2 \--promt="Hello world"
什么都没发生 :(
当我尝试使用 python 命令时,我收到如下错误:(
python run_generation.py \--model_type=gpt2 \--length=100 \--model_name_or_path=gpt2 \--promt="Hello world"
2019-12-04 11:23:36.345648: W tensorflow/stream_executor/platform/default/dso_loader.cc:55] Could not load dynamic library 'cudart64_100.dll'; dlerror: cudart64_100.dll not found
2019-12-04 11:23:36.352875: I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.
usage: run_generation.py [-h] --model_type MODEL_TYPE --model_name_or_path
MODEL_NAME_OR_PATH [--prompt PROMPT]
[--padding_text PADDING_TEXT] [--xlm_lang XLM_LANG]
[--length LENGTH] [--num_samples NUM_SAMPLES]
[--temperature TEMPERATURE]
[--repetition_penalty REPETITION_PENALTY]
[--top_k TOP_K] [--top_p TOP_P] [--no_cuda]
[--seed SEED] [--stop_token STOP_TOKEN]
run_generation.py: error: the following arguments are required: --model_type, --model_name_or_path
####update 2 ------------------
我遵循了 cmets 中的建议,它奏效了。代码似乎下载了3个文件。
-
我可以手动复制这些文件,这样我就不必每次都依赖于在临时文件夹中下载它们了吗?
我应该将这些文件存储在哪里?哪个文件夹位置?会是
C:\Users\nnn\Desktop\BERT\transformers-master\examples
- 与run_generation.py
文件相同吗?
abc
C:\Users\nnn\Desktop\BERT\transformers-master\examples>python run_generation.py --model_type=gpt2 --length=100 --model_name_or_path=gpt2 --prompt="My job is"
2019-12-12 11:11:57.740810: W tensorflow/stream_executor/platform/default/dso_loader.cc:55] Could not load dynamic library 'cudart64_100.dll'; dlerror: cudart64_100.dll not found
2019-12-12 11:11:57.748330: I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.
12/12/2019 11:12:01 - INFO - transformers.file_utils - https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-vocab.json not found in cache or force_download set to True, downloading to C:\Users\nnn\AppData\Local\Temp\tmpt_29gyqi
100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1042301/1042301 [00:00<00:00, 2275416.04B/s]
12/12/2019 11:12:02 - INFO - transformers.file_utils - copying C:\Users\nnn\AppData\Local\Temp\tmpt_29gyqi to cache at C:\Users\nnn\.cache\torch\transformers\f2808208f9bec2320371a9f5f891c184ae0b674ef866b79c58177067d15732dd.1512018be4ba4e8726e41b9145129dc30651ea4fec86aa61f4b9f40bf94eac71
12/12/2019 11:12:02 - INFO - transformers.file_utils - creating metadata file for C:\Users\nnn\.cache\torch\transformers\f2808208f9bec2320371a9f5f891c184ae0b674ef866b79c58177067d15732dd.1512018be4ba4e8726e41b9145129dc30651ea4fec86aa61f4b9f40bf94eac71
12/12/2019 11:12:02 - INFO - transformers.file_utils - removing temp file C:\Users\nnn\AppData\Local\Temp\tmpt_29gyqi
12/12/2019 11:12:03 - INFO - transformers.file_utils - https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-merges.txt not found in cache or force_download set to True, downloading to C:\Users\nnn\AppData\Local\Temp\tmpj1_y4sn8
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 456318/456318 [00:00<00:00, 1456594.78B/s]
12/12/2019 11:12:03 - INFO - transformers.file_utils - copying C:\Users\nnn\AppData\Local\Temp\tmpj1_y4sn8 to cache at C:\Users\nnn\.cache\torch\transformers\d629f792e430b3c76a1291bb2766b0a047e36fae0588f9dbc1ae51decdff691b.70bec105b4158ed9a1747fea67a43f5dee97855c64d62b6ec3742f4cfdb5feda
12/12/2019 11:12:03 - INFO - transformers.file_utils - creating metadata file for C:\Users\nnn\.cache\torch\transformers\d629f792e430b3c76a1291bb2766b0a047e36fae0588f9dbc1ae51decdff691b.70bec105b4158ed9a1747fea67a43f5dee97855c64d62b6ec3742f4cfdb5feda
12/12/2019 11:12:03 - INFO - transformers.file_utils - removing temp file C:\Users\nnn\AppData\Local\Temp\tmpj1_y4sn8
12/12/2019 11:12:03 - INFO - transformers.tokenization_utils - loading file https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-vocab.json from cache at C:\Users\nnn\.cache\torch\transformers\f2808208f9bec2320371a9f5f891c184ae0b674ef866b79c58177067d15732dd.1512018be4ba4e8726e41b9145129dc30651ea4fec86aa61f4b9f40bf94eac71
12/12/2019 11:12:03 - INFO - transformers.tokenization_utils - loading file https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-merges.txt from cache at C:\Users\nnn\.cache\torch\transformers\d629f792e430b3c76a1291bb2766b0a047e36fae0588f9dbc1ae51decdff691b.70bec105b4158ed9a1747fea67a43f5dee97855c64d62b6ec3742f4cfdb5feda
12/12/2019 11:12:04 - INFO - transformers.file_utils - https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-config.json not found in cache or force_download set to True, downloading to C:\Users\nnn\AppData\Local\Temp\tmpyxywrts1
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 176/176 [00:00<00:00, 17738.31B/s]
12/12/2019 11:12:04 - INFO - transformers.file_utils - copying C:\Users\nnn\AppData\Local\Temp\tmpyxywrts1 to cache at C:\Users\nnn\.cache\torch\transformers\4be02c5697d91738003fb1685c9872f284166aa32e061576bbe6aaeb95649fcf.085d5f6a8e7812ea05ff0e6ed0645ab2e75d80387ad55c1ad9806ee70d272f80
12/12/2019 11:12:04 - INFO - transformers.file_utils - creating metadata file for C:\Users\nnn\.cache\torch\transformers\4be02c5697d91738003fb1685c9872f284166aa32e061576bbe6aaeb95649fcf.085d5f6a8e7812ea05ff0e6ed0645ab2e75d80387ad55c1ad9806ee70d272f80
12/12/2019 11:12:04 - INFO - transformers.file_utils - removing temp file C:\Users\nnn\AppData\Local\Temp\tmpyxywrts1
12/12/2019 11:12:04 - INFO - transformers.configuration_utils - loading configuration file https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-config.json from cache at C:\Users\nnn\.cache\torch\transformers\4be02c5697d91738003fb1685c9872f284166aa32e061576bbe6aaeb95649fcf.085d5f6a8e7812ea05ff0e6ed0645ab2e75d80387ad55c1ad9806ee70d272f80
12/12/2019 11:12:04 - INFO - transformers.configuration_utils - Model config
"attn_pdrop": 0.1,
"embd_pdrop": 0.1,
"finetuning_task": null,
"initializer_range": 0.02,
"layer_norm_epsilon": 1e-05,
"n_ctx": 1024,
"n_embd": 768,
"n_head": 12,
"n_layer": 12,
"n_positions": 1024,
"num_labels": 1,
"output_attentions": false,
"output_hidden_states": false,
"output_past": true,
"pruned_heads": ,
"resid_pdrop": 0.1,
"summary_activation": null,
"summary_first_dropout": 0.1,
"summary_proj_to_labels": true,
"summary_type": "cls_index",
"summary_use_proj": true,
"torchscript": false,
"use_bfloat16": false,
"vocab_size": 50257
12/12/2019 11:12:04 - INFO - transformers.file_utils - https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-pytorch_model.bin not found in cache or force_download set to True, downloading to C:\Users\nnn\AppData\Local\Temp\tmpn8i9o_tm
100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 548118077/548118077 [01:12<00:00, 7544610.26B/s]
12/12/2019 11:13:18 - INFO - transformers.file_utils - copying C:\Users\nnn\AppData\Local\Temp\tmpn8i9o_tm to cache at C:\Users\nnn\.cache\torch\transformers\4295d67f022061768f4adc386234dbdb781c814c39662dd1662221c309962c55.778cf36f5c4e5d94c8cd9cefcf2a580c8643570eb327f0d4a1f007fab2acbdf1
12/12/2019 11:13:24 - INFO - transformers.file_utils - creating metadata file for C:\Users\nnn\.cache\torch\transformers\4295d67f022061768f4adc386234dbdb781c814c39662dd1662221c309962c55.778cf36f5c4e5d94c8cd9cefcf2a580c8643570eb327f0d4a1f007fab2acbdf1
12/12/2019 11:13:24 - INFO - transformers.file_utils - removing temp file C:\Users\nnn\AppData\Local\Temp\tmpn8i9o_tm
12/12/2019 11:13:24 - INFO - transformers.modeling_utils - loading weights file https://s3.amazonaws.com/models.huggingface.co/bert/gpt2-pytorch_model.bin from cache at C:\Users\nnn\.cache\torch\transformers\4295d67f022061768f4adc386234dbdb781c814c39662dd1662221c309962c55.778cf36f5c4e5d94c8cd9cefcf2a580c8643570eb327f0d4a1f007fab2acbdf1
12/12/2019 11:13:32 - INFO - __main__ - Namespace(device=device(type='cpu'), length=100, model_name_or_path='gpt2', model_type='gpt2', n_gpu=0, no_cuda=False, num_samples=1, padding_text='', prompt='My job is', repetition_penalty=1.0, seed=42, stop_token=None, temperature=1.0, top_k=0, top_p=0.9, xlm_lang='')
100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:23<00:00, 2.49it/s]
to know when it will change, it's up to you."
National Communications Director Alex Brynner said the Trump administration needs to help then-Secretary of State Rex Tillerson learn from him.
"The Cabinet, like any other government job, has to be attentive to the needs of an individual that might challenge his or her position," Brynner said. "This is especially true in times of renewed volatility."
Brynner said Tillerson has not "failed at vetting
【问题讨论】:
您是否尝试使用相同的参数运行代码,但另一个提示?我试过了,它会自动从缓存中取出 3 个文件。 如果假设我想重新启动机器并在此之后运行命令,我认为从另一个提示符运行不会有帮助 我的意思是 --prompt 选项。但是,是的,缓存不会永远存在,坦率地说,我对此没有解决方案。 好吧,回头看:/pytorch-transformers/transformers/file_utils.py 有文件处理和缓存。您应该以某种方式硬编码那里的文件位置以使用相同的缓存文件或其他东西。很难说,可能不是一件容易的事。 【参考方案1】:您是否阅读了任务的先决条件:
在你的机器上安装 PyTorch-Transformers 在 Python 中安装 Pytorch-Transformers 非常简单。您可以简单地使用 pip install:
pip install pytorch-transformers
或者如果您正在使用 Colab:
!pip install pytorch-transformers
由于这些模型中的大多数都需要大量 GPU,因此我建议在本文的这一部分与 Google Colab 合作。
Colab 链接:https://colab.research.google.com/notebooks/welcome.ipynb#recent=true
colab 中使用的命令语法略有不同,您可以从上面的 pip 命令中观察到。
删除 \ 字符(在 cmd 上时)并在同一行上仅用空格字符分隔所有命令参数,示例命令很可能运行得更好。
命令可能需要大量计算,因此使用示例中的语法的 colab 直接在其中工作。
编辑:
现在,回头看你的代码,有一个重要的错字:
将提示与另一个 p 一起使用,而不是提示。然后你很可能能够输入算法的种子。我正在自己的计算机上对此进行测试,如果发现其他问题,我会尽快发表评论。
编辑2:
我的测试花了一些时间,现在我准备好了。我必须遵循 3 个 Readme.md 文件才能使教程正常工作:一个来自根文件夹,一个位于变压器下方,最后一个来自示例。然后运行这个命令我得到了我的第一个结果:
python pytorch-transformers/examples/run_generation.py --model_type=gpt2 --length=2 --model_name_or_path=gpt2 --prompt="My job is"
..电脑想了想,说得很好:“知道”。
【讨论】:
我的机器上安装了 pytorch-transformers。我尝试在没有 \ 的情况下运行该命令,但它没有工作以上是关于win10刻盘时出现无效的文件句柄如何修复?的主要内容,如果未能解决你的问题,请参考以下文章
装win7时出现Windows启动配置数据(BCD)存储文件包含一些无效信息 重装都没有用 进PE 里面也进入不了C盘
为啥调用 GetThreadTimes 时出现“句柄无效”错误?
关闭 websocket 时出现 SignalR 错误 - 句柄无效
安装win10时出现错误代码,0x80070570 - 0x2000C