使用来自 Tensorflow 的 BERT 模型时出错

Posted

技术标签:

【中文标题】使用来自 Tensorflow 的 BERT 模型时出错【英文标题】:Error with using BERT model from Tensorflow 【发布时间】:2021-03-25 15:30:02 【问题描述】:

我已尝试按照 Tensorflow 说明使用 BERT 模型:(https://www.tensorflow.org/tutorials/text/classify_text_with_bert)

但是,当我运行这些行时:

text_test = ['this is such an amazing movie!']
text_preprocessed = bert_preprocess_model(text_test)

我收到以下错误:

InvalidArgumentError:尝试使用错误的类型访问资源。预期类 tensorflow::lookup::LookupInterface 得到类 tensorflow::lookup::LookupInterface [[node StatefulPartitionedCall/StatefulPartitionedCall/bert_tokenizer/StatefulPartitionedCall/WordpieceTokenizeWithOffsets/WordpieceTokenizeWithOffsets/WordpieceTokenizeWithOffsets]] [Op:__inference_restored_function_body_72474]

这两个类完全一样:“tensorflow::lookup::LookupInterface”。有人可以帮忙吗?谢谢。

【问题讨论】:

我在windows10上遇到同样的问题有什么解决办法吗? 我现在就举报github.com/tensorflow/tensorflow/issues/46096 同样的问题!你们找到解决办法了吗? 【参考方案1】:

我在 GitHub 上找到了这个错误报告:https://github.com/tensorflow/text/issues/476

他们似乎已经承认这是一个错误并正在尝试修复它。

【讨论】:

【参考方案2】:

我在 Windows 10 中也遇到了同样的错误。 然后我在wsl2 ubuntu 18.04中试了一下,效果很好。 在wsl2 ubuntu中试试怎么样

【讨论】:

以上是关于使用来自 Tensorflow 的 BERT 模型时出错的主要内容,如果未能解决你的问题,请参考以下文章

c++ tensorflow调用与BERT实战

tensorflow版本的bert模型 GPU的占用率为100%而其利用率为0%

利用 TensorFlow Hub 中的预处理模型简化 BERT

colab上基于tensorflow2.0的BERT中文多分类

用 TensorFlow Extended 实现可扩展快速且高效的 BERT 部署

用 TensorFlow Extended 实现可扩展快速且高效的 BERT 部署