了解拥抱脸变形金刚
Posted
技术标签:
【中文标题】了解拥抱脸变形金刚【英文标题】:Understanding the Hugging face transformers 【发布时间】:2020-08-29 15:56:06 【问题描述】:我是 Transformers 概念的新手,我正在阅读一些教程并编写自己的代码来理解使用 Transformer 模型的 Squad 2.0 数据集问答。在拥抱脸网站上,我遇到了 2 个不同的链接
https://huggingface.co/models https://huggingface.co/transformers/pretrained_models.html我想知道这两个网站的区别。一个链接是否只有一个预训练的模型,而另一个链接有一个预训练和微调的模型?
现在,如果我想使用 Albert 问答模型,并在此基础上使用我的 Squad 2.0 训练数据集进行训练并评估该模型,我应该进一步连接到哪个链接?
【问题讨论】:
【参考方案1】:我会这样表述: 第二个链接基本上描述了“社区接受的模型”,即作为实现 Huggingface 类的基础的模型,如 BERT、RoBERTa 等,以及一些具有较高接受度或经过同行评审的相关模型。
这个列表的 bin 时间要长得多,而第一个链接中的列表最近才直接在 Huggingface 网站上引入,社区基本上可以上传任意检查点,这些检查点被简单地认为与库“兼容”。通常,这些是由从业者或其他志愿者训练的附加模型,并具有针对特定任务的微调。请注意/pretrained_models.html
的所有模型也包含在/models
接口中。
如果您的用例非常狭窄,您不妨检查一下是否已经有一些模型针对您的特定任务进行了微调。在最坏的情况下,无论如何,您最终都会得到基本模型。
【讨论】:
以上是关于了解拥抱脸变形金刚的主要内容,如果未能解决你的问题,请参考以下文章