19得票4回答
当使用ColumnTransformer进入管道时出现AttributeError错误

这是我的第一个机器学习项目,也是我第一次使用ColumnTransformer。我的目标是执行数据预处理的两个步骤,并对每个步骤都使用ColumnTransformer。 在第一步中,我想将数据框中缺失值替换为字符串“missing_value”,对于其余特征,使用最常见的值。因此,我使用Co...

8得票2回答
BERT输出不确定

BERT的输出是不确定的。当我输入相同的内容时,我期望输出值是确定的,但是我的BERT模型的值是变化的。听起来有些奇怪,同样的值会被返回两次。也就是说,一旦出现另一个值,相同的值就会重复出现。 我该如何让输出值确定性呢? 下面是我的代码片段。 我使用了由Huggingface实现的PyT...

7得票2回答
使用RoBERTa加速2M个句子的嵌入。

我有大约200万个句子,想使用Facebook AI的RoBERTa-large进行向量化,使用经过NLI和STSB微调的模型进行句子相似度计算(使用优秀的sentence-transformers包)。我已经有一个数据框,其中包含两列:“utterance”列包含语料库中的每个句子,“rep...

7得票2回答
如何获取Huggingface Transformer模型预测[零样本分类]的SHAP值?

给定一个 Huggingface 的零样本分类任务,内容如下: from transformers import pipeline classifier = pipeline("zero-shot-classification", model="facebook/bart-large-mnl...

14得票3回答
在Java DOM文档中设置命名空间和前缀

我正在尝试将ResultSet转换为XML文件。 我首先使用了这个序列化的例子。import org.w3c.dom.bootstrap.DOMImplementationRegistry; import org.w3c.dom.Document; import org.w3c.dom....

9得票1回答
Sklearn管道:如何传递参数到自定义转换器?

我的 sklearn 管道中有一个自定义的 Transformer,我想知道如何向我的 Transformer 传递参数: 在下面的代码中,您可以看到我在我的 Transformer 中使用了一个字典 "weight"。我希望不在我的 Transformer 中定义此字典,而是从管道中传递它...

7得票2回答
自然语言处理中的转换器为什么需要一堆编码器?

我正在关注这个有关transformers的博客 http://jalammar.github.io/illustrated-transformer/ 唯一我不理解的是为什么需要一堆编码器或解码器。我理解多头注意力层可以捕捉问题的不同表示空间。但我不明白为什么需要垂直堆叠编码器和解码器。一...

21得票2回答
多头自注意力中的att_mask和key_padding_mask有什么区别?

在PyTorch的MultiHeadAttention中,key_padding_mask和attn_mask有什么区别: key_padding_mask——如果提供了此参数,则键(key)中指定的填充元素将被注意力机制忽略。当给定二进制掩码并且值为True时,注意力层上相应的值将被忽略。...

9得票1回答
如何使用BertForMaskedLM或BertModel计算句子的困惑度?

我想使用BertForMaskedLM或BertModel来计算一个句子的困惑度,所以我编写了以下代码: import numpy as np import torch import torch.nn as nn from transformers import BertTokenizer,...

9得票1回答
OpenAI GPT-3 API:微调一个已经微调的模型?

OpenAI的fine-tune API中model属性的文档有点令人困惑: model 要进行fine-tune的基础模型名称。您可以选择其中之一:"ada"、"babbage"、"curie"、"davinci"或2022-04-21后创建的经过fine-tune的模型。 我的问题...