From 6ce15e1c85b4f55225da0195e159d8242adf99ab Mon Sep 17 00:00:00 2001 From: Netpunk <2327994230@qq.com> Date: Sat, 2 Dec 2023 19:16:15 +0800 Subject: [PATCH] add AdaptiveLogSoftmaxWithLoss to Paddle --- ..._design_for_AdaptiveLogSoftmaxWithLoss.md} | 181 ++++++++++++------ 1 file changed, 120 insertions(+), 61 deletions(-) rename rfcs/APIs/{20200322_api_design_for_AdaptiveLogSoftmaxWithLoss.md => 20231202_api_design_for_AdaptiveLogSoftmaxWithLoss.md} (65%) diff --git a/rfcs/APIs/20200322_api_design_for_AdaptiveLogSoftmaxWithLoss.md b/rfcs/APIs/20231202_api_design_for_AdaptiveLogSoftmaxWithLoss.md similarity index 65% rename from rfcs/APIs/20200322_api_design_for_AdaptiveLogSoftmaxWithLoss.md rename to rfcs/APIs/20231202_api_design_for_AdaptiveLogSoftmaxWithLoss.md index 611561471..bd9dcf38b 100644 --- a/rfcs/APIs/20200322_api_design_for_AdaptiveLogSoftmaxWithLoss.md +++ b/rfcs/APIs/20231202_api_design_for_AdaptiveLogSoftmaxWithLoss.md @@ -1,12 +1,12 @@ # paddle.nn.AdaptiveLogSoftmaxWithLoss 设计文档 -|API名称 | paddle.nn.AdaptiveLogSoftmaxWithLoss | +|API名称 | paddle.nn.AdaptiveLogSoftmaxWithLoss | |---|------------------------------------| -|提交作者 | PeachML | -|提交时间 | 2022-03-22 | -|版本号 | V1.0 | -|依赖飞桨版本 | develop | -|文件名 | 20200322_api_design_for_AdaptiveLogSoftmaxWithLoss.md
| +|提交作者 | netpunk | +|提交时间 | 2023-12-02 | +|版本号 | V1.0 | +|依赖飞桨版本 | develop | +|文件名 | 20200322_api_design_for_AdaptiveLogSoftmaxWithLoss.md
| # 一、概述 @@ -17,6 +17,20 @@ Paddle需要扩充API,新增 AdaptiveLogSoftmaxWithLoss API, 调用路径为:`paddle.nn.AdaptiveLogSoftmaxWithLoss` 和 `paddle.nn.functional.adaptive_log_softmax_with_loss`。 实现Softmax快速近似计算的功能。 +## 2、功能目标 + +为飞桨补充 AdaptiveLogSoftmaxWithLoss API,该API实现 softmax 函数近似计算 + +adaptive_log_softmax_with_loss的计算分步骤如下 + +$\text{head_output} = \text{linear}(\text{input}, \text{head_weight}, \text{head_bias})$ + +$\text{head_logprob} = \text{log_softmax}(\text{head_output}, \text{axis}=1)$ + +$\text{output} += \text{take_along_axis}(\text{head_logprob}, \text{gather_inds.unsqueeze(1)}, \text{axis}=1).\text{squeeze()}$ + +$\text{loss} = -\text{output.mean()}$ + ## 3、意义 在自然语言处理中,当字典维度过大时,embedding 将占据模型大部分参数量。 例如机器翻译任务中,词表维度大约是2^17,embedding维度取1024,那么就会产生将近1亿参数量, @@ -144,18 +158,32 @@ Efficient softmax approximation as described in 2. 训练 ```python -def forward(self, input, target): - # input的shape为[batch_size * bptt, hidden_size] - # target的shape为[batch_size * bptt, 1] - if input.size(0) != target.size(0): - raise RuntimeError('Input and target should have the same size ' - 'in the batch dimension.') - # 用来统计多个cluster计算的batch,然后求和,保证最终等于batch_size +def forward(self, input_: Tensor, target_: Tensor) -> _ASMoutput: + targ_dim = target_.dim() + + if targ_dim == 1: + if input_.size(0) != target_.size(0): + raise RuntimeError('Input and target should have the same size ' + 'in the batch dimension.') + if input_.dim() != 2: + raise RuntimeError('1D target tensor expects 2D input tensors, ' + 'but found inputs with size', input_.size()) + elif targ_dim == 0: + if input_.dim() != 1: + raise RuntimeError('0D target tensor expects 1D input tensors, ' + 'but found inputs with size', input_.size()) + else: + raise RuntimeError('0D or 1D target tensor expected, ' + 'multi-target not supported') + + is_batched = targ_dim > 0 + input = input_ if is_batched else input_.unsqueeze(0) + target = target_ if is_batched else target_.unsqueeze(0) + used_rows = 0 batch_size = target.size(0) - # 用来记录在target位置的 logprob + output = input.new_zeros(batch_size) - # 用来记录batch样本在第一层对应的类别 gather_inds = target.new_empty(batch_size) cutoff_values = [0] + self.cutoffs @@ -163,94 +191,82 @@ def forward(self, input, target): low_idx = cutoff_values[i] high_idx = cutoff_values[i + 1] - # 找到当前cluster的样本对应的index + target_mask = (target >= low_idx) & (target < high_idx) row_indices = target_mask.nonzero().squeeze() - # 如果当前cluster没有样本,则没有loss + if row_indices.numel() == 0: continue - # target对应高频词,这里只用来记录batch对应的target,高频词的预测在后面 self.head + if i == 0: gather_inds.index_copy_(0, row_indices, target[target_mask]) - # target对应低频词 + else: - # 获取低频cluster对应的target的相对位置 relative_target = target[target_mask] - low_idx - # 获取对应cluster的input input_subset = input.index_select(0, row_indices) - # 经过线性变换 得到 [batch_size_i, target_i] + cluster_output = self.tail[i - 1](input_subset) - # 当前cluster对应第一层权重元素的类别 cluster_index = self.shortlist_size + i - 1 - # 记录对应第一层的类别 + gather_inds.index_fill_(0, row_indices, cluster_index) - # 计算当前cluster的log_prob cluster_logprob = log_softmax(cluster_output, dim=1) - # 获取对应target位置的log_prob local_logprob = cluster_logprob.gather(1, relative_target.unsqueeze(1)) - # 将结果记录到对应的batch中 output.index_copy_(0, row_indices, local_logprob.squeeze(1)) used_rows += row_indices.numel() if used_rows != batch_size: - raise RuntimeError("Target values should be in [0, {}], " - "but values in range [{}, {}] " - "were found. ".format(self.n_classes - 1, - target.min().item(), - target.max().item())) - # 第一层的线性变换,因为无论高频和低频词都需要计算第一层,所以放到了这里统一计算 + raise RuntimeError(f"Target values should be in [0, {self.n_classes - 1}], " + f"but values in range [{target.min().item()}, {target.max().item()}] " + "were found. ") + head_output = self.head(input) - # 取log_prob head_logprob = log_softmax(head_output, dim=1) - # 这里是第一层的log_prob和第二层的log_prob加起来作为最后的输出 - # tips: 对于属于第一层的样本,只需要计算第一层的log_prob就好 - # 对于属于第二层的样本,需要将第一层计算得到的cluster对应类别的log_prob和 - 第二层cluster内计算得到的log_prob加起来,所以是output += output += head_logprob.gather(1, gather_inds.unsqueeze(1)).squeeze() loss = (-output).mean() - # 返回一个nametuple + + if not is_batched: + output = output.squeeze(0) + return _ASMoutput(output, loss) ``` 3. 预测 ```python -def predict(self, input): - """ +def predict(self, input: Tensor) -> Tensor: + r""" This is equivalent to `self.log_prob(input).argmax(dim=1)`, + but is more efficient in some cases. + Args: input (Tensor): a minibatch of examples + Returns: output (Tensor): a class with the highest probability for each example + Shape: - - Input: :math:`(N, in\_features)` + - Input: :math:`(N, \texttt{in\_features})` - Output: :math:`(N)` """ - # 第一层的线性转化 + head_output = self.head(input) - # 记录预测target的位置 output = torch.argmax(head_output, dim=1) - # 判断预测的位置是否都是低频词 not_in_shortlist = (output >= self.shortlist_size) - # 获取预测高频词的样本index all_in_shortlist = not (not_in_shortlist.any()) - # 如果预测的结果都为高频词,则直接返回结果 + if all_in_shortlist: return output - # 如果预测的结果都为低频词 + elif not_in_shortlist.all(): - # 计算低频词对应cluster中target对应的log_prob log_prob = self._get_full_log_prob(input, head_output) return torch.argmax(log_prob, dim=1) - # 如果预测的结果既有高频词,也有低频词 + else: - # 只对低频词进行对应cluser的预测 log_prob = self._get_full_log_prob(input[not_in_shortlist], head_output[not_in_shortlist]) output[not_in_shortlist] = torch.argmax(log_prob, dim=1) return output -# 计算低频词对应cluster中target对应的log_prob def _get_full_log_prob(self, input, head_output): """ Given input tensor, and output of `self.head`, compute the log of the full distribution """ @@ -268,36 +284,79 @@ def _get_full_log_prob(self, input, head_output): out[:, start_idx:stop_idx] = output_logprob return out + +def log_prob(self, input: Tensor) -> Tensor: + r""" Computes log probabilities for all :math:`\texttt{n\_classes}` + + Args: + input (Tensor): a minibatch of examples + + Returns: + log-probabilities of for each class :math:`c` + in range :math:`0 <= c <= \texttt{n\_classes}`, where :math:`\texttt{n\_classes}` is a + parameter passed to ``AdaptiveLogSoftmaxWithLoss`` constructor. + + Shape: + - Input: :math:`(N, \texttt{in\_features})` + - Output: :math:`(N, \texttt{n\_classes})` + + """ + + head_output = self.head(input) + return self._get_full_log_prob(input, head_output) ``` # 四、对比分析 无其它框架实现 -# 五、方案设计 +# 五、设计思路与实现方案 ## 命名与参数设计 -API设计为`paddle.nn.AdaptiveLogSoftmaxWithLoss(in_features, n_classes, cutoffs, div_value=4.0, head_bias=False, name=None)`及 -`paddle.nn.functional.adaptive_log_softmax_with_loss(input, label, -in_features, n_classes, cutoffs, div_value=4.0, head_bias=False, name=None)`, 返回为`NamedTuple` 包含 `output` 和 `loss`字段 +layer层类API:`paddle.nn.AdaptiveLogSoftmaxWithLoss(in_features, n_classes, cutoffs, div_value=4.0, head_bias=False, name=None)`,包含两个主要方法: + - forward(self, input, label),用于训练,返回为`output` 和 `loss` + - predict(self, input),用于预测 + +- in_features (int): 输入tensor的特征数量。 +- n_classes (int): 数据集中类型的个数。 +- cutoffs (Sequence): 用于将label分配到不同存储桶的截断值。 +- div_value (float, 可选): 用于计算簇大小的指数值. 默认值:4.0。 +- head_bias (bool, 可选): 如果为 ``True``,向自适应 softmax 的头部添加偏置项. 默认值:``False``. +- name (str, 可选): 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。 + +function API:`paddle.nn.functional.adaptive_log_softmax_with_loss(input, label, head_weight, tail_weights, cutoffs, head_bias=None)` 用于训练计算 +- input (Tensor): 输入张量,数据类型为 float32 或 float64。 +- label (Tensor): 标签张量,数据类型为 float32 或 float64。 +- head_weight (Tensor): 用于线性计算的权重矩阵,数据类型为 float32 或 float64。 +- tail_weights (Tensor): 用于线性计算的权重矩阵,数据类型为 float32 或 float64。 +- cutoffs (Sequence): 用于将label分配到不同存储桶的截断值。 +- head_bias (Tensor, 可选): 用于线性计算的偏置矩阵,数据类型为 float32 或 float64。 +- name (str, 可选): 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。 ## 底层OP设计 使用已有API组合实现,不再单独设计OP。 ## API实现方案 -主要参考pytorch实现,替换掉部分paddle没有的api - + +计算逻辑参考pytorch实现,并基于paddle API进行重组与封装: +- function API:`paddle.nn.functional.adaptive_log_softmax_with_loss(input, label, head_weight, tail_weights, cutoffs, head_bias=None)`,使用已有api进行组合实现, + +- layer层类API:`paddle.nn.AdaptiveLogSoftmaxWithLoss(in_features, n_classes, cutoffs, div_value=4.0, head_bias=False, name=None)`,包含两个主要方法: + - forward(self, input, target),用于训练,返回为`output` 和 `loss` + - predict(self, input), 用于预测,其计算与forward共享权重但是计算逻辑存在差异,故使用已有API组合实现的方式单独实现 + # 六、测试和验收的考量 测试考虑的case如下: -- 数值正确性 +- 数值正确性(CPU、GPU、动态图、静态图) - 错误检查:`cutoff`的唯一性,数据类型,数值大于零小于`n_classes - 1` - 错误检查:`input`尺寸与`in_features`一致 # 七、可行性分析及规划排期 -方案主要依赖paddle现有api组合而成 + +paddle.gather与torch.gather存在差异,使用paddle.take_along_axis替换实现。实现无明显难点,可以按期完成。 # 八、影响面 为独立新增API,对其他模块没有影响 @@ -305,4 +364,4 @@ in_features, n_classes, cutoffs, div_value=4.0, head_bias=False, name=None)`, # 名词解释 无 # 附件及参考资料 -无 +无 \ No newline at end of file