分类目录:《深入浅出Pytorch函数》总目录
相关文章:
· 深入浅出Pytorch函数——torch.nn.init.calculate_gain
· 深入浅出Pytorch函数——torch.nn.init.uniform_
· 深入浅出Pytorch函数——torch.nn.init.normal_
· 深入浅出Pytorch函数——torch.nn.init.constant_
· 深入浅出Pytorch函数——torch.nn.init.ones_
· 深入浅出Pytorch函数——torch.nn.init.zeros_
· 深入浅出Pytorch函数——torch.nn.init.eye_
· 深入浅出Pytorch函数——torch.nn.init.dirac_
· 深入浅出Pytorch函数——torch.nn.init.xavier_uniform_
· 深入浅出Pytorch函数——torch.nn.init.xavier_normal_
· 深入浅出Pytorch函数——torch.nn.init.kaiming_uniform_
· 深入浅出Pytorch函数——torch.nn.init.kaiming_normal_
· 深入浅出Pytorch函数——torch.nn.init.trunc_normal_
· 深入浅出Pytorch函数——torch.nn.init.orthogonal_
· 深入浅出Pytorch函数——torch.nn.init.sparse_
torch.nn.init
模块中的所有函数都用于初始化神经网络参数,因此它们都在torc.no_grad()
模式下运行,autograd
不会将其考虑在内。
该函数从给定均值和标准差的正态分布 N ( mean , std ) N(\text{mean}, \text{std}) N(mean,std)中生成值,填充输入的张量或变量
语法
torch.nn.init.normal_(tensor, mean=0.0, std=1.0)
参数
tensor
:[Tensor
] 一个 N N N维张量torch.Tensor
mean
:[float
] 正态分布的均值std
:[float
] 正态分布的标准差
返回值
一个torch.Tensor
且参数tensor
也会更新
实例
w = torch.empty(3, 5)
nn.init.normal_(w)
函数实现
def normal_(tensor: Tensor, mean: float = 0., std: float = 1.) -> Tensor:r"""Fills the input Tensor with values drawn from the normaldistribution :math:`\mathcal{N}(\text{mean}, \text{std}^2)`.Args:tensor: an n-dimensional `torch.Tensor`mean: the mean of the normal distributionstd: the standard deviation of the normal distributionExamples:>>> w = torch.empty(3, 5)>>> nn.init.normal_(w)"""if torch.overrides.has_torch_function_variadic(tensor):return torch.overrides.handle_torch_function(normal_, (tensor,), tensor=tensor, mean=mean, std=std)return _no_grad_normal_(tensor, mean, std)