InterLM代码解析

interLM的Transformer架构,重要模块的实现解析

Decoder架构


class InternLMDecoderLayer(nn.Module):def __init__(self, config: InternLMXComposerConfig):super().__init__()self.hidden_size = config.hidden_sizeif hasattr(config,'intern_converted_llm') and config.intern_converted_llm:self.self_attn = InternConvertedInternLMAttention(config=config)else:self.self_attn = InternLMAttention(config=config)self.mlp = InternLMMLP(hidden_size=self.hidden_size,intermediate_size=config.intermediate_size,hidden_act=config.hidden_act,config=config,)self.input_layernorm = InternLMRMSNorm(config.hidden_size,eps=config.rms_norm_eps)self.post_attention_layernorm = InternLMRMSNorm(config.hidden_size, eps=config.rms_norm_eps)def forward(self,hidden_states: torch.Tensor,attention_mask: Optional[torch.Tensor] = None,position_ids: Optional[torch.LongTensor] = None,past_key_value: Optional[Tuple[torch.Tensor]] = None,output_attentions: Optional[bool] = False,use_cache: Optional[bool] = False,) -> Tuple[torch.FloatTensor, Optional[Tuple[torch.FloatTensor,torch.FloatTensor]]]:"""Args:hidden_states (`torch.FloatTensor`): input to the layer of shape `(batch, seq_len, embed_dim)`attention_mask (`torch.FloatTensor`, *optional*): attention mask of size`(batch, 1, tgt_len, src_len)` where padding elements are indicated by very large negative values.output_attentions (`bool`, *optional*):Whether or not to return the attentions tensors of all attention layers. See `attentions` underreturned tensors for more detail.use_cache (`bool`, *optional*):If set to `True`, `past_key_values` key value states are returned and can be used to speed up decoding(see `past_key_values`).past_key_value (`Tuple(torch.FloatTensor)`, *optional*): cached past key and value projection states"""residual = hidden_stateshidden_states = self.input_layernorm(hidden_states)# Self Attentionhidden_states, self_attn_weights, present_key_value = self.self_attn(hidden_states=hidden_states,attention_mask=attention_mask,position_ids=position_ids,past_key_value=past_key_value,output_attentions=output_attentions,use_cache=use_cache,)hidden_states = residual + hidden_states# Fully Connectedresidual = hidden_stateshidden_states = self.post_attention_layernorm(hidden_states)hidden_states = self.mlp(hidden_states)hidden_states = residual + hidden_statesoutputs = (hidden_states, )if output_attentions:outputs += (self_attn_weights, )if use_cache:outputs += (present_key_value, )return outputs

MLP

  • 两个MLP层+一个门控激活函数
class InternLMMLP(nn.Module):def __init__(self, hidden_size: int, intermediate_size: int,hidden_act: str, config: InternLMXComposerConfig):super().__init__()self.gate_proj = nn.Linear(hidden_size, intermediate_size, bias=False)if config.lora_cfg is not None and 'ffn' in config.lora_cfg['learn_param']:lora_cfg = config.lora_cfgself.down_proj = LoRALinear(intermediate_size,hidden_size,bias=False,**lora_cfg)self.up_proj = LoRALinear(hidden_size,intermediate_size,bias=False,**lora_cfg)else:self.down_proj = nn.Linear(intermediate_size,hidden_size,bias=False)self.up_proj = nn.Linear(hidden_size,intermediate_size,bias=False)self.act_fn = ACT2FN[hidden_act]def forward(self, x):return self.down_proj(self.act_fn(self.gate_proj(x)) * self.up_proj(x))

CausalAttention Mask

# Copied from transformers.models.bart.modeling_bart._make_causal_mask
def _make_causal_mask(input_ids_shape: torch.Size,dtype: torch.dtype,device: torch.device,past_key_values_length: int = 0):"""Make causal mask used for bi-directional self-attention."""# 获取输入的形状,包括批量大小和目标长度bsz, tgt_len = input_ids_shape# 初始化一个形状为(目标长度, 目标长度)的tensor,用极小值填充. 即mask矩阵mask = torch.full((tgt_len, tgt_len),torch.tensor(torch.finfo(dtype).min, device=device),device=device)# 创建一个mask_cond张量,其范围是[0, tgt_len-1]mask_cond = torch.arange(mask.size(-1), device=device)# 根据条件进行填充,下三角为0,上三角为1mask.masked_fill_(mask_cond < (mask_cond + 1).view(mask.size(-1), 1), 0)# 转换mask的数据类型为dtypemask = mask.to(dtype)# 如果过去键值的长度大于0,则将其拼接到mask的前面if past_key_values_length > 0:mask = torch.cat([torch.zeros(tgt_len, past_key_values_length, dtype=dtype, device=device),mask],dim=-1)# 返回形状为[bsz, 1, tgt_len, tgt_len + past_key_values_length]的maskreturn mask[None, None, :, :].expand(bsz, 1, tgt_len,tgt_len + past_key_values_length)

past_key_values_length

在Transformer中,past_key_values_length是指用于存储前一次计算的注意力键值对(key-value pairs)的长度。Transformer模型在处理较长的序列时,为了提高效率会使用存储,以避免重复计算。

  • 当输入序列长度增加时,前一次的键值对会被缓存以供后续的注意力计算使用。这样可以节省计算时间,特别是在生成式任务中,如机器翻译或文本生成。

  • 为什么用zeros?
    如果past_key_values_length大于0,即存在过去的键值对需要存储,我们需要将这些过去的键值对所对应的掩码(mask)拼接到当前的掩码中。

在这里,我们首先创建了一个与当前mask形状相同的全零张量,用于表示过去的掩码。然后,通过使用torch.cat函数将这个全零张量和当前的mask进行拼接,以便将过去的信息与当前的信息合并在一起,形成一个更大的掩码张量。

详细解释一下如何创建CasualMask矩阵

当调用masked_fill_函数时,我们传入了一个条件(mask_cond < (mask_cond + 1).view(mask.size(-1), 1))和一个填充值(0)。

这个条件 mask_cond < (mask_cond + 1).view(mask.size(-1), 1) 创建了一个下三角为True,上三角为False的条件掩码。

当我们执行 (mask_cond + 1).view(mask.size(-1), 1) 时,我们将 mask_cond 中的每个元素增加 1,并且重新塑造成一个列向量。假设 mask_cond 最初是一个长度为 4 的向量 [0, 1, 2, 3],那么在执行 +1view 操作后得到的列向量就是:

[1]
[2]
[3]
[4]

现在,我们比较 mask_cond(mask_cond+1).view(mask.size(-1), 1)。我们发现,如果 mask_cond 中的元素小于列向量中对应位置的元素,这意味着该位置处于下三角区域。例如,在这个例子中,当我们比较原始向量和列向量时:

[0, 1, 2, 3]   <   [1]
[1, 2, 3, 4]   <   [2]
[2, 3, 4, 5]   <   [3]
[3, 4, 5, 6]   <   [4]

这将生成一个下三角为 True,上三角为 False 的布尔掩码,可以用于创建Mask。

masked_fill_函数用条件掩码来填充张量。在这里,如果条件为True,对应位置将被填充为0。这样就实现了对角线以下的元素被填充为0,对角线以上的元素保持不变。


Attention Mask

def _expand_mask(mask: torch.Tensor,dtype: torch.dtype,tgt_len: Optional[int] = None):"""Expands attention_mask from `[bsz, seq_len]` to `[bsz, 1, tgt_seq_len, src_seq_len]`."""bsz, src_len = mask.size()# 如果未提供目标序列长度,默认使用源序列的长度tgt_len = tgt_len if tgt_len is not None else src_len# 对输入的掩码进行扩展expanded_mask = mask[:, None, None, :].expand(bsz, 1, tgt_len, src_len).to(dtype)# 创建一个反转的掩码inverted_mask = 1.0 - expanded_mask# 使用反转的掩码来填充掩码张量中的元素return inverted_mask.masked_fill(inverted_mask.to(torch.bool), torch.finfo(dtype).min)
  • 使用反转的掩码来填充掩码张量中的元素的目的是将掩码中原本为0的位置填充为负无穷小。

在注意力计算中,当掩码中某个位置的元素为负无穷小时,经过softmax计算后,该位置对应的注意力权重会趋近于0,即忽略该位置的信息。这样做的目的是,在计算注意力时,我们希望掩码的位置能够有效地抑制相关位置的注意力权重,从而确保模型在处理序列时不会受到未来信息的影响,比如在解码阶段不会看到未来时刻的标记。因此,使用反转的掩码来填充掩码张量中的元素是为了在注意力计算中实现对未来信息的屏蔽。


RoPE

class InternLMRotaryEmbedding(torch.nn.Module):def __init__(self, dim, max_position_embeddings=2048, base=10000, device=None):super().__init__()# 计算频率,根据RoPE公式 1.0 / (base **(2 * (i // 2) / dim))inv_freq = 1.0 / (base ** (torch.arange(0, dim, 2).float().to(device) / dim))self.register_buffer("inv_freq", inv_freq)  # 将频率注册为缓冲张量# 构建sin和cos缓存self.max_seq_len_cached = max_position_embeddings# t是位置索引t = torch.arange(self.max_seq_len_cached, device=self.inv_freq.device, dtype=self.inv_freq.dtype)freqs = torch.einsum("i,j->ij", t, self.inv_freq)  # 通过张量乘法计算频率emb = torch.cat((freqs, freqs), dim=-1)  # 按照最后一个维度拼接sin和cosself.register_buffer("cos_cached", emb.cos()[None, None, :, :], persistent=False)  # 将cos缓存注册为缓冲张量self.register_buffer("sin_cached", emb.sin()[None, None, :, :], persistent=False)  # 将sin缓存注册为缓冲张量def forward(self, x, seq_len=None):# x: [bs, num_attention_heads, seq_len, head_size]# 这个if块不太可能在构建sin/cos后运行。保持逻辑在这里以防万一。if seq_len > self.max_seq_len_cached:self.max_seq_len_cached = seq_lent = torch.arange(self.max_seq_len_cached, device=x.device, dtype=self.inv_freq.dtype)freqs = torch.einsum("i,j->ij", t, self.inv_freq)  # 通过张量乘法计算频率emb = torch.cat((freqs, freqs), dim=-1).to(x.device)  # 按照最后一个维度拼接sin和cosself.register_buffer("cos_cached", emb.cos()[None, None, :, :], persistent=False)  # 更新注册cos缓存self.register_buffer("sin_cached", emb.sin()[None, None, :, :], persistent=False)  # 更新注册sin缓存# 返回缓存中的sin和cos张量,截取到指定的序列长度return (self.cos_cached[:, :, :seq_len, ...].to(dtype=x.dtype), self.sin_cached[:, :, :seq_len, ...].to(dtype=x.dtype))
def rotate_half(x):"""Rotates half the hidden dims of the input."""# 将输入张量沿最后一个维度分成两部分,执行旋转操作x1 = x[..., :x.shape[-1] // 2]x2 = x[..., x.shape[-1] // 2:]# 拼接结果返回return torch.cat((-x2, x1), dim=-1)def apply_rotary_pos_emb(q, k, cos, sin, position_ids):"""Applies rotary positional embeddings to input queries and keys.Args:q: 输入的查询张量k: 输入的键张量cos: cos缓存张量sin: sin缓存张量position_ids: 位置编码张量Returns:q_embed: 应用了旋转位置嵌入后的查询张量k_embed: 应用了旋转位置嵌入后的键张量"""# 根据position_ids创建索引张量gather_indices = position_ids[:, None, :, None]  # [bs, 1, seq_len, 1]gather_indices = gather_indices.repeat(1, cos.shape[1], 1, cos.shape[3])# 通过gather_indices选择对应的cos和sin张量cos = torch.gather(cos.repeat(gather_indices.shape[0], 1, 1, 1), 2, gather_indices)sin = torch.gather(sin.repeat(gather_indices.shape[0], 1, 1, 1), 2, gather_indices)# 应用旋转位置嵌入公式得到新的查询张量和键张量q_embed = (q * cos) + (rotate_half(q) * sin)k_embed = (k * cos) + (rotate_half(k) * sin)return q_embed, k_embed

torch.gather函数的参数包括:

  1. input:这是输入张量,从这个张量中收集值。
  2. dim:这是一个整数值,表示在input张量中收集数据的维度。
  3. index:这是包含了索引的张量。根据这些索引,函数将从input张量中收集对应的值。

基本语法为:torch.gather(input, dim, index)

cos = torch.gather(cos.repeat(gather_indices.shape[0], 1, 1, 1), 2, gather_indices)

可以分解为以下几个步骤:

  1. cos.repeat(gather_indices.shape[0], 1, 1, 1): 这一步是将cos张量沿着每个维度进行复制以匹配gather_indices的形状。repeat函数会根据指定的次数沿着各个维度对原始张量进行复制。在这里,它会根据gather_indices.shape[0]的值在第一个维度上进行复制,而不在其他维度进行复制。

  2. torch.gather(repeated_cos, 2, gather_indices): 紧接着,我们使用torch.gather函数根据gather_indices中指定的索引从repeated_cos中收集对应的值。对于序列中的每个位置,gather_indices指定了从repeated_cos张量中选择哪个值。

torch.gather操作主要用于根据索引张量从源张量中收集对应的值。通过上述操作,我们能够根据gather_indices为序列中的每个位置选择正确的cos值,并将其应用于后续的计算中。这是PyTorch中的常见技术,用于根据索引张量从张量中提取值。

LoRA

  • 有意思的是,对LoRA做了改动
  • 有点残差连接和RoPE的思想糅合到一起的操作
    • x += res
    • 中间断开,奇偶分开

class ConvertedLoRALinear(nn.Linear):def __init__(self,in_features: int,out_features: int,bias: bool = True,device=None,dtype=None,lora_r=8,lora_alpha=16,lora_dropout=0.05,**kwargs) -> None:super().__init__(in_features, out_features, bias, device, dtype)self.lora_r = lora_rself.lora_alpha = lora_alphaif lora_dropout > 0.:self.lora_dropout = nn.Dropout(p=lora_dropout)else:self.lora_dropout = lambda x: xself.lora_scaling = self.lora_alpha / self.lora_rself.lora_A = nn.Linear(in_features,self.lora_r,bias=False,device=device,dtype=dtype)self.lora_B = nn.Linear(self.lora_r,out_features,bias=False,device=device,dtype=dtype)self.reset_parameters()def reset_parameters(self):if hasattr(self, 'lora_A'):# initialize A the same way as the default for nn.Linear and B to zeronn.init.kaiming_uniform_(self.lora_A.weight, a=math.sqrt(5))nn.init.zeros_(self.lora_B.weight)# print ("lora weight init {} {}".format(torch.mean(self.lora_A.weight), torch.mean(self.lora_B.weight)))def forward(self, x):orig_type = x.dtyperes = super().forward(x)dim = int(res.shape[-1] // 2)r1 = res[..., :dim]r2 = res[..., dim:]r1 = r1.float()r2 = r2.float()x_ = x.float()tmp = self.lora_B(self.lora_A(self.lora_dropout(x_))) * self.lora_scalingtmp1 = tmp[..., ::2]tmp2 = tmp[..., 1::2]r1 += tmp1r2 += tmp2r1 = r1.to(orig_type)r2 = r2.to(orig_type)res = torch.cat([r1, r2], -1)# res += self.lora_B(self.lora_A(#     self.lora_dropout(x))) * self.lora_scalingreturn res

关于生成是模型的Loss计算

outputs = self.model(input_ids=input_ids,attention_mask=attention_mask,position_ids=position_ids,past_key_values=past_key_values,inputs_embeds=inputs_embeds,query_embeds=query_embeds,use_cache=use_cache,output_attentions=output_attentions,output_hidden_states=output_hidden_states,return_dict=return_dict,)hidden_states = outputs[0]logits = self.lm_head(hidden_states)loss = Noneif labels is not None:# Shift so that tokens < n predict nshift_logits = logits[..., :-1, :].contiguous()shift_labels = labels[..., 1:].contiguous()# Flatten the tokensloss_fct = CrossEntropyLoss(reduce=False)loss_reduce = CrossEntropyLoss()shift_logits = shift_logits.view(-1, self.config.vocab_size)shift_labels = shift_labels.view(-1)shift_labels = shift_labels.to(shift_logits.device)###if self.sp_id >= 0:ori_mask = (shift_labels != self.sp_id).float()ori_mask = ori_mask * (shift_labels >= 0).float()local_mask = (shift_labels == self.sp_id).float()else:ori_mask = (shift_labels <self.config.vocab_size - self.ex_size).float()ori_mask = ori_mask * (shift_labels >= 0).float()local_mask = (shift_labels >=self.config.vocab_size - self.ex_size).float()# Enable model parallelismloss = loss_reduce(shift_logits, shift_labels)loss_all = loss_fct(shift_logits, shift_labels)loss_o = (loss_all * ori_mask).sum() / ori_mask.sum()if torch.sum(local_mask) == 0:loss_l = loss_o * 0else:loss_l = (loss_all * local_mask).sum() / local_mask.sum()

代码中loss计算的逐步解释:

1. 首先检查是否有标签(labels),如果有则继续计算loss,否则将loss保持为None。2. 在标签存在的情况下,对logits进行了一个向左的位移,这是因为模型中的输入数据和输出标签之间需要进行一定的位移。即把logits中的每个位置的预测,对应到相应位置期待的标签。3. 之后对logits和labels进行view操作,将其形状改变为2D的张量,以便进行交叉熵损失的计算。4. 根据self.sp_id的不同取值,计算了ori_mask和local_mask。ori_mask为了确保不计算特殊token(sp_id)的loss,local_mask则是用于计算特殊token(sp_id)的loss。5. 调用`CrossEntropyLoss`设置了两个不同的loss,loss_reduce用于在整个批次上计算损失,loss_fct则是用于对每个位置的损失值进行计算。6. 最后,计算了不同的部分的损失。loss_o计算了非特殊token的损失,而loss_l计算了特殊token的损失。如果local_mask全为0,则loss_l为0.

总结:该段代码进行了交叉熵损失的计算,但根据输入token是否为特殊token(sp_id),它分别计算了不同的loss值,即ori_mask用于过滤掉特殊token本身的loss,local_mask用于计算特殊token的loss。

  • 这个loss的计算实际上是基于给定的vocabulary的多分类交叉熵损失。

在语言模型中,通常需要将模型的输出与词汇表中的token进行比较,以根据模型的预测计算损失。因此,将模型输出的logits与标签进行比较,并计算交叉熵损失,这通常用于语言模型中的训练过程。

如何修改Transformer模块

模仿GPT2,改为文本二分类任务


@add_start_docstrings("""The InternLM Model transformer with a sequence classification head on top (linear layer).[`InternLMForSequenceClassification`] uses the last token in order to do the classification, as other causal models(e.g. GPT-2) do.Since it does classification on the last token, it requires to know the position of the last token. If a`pad_token_id` is defined in the configuration, it finds the last token that is not a padding token in each row. Ifno `pad_token_id` is defined, it simply takes the last value in each row of the batch. Since it cannot guess thepadding tokens when `inputs_embeds` are passed instead of `input_ids`, it does the same (take the last value ineach row of the batch).""",INTERNLM_START_DOCSTRING,
)
class InternLMForSequenceClassification(InternLMPreTrainedModel):_keys_to_ignore_on_load_missing = [r"lm_head.weight"]def __init__(self, config):super().__init__(config)self.num_labels = config.num_labelsself.model = InternLMModel(config)self.score = nn.Linear(config.hidden_size, self.num_labels, bias=False)# Initialize weights and apply final processingself.post_init()def get_input_embeddings(self):return self.model.embed_tokensdef set_input_embeddings(self, value):self.model.embed_tokens = value@add_start_docstrings_to_model_forward(INTERNLM_INPUTS_DOCSTRING)def forward(self,input_ids: torch.LongTensor = None,attention_mask: Optional[torch.Tensor] = None,position_ids: Optional[torch.LongTensor] = None,past_key_values: Optional[List[torch.FloatTensor]] = None,inputs_embeds: Optional[torch.FloatTensor] = None,labels: Optional[torch.LongTensor] = None,use_cache: Optional[bool] = None,output_attentions: Optional[bool] = None,output_hidden_states: Optional[bool] = None,return_dict: Optional[bool] = None,) -> Union[Tuple, SequenceClassifierOutputWithPast]:r"""labels (`torch.LongTensor` of shape `(batch_size,)`, *optional*):Labels for computing the sequence classification/regression loss. Indices should be in `[0, ...,config.num_labels - 1]`. If `config.num_labels == 1` a regression loss is computed (Mean-Square loss), If`config.num_labels > 1` a classification loss is computed (Cross-Entropy)."""return_dict = return_dict if return_dict is not None else self.config.use_return_dicttransformer_outputs = self.model(input_ids,attention_mask=attention_mask,position_ids=position_ids,past_key_values=past_key_values,inputs_embeds=inputs_embeds,use_cache=use_cache,output_attentions=output_attentions,output_hidden_states=output_hidden_states,return_dict=return_dict,)hidden_states = transformer_outputs[0]logits = self.score(hidden_states)if input_ids is not None:batch_size = input_ids.shape[0]else:batch_size = inputs_embeds.shape[0]if self.config.pad_token_id is None and batch_size != 1:raise ValueError("Cannot handle batch sizes > 1 if no padding token is defined.")if self.config.pad_token_id is None:sequence_lengths = -1else:if input_ids is not None:sequence_lengths = (torch.ne(input_ids, self.config.pad_token_id).sum(-1) - 1).to(logits.device)else:sequence_lengths = -1pooled_logits = logits[torch.arange(batch_size, device=logits.device), sequence_lengths]loss = Noneif labels is not None:labels = labels.to(logits.device)if self.config.problem_type is None:if self.num_labels == 1:self.config.problem_type = "regression"elif self.num_labels > 1 and (labels.dtype == torch.long or labels.dtype == torch.int):self.config.problem_type = "single_label_classification"else:self.config.problem_type = "multi_label_classification"if self.config.problem_type == "regression":loss_fct = MSELoss()if self.num_labels == 1:loss = loss_fct(pooled_logits.squeeze(), labels.squeeze())else:loss = loss_fct(pooled_logits, labels)elif self.config.problem_type == "single_label_classification":loss_fct = CrossEntropyLoss()loss = loss_fct(pooled_logits.view(-1, self.num_labels), labels.view(-1))elif self.config.problem_type == "multi_label_classification":loss_fct = BCEWithLogitsLoss()loss = loss_fct(pooled_logits, labels)if not return_dict:output = (pooled_logits,) + transformer_outputs[1:]return ((loss,) + output) if loss is not None else outputreturn SequenceClassifierOutputWithPast(loss=loss,logits=pooled_logits,past_key_values=transformer_outputs.past_key_values,hidden_states=transformer_outputs.hidden_states,attentions=transformer_outputs.attentions,)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/206465.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

vuepress路径问题,导致图片不显示

图片不显示&#xff0c;报 Uncaught SyntaxError: Unexpected token <错误 很可能就是&#xff1a;路径配置原因 1.当设置为 / 时&#xff0c;VuePress 会假设你的站点将部署到服务器的根路径&#xff0c; 例如 https://yourdomain.com/。 2.生成的页面链接和资源引用将以…

MacBook 逆水寒下载安装使用教程,支持最新版本 MacOS 流畅不闪退

最近 MacBook 系统更新到了 MacOS 14.1 很多朋友的逆水寒玩不了了&#xff0c;我尝试了一番可以正常玩了&#xff0c;看图&#xff1a; 其实操作也很简单&#xff0c;我们从头开始&#xff0c;因为 MacOS 系统的更新所以我们也需要更新新版本的 playCover 来适配新的系统&#…

在前端开发中,什么是SEO(Search Engine Optimization)?如何优化网站的SEO?

聚沙成塔每天进步一点点 ⭐ 专栏简介 前端入门之旅&#xff1a;探索Web开发的奇妙世界 欢迎来到前端入门之旅&#xff01;感兴趣的可以订阅本专栏哦&#xff01;这个专栏是为那些对Web开发感兴趣、刚刚踏入前端领域的朋友们量身打造的。无论你是完全的新手还是有一些基础的开发…

韩墨耘——当代大风堂门人代表人物

韩墨耘 中央美术学院客座教授 全国书画艺术委员会副主席 中国书画家协会理事 荣宝斋签约画家 张大千大风堂国展班主任导师 国画大师何海霞亲传弟子 韩墨耘&#xff1a;62年生于洛阳&#xff1b;著名画家、美术教育家、书法家&#xff0c;现居北京。出身书香门第&#xf…

外贸网站建站的注意事项?海洋建站的流程?

外贸网站建站需要注意什么&#xff1f;网站建设要注意哪些问题&#xff1f; 在建设外贸网站时&#xff0c;有一些关键的注意事项需要牢记&#xff0c;以确保网站的成功运营。海洋建站将介绍一些重要的外贸网站建站注意事项&#xff0c;帮助企业避免一些常见的陷阱和错误。 外…

【Java用法】Lombok中@SneakyThrows注解的使用方法和作用

Lombok中SneakyThrows注解的使用方法和作用 一、SneakyThrows的作用二、SneakyThrows注解原理 一、SneakyThrows的作用 普通Exception类,也就是我们常说的受检异常或者Checked Exception会强制要求抛出它的方法声明throws&#xff0c;调用者必须显示的去处理这个异常。设计的目…

力扣541.反转字符串 II

文章目录 力扣541.反转字符串 II示例代码实现总结收获 力扣541.反转字符串 II 示例 代码实现 class Solution {public String reverseStr(String s, int k) {char[] ans s.toCharArray();for(int i0;i<ans.length;i2*k){int begin i;int end Math.min(ans.length-1,begin…

理解chatGPT的Function calling

"Function calling" 是一个开发术语&#xff0c;指的是调用函数或方法来执行特定任务。在chatGPT中&#xff0c;"Function calling" 指的是我们可以通过发送特定的指令或命令来触发一些功能&#xff0c;让chatGPT执行一些预定义的任务。 chatGPT的工作方式…

【数据结构】链表算法总结

知识概览 链表包括单链表和双链表&#xff0c;这里讨论算法题中的链表。为了考虑算法题中对于时间效率的要求&#xff0c;链表通常是用数组模拟成静态链表的形式&#xff0c;速度快。单链表可以用来写邻接表&#xff08;包括n个链表&#xff09;&#xff0c;邻接表可以存储树和…

数据结构的基本操作

对于任何数据结构&#xff0c;基本操作就是 遍历访问&#xff08;增删改查&#xff09; 各种数据结构的遍历和访问两种形式&#xff1a;线性的和非线性的 一、线性形式 以 for/while 迭代为代表 数组遍历框架&#xff0c;是典型的线性迭代结构 void traverse(int[] arr){f…

走向未来能源之巅:可控核聚变的探索与挑战

走向未来能源之巅:可控核聚变的探索与挑战 引言 随着人类文明的进步和科技的发展,对能源的需求与日俱增。传统的化石燃料能源面临着枯竭和环境问题的双重压力,因此,寻找一种清洁、可持续、高效的能源成为了全球科学家的共同使命。在这个过程中,可控核聚变作为一种具有巨…

在Go中使用循环时使用Break和Continue语句

引言 在Go中使用for循环可以让你以一种高效的方式自动化和重复任务。 学习如何控制循环的操作和流程,可以在程序中自定义逻辑。你可以使用break和continue语句来控制循环。 break语句 在Go中,break语句终止当前循环的执行。break几乎总是与一个[条件if语句]配对。 让我们…

【无线网络技术】——无线局域网(学习笔记)

&#x1f4d6; 前言&#xff1a;本章首先介绍无线局域网的基本概念&#xff0c;然后详细介绍IEEE 802.11的基本工作原理&#xff0c;侧重于媒体访问控制和一跳范围内的通信技术。 目录 &#x1f552; 1. 概述&#x1f558; 1.1 覆盖范围&#x1f558; 1.2 特点&#x1f558; 1.…

【python爬虫】设计自己的爬虫 3. 文件数据保存封装

考虑到爬取的多媒体文件要保存到本地&#xff0c;因此封装了一个类来专门处理这样的问题&#xff0c;下面看代码&#xff1a; class FileStore:def __init__(self, file_path, read_file_moder,write_file_modewb):"""初始化 FileStore 实例Parameters:- file_…

如何将微服务注册到nacos服务上

首先可在maven的父工程的pom文件中添加maven的dependencyManagement标签&#xff0c;引入spring-cloud-alibaba-dependencies坐标 <properties><spring.cloud.alibaba.version>2.2.9.RELEASE</spring.cloud.alibaba.version></properties><!-- 管理…

关于近期互联网、大模型、Web3、大A的一点思考

写在2023-12-08 如果说硬件还存在着摩尔定律限制着&#xff0c;在14纳米以内&#xff0c;他们都不得不等着华为&#xff0c; 在软件领域&#xff0c;不管是传统的工业软件&#xff0c;还是当前的大模型&#xff0c;都不受制于摩尔定律&#xff0c; 换句话说&#xff0c;从星火…

苏宁商家电话采集软件使用教程

随着互联网的不断发展&#xff0c;电商行业也越来越受到人们的关注。作为国内最大的电商平台之一&#xff0c;苏宁易购已经成为了许多消费者的首选。在购物过程中&#xff0c;我们可能会遇到一些商家的电话打不通的情况&#xff0c;这给我们购物带来了很大的不便。为了解决这个…

ReactNative性能优化实践

ReactNative 性能优化主要分为以下几个方面&#xff1a; **减少 re-render&#xff1a;**re-render 是 React 的核心概念&#xff0c;也是性能优化的重点。re-render 会导致组件树重新渲染&#xff0c;这会消耗 CPU 和 GPU 资源。因此&#xff0c;减少 re-render 是提升性能的…

watch

类型&#xff1a;{ [key: string]: string | Function | Object | Array } 详细&#xff1a; 一个对象&#xff0c;键是需要观察的表达式&#xff0c;值是对应回调函数。值也可以是方法名&#xff0c;或者包含选项的对象。Vue 实例将会在实例化时调用 $watch()&#xff0c;遍…

C语言百钱买百鸡

"百钱买百鸡"是一个经典的数学问题&#xff0c;源自中国古代的《张丘建在东坡解百子图诗》一书中。这个问题要求找出所有的整数解&#xff0c;用100元钱买100只鸡&#xff0c;每只公鸡5元&#xff0c;每只母鸡3元&#xff0c;小鸡1元3只。 在C语言中&#xff0c;我们…