以beam search为例,详解transformers中generate方法(上)

以beam search为例,详解transformers中generate方法(上)

  • 1. generate的代码位置
  • 2. GenerationMixin概览
  • 3. generate签名
  • 4. generate过程
    • 4.1 读取并更新generation config
    • 4.2 补充没有传入的参数
    • 4.3 定义模型输入
    • 4.4 定义模型的其他参数
    • 4.5 对自回归模型准备input_ids
    • 4.6 准备最大长度
    • 4.7 确认生成模式
    • 4.8 创建logits处理器
    • 4.9 创建停止规则
    • 4.10 进入相应的分支
    • 4.11 创建logits warper
    • 4.12 beam search

比起两年前,NLG任务已经得到了非常有效的发展,transformers模块的使用广泛程度也达到前所未有的程度。在模型推理预测时,一个核心的语句就是model.generate(),本文就来详细介绍一下generate方法是如何运作的。在生成的过程中,包含了诸多生成策略,本文将以最常用的beam search为例,在本人能力范围内,尽可能详细地展开介绍。

考虑到篇幅可能会比较长,本文将分为上下两篇,上篇主要介绍generate方法的整体结构,下篇将对beam search部分的代码进行进一步的介绍。

随着各种LLM的出现,transformers中与generate相关的代码发生了一些变化,主要区别在于:

    1. generate的源码位置发生了改变;
    1. generate方法中,采用一个generation_config参数来管理生成相关的各种配置,并优化了逻辑,使得逻辑更加清晰。

1. generate的代码位置

在之前版本的transformers中(transformers~=4.9),generate方法位于transformers.generation_utils.py,这个方法是GenerationMixin类的一个方法。

而在新版本的transformers中(transformers~=4.28),generate方法被转移到了transformers.generation.utils.py,仍然是GenerationMixin的一个类方法。

而对于一个hf形式的预训练模型,都是继承了PreTrainedModel类的,而顺着这个PreTrainedModel类,可以看到更上一级的继承逻辑,GenerationMixin就在其中:

class PreTrainedModel(nn.Module, ModuleUtilsMixin, GenerationMixin, PushToHubMixin):

这就是为什么通过AutoModel.from_pretrained()实例化的一个model为什么可以直接调用generate方法去做推理。

2. GenerationMixin概览

这一部分作为一个速查表写在这里,不建议直接阅读,而是在读第4节代码的过程中,返回来查看这部分内容。

GenerationMixin类所有方法概览如下:

方法名作用在本文中出现的位置
_validate_model_class检修该模型是否可以做生成,并抛出相应的异常4.1
_validate_model_kwargs检查generation config中的参数是否与生成策略相匹配4.1
_prepare_model_inputs为生成过程准备输入4.3
_maybe_initialize_input_ids_for_generation当生成过程的inputs为空时,使用bos token做初始化4.3
_prepare_attention_mask_for_generation为生成过程准备attention_mask4.4
_prepare_encoder_decoder_kwargs_for_generation为生成过程准备encoder相关的参数4.4
_prepare_decoder_input_ids_for_generation为自回归模型额外处理input_ids4.5
_get_decoder_start_token_id获取decoder的开始位置的token id,这个id可能与bos不同4.5
_get_logits_processor创建logits处理器4.8
_get_stopping_criteria创建停止规则4.9
_get_logits_warper创建logits warper4.11
_expand_inputs_for_generation根据num_beams对input_ids进行扩展4.12
prepare_inputs_for_generation对模型的输入进行预处理下篇3.1
adjust_logits_during_generation在生成过程中对计算的logits进行调整下篇3.1
_update_model_kwargs_for_generation根据一个step的生成结果,更新生成参数下篇5.6
_reorder_cache根据step更新的beam_idx,对缓存的past_k_v进行重排下篇5.6

3. generate签名

在介绍流程之前先看一下generate方法的签名,在4.28版本中,其签名简化如下:

    @torch.no_grad()def generate(self,inputs: Optional[torch.Tensor] = None,generation_config: Optional[GenerationConfig] = None,logits_processor: Optional[LogitsProcessorList] = None,stopping_criteria: Optional[StoppingCriteriaList] = None,prefix_allowed_tokens_fn: Optional[Callable[[int, torch.Tensor], List[int]]] = None,synced_gpus: Optional[bool] = None,streamer: Optional["BaseStreamer"] = None,**kwargs,) -> Union[GenerateOutput, torch.LongTensor]:

相比之前的版本,这样写的直接优点就是,与原版的超长签名相比,减少了传入的参数,将诸如top_k, top_p, num_beams等参数全部都整合到了generation_config中,使得函数看起来更加简化,并且该参数可以直接从模型路径下的generation_config.json文件中读取,一定程度上为用户提供了便捷。

相应的缺点就是很多参数没有显性地暴露出来,在查看注释和自定义生成配置的时候就不是很方便了。
需要在GenerationConfig中查看可选的参数:

from transformers.generation.configuration_utils import GenerationConfighelp(GenerationConfig)

GenerationConfig中各类生成策略对应的参数各有不同,这里不展开介绍,在本文的下篇中,将对beam search策略下的参数进行简介。)


generate方法的参数含义与作用介绍如下:

参数名类型含义与作用
inputstorch.Tensortokenize之后的序列id,模型将基于这个序列计算logits并进行生成。如果为空,则默认为bos token对应的id
generation_configGenerationConfig各种生成策略对应的参数,如果为空,将会从模型路径下的generation_config.json文件中读取,或从model config获取
logits_processorLogitsProcessorList对模型计算出的logits进行进一步处理,例如对“复读机现象”相应的概率进行惩罚,以避免模型生成结果不断重复
stopping_criteriaStoppingCriteriaList对生成过程做停止控制的工具,例如达到一定长度时强行停止,达到一定生成时间时停止等
prefix_allowed_tokens_fn[int, torch.Tensor], List[int]beam search过程中,每个step允许生成的token id范围
synced_gpusbool采用DeepSpeed ZeRO时使用
streamerBaseStreamerstream generate时使用(也就是一个字一个字的往外蹦的效果)

在这些输入中,logits_processor和stopping_criteria,将是用户手动干预生成过程的主要手段。

4. generate过程

在4.28版本的transformers代码中,generate过程的注释写的比较条理清晰,所以本文也沿用代码注释中的序号进行划分。

4.1 读取并更新generation config

这一部分的大概逻辑就是处理generation config为None的情况,以及检查是否存在与生成策略不一致的错误参数。

        # 1. Handle `generation_config` and kwargs that might update it, and validate the `.generate()` callself._validate_model_class()# priority: `generation_config` argument > `model.generation_config` (the default generation config)if generation_config is None:# legacy: users may modify the model configuration to control generation -- update the generation config# model attribute accordingly, if it was created from the model configif self.generation_config._from_model_config:new_generation_config = GenerationConfig.from_model_config(self.config)if new_generation_config != self.generation_config:warnings.warn("You have modified the pretrained model configuration to control generation. This is a"" deprecated strategy to control generation and will be removed soon, in a future version."" Please use a generation configuration file (see"" https://huggingface.co/docs/transformers/main_classes/text_generation)")self.generation_config = new_generation_configgeneration_config = self.generation_configgeneration_config = copy.deepcopy(generation_config)model_kwargs = generation_config.update(**kwargs)  # All unused kwargs must be model kwargsgeneration_config.validate()self._validate_model_kwargs(model_kwargs.copy())

其中_validate_model_class_validate_model_kwargs两个方法都不是重点,这里不展开介绍。

4.2 补充没有传入的参数

这部分需要补充的参数包括logits_processor, stopping_criteria, 以及generation_config中的pad_token_id。前两项是设置为默认的空list;pad_token_id没有给定,而eos给定的话,用eos来做padding。

        # 2. Set generation parameters if not already definedlogits_processor = logits_processor if logits_processor is not None else LogitsProcessorList()stopping_criteria = stopping_criteria if stopping_criteria is not None else StoppingCriteriaList()if generation_config.pad_token_id is None and generation_config.eos_token_id is not None:if model_kwargs.get("attention_mask", None) is None:logger.warning("The attention mask and the pad token id were not set. As a consequence, you may observe ""unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.")eos_token_id = generation_config.eos_token_idif isinstance(eos_token_id, list):eos_token_id = eos_token_id[0]logger.warning(f"Setting `pad_token_id` to `eos_token_id`:{eos_token_id} for open-end generation.")generation_config.pad_token_id = eos_token_id

4.3 定义模型输入

        # 3. Define model inputs# inputs_tensor has to be defined# model_input_name is defined if model-specific keyword input is passed# otherwise model_input_name is None# all model-specific keyword inputs are removed from `model_kwargs`inputs_tensor, model_input_name, model_kwargs = self._prepare_model_inputs(inputs, generation_config.bos_token_id, model_kwargs)batch_size = inputs_tensor.shape[0]

这里主要需要关注_prepare_model_inputs这个方法,这个方法的核心,一句话概括就是模型输入的序列input_ids,必须非空,如果空的话,就用bos_token去初始化。其余部分都是用来应对个别模型的特殊情况:

def _prepare_model_inputs(self,inputs: Optional[torch.Tensor] = None,bos_token_id: Optional[int] = None,model_kwargs: Optional[Dict[str, torch.Tensor]] = None,) -> Tuple[torch.Tensor, Optional[str], Dict[str, torch.Tensor]]:"""This function extracts the model-specific `inputs` for generation."""# 这一步似乎是起到一个校准的作用,防止某些encoder-decoder模型的主模型和encoder的输入名称不一致# 1. retrieve all kwargs that are non-None or non-model input related.# some encoder-decoder models have different names for model and encoderif (self.config.is_encoder_decoderand hasattr(self, "encoder")and self.encoder.main_input_name != self.main_input_name):input_name = self.encoder.main_input_nameelse:input_name = self.main_input_namemodel_kwargs = {k: v for k, v in model_kwargs.items() if v is not None or k != input_name}# 确保inputs没有重复传入# 2. check whether model_input_name is passed as kwarg# if yes and `inputs` is None use kwarg inputsinputs_kwarg = model_kwargs.pop(input_name, None)if inputs_kwarg is not None and inputs is not None:raise ValueError(f"`inputs`: {inputs}` were passed alongside {input_name} which is not allowed."f"Make sure to either pass {inputs} or {input_name}=...")elif inputs_kwarg is not None:inputs = inputs_kwarg# 对于inputs_embeds这一输入参数:# 如果是decoder-only模型,需要把'input_ids'这一参数放在inputs_kwarg中传入# 如果是encoder-decoder模型,input_ids与inputs_embeds只能传入其一# 3. In the presence of `inputs_embeds` for text models:# - decoder-only models should complain if the user attempts to pass `inputs_embeds`, but the model# doesn't have its forwarding implemented. `inputs_embeds` is kept in `model_kwargs` and can coexist with# input_ids (`inputs_embeds` will be used in the 1st generation step, as opposed to `input_ids`)# - encoder-decoder models should complain if the user attempts to pass `inputs_embeds` and `input_ids`, and# pull the former to inputs. It will be used in place of `input_ids` to get the encoder hidden states.if input_name == "input_ids" and "inputs_embeds" in model_kwargs:if not self.config.is_encoder_decoder:has_inputs_embeds_forwarding = "inputs_embeds" in set(inspect.signature(self.prepare_inputs_for_generation).parameters.keys())if not has_inputs_embeds_forwarding:raise ValueError(f"You passed `inputs_embeds` to `.generate()`, but the model class {self.__class__.__name__} ""doesn't have its forwarding implemented. See the GPT2 implementation for an example ""(https://github.com/huggingface/transformers/pull/21405), and feel free to open a PR with it!")# In this case, `input_ids` is moved to the `model_kwargs`, so a few automations (like the creation of# the attention mask) can rely on the actual model input.model_kwargs["input_ids"] = self._maybe_initialize_input_ids_for_generation(inputs, bos_token_id, model_kwargs=model_kwargs)else:if inputs is not None:raise ValueError("You passed `inputs_embeds` and `input_ids` to `.generate()`. Please pick one.")inputs, input_name = model_kwargs["inputs_embeds"], "inputs_embeds"# 4. if `inputs` is still None, try to create `input_ids` from BOS token# 如果最后还是没有input_ids, 采用bos创建input_ids,可以简化理解为:# torch.ones((batch_size, 1), dtype=torch.long, device=self.device) * bos_token_idinputs = self._maybe_initialize_input_ids_for_generation(inputs, bos_token_id, model_kwargs)return inputs, input_name, model_kwargs

4.4 定义模型的其他参数

这一部分没有需要特别注意的地方,主要就是一些config设置,补齐模型的其他参数,如创建attention_mask,确保encoder-decoder模型能够返回’ModelOutput’类等等。

        # 4. Define other model kwargsmodel_kwargs["output_attentions"] = generation_config.output_attentionsmodel_kwargs["output_hidden_states"] = generation_config.output_hidden_statesmodel_kwargs["use_cache"] = generation_config.use_cacheaccepts_attention_mask = "attention_mask" in set(inspect.signature(self.forward).parameters.keys())requires_attention_mask = "encoder_outputs" not in model_kwargsif model_kwargs.get("attention_mask", None) is None and requires_attention_mask and accepts_attention_mask:model_kwargs["attention_mask"] = self._prepare_attention_mask_for_generation(inputs_tensor, generation_config.pad_token_id, generation_config.eos_token_id)# decoder-only models should use left-padding for generationif not self.config.is_encoder_decoder:if (generation_config.pad_token_id is not Noneand torch.sum(inputs_tensor[:, -1] == generation_config.pad_token_id) > 0):logger.warning("A decoder-only architecture is being used, but right-padding was detected! For correct ""generation results, please set `padding_side='left'` when initializing the tokenizer.")if self.config.is_encoder_decoder and "encoder_outputs" not in model_kwargs:# if model is encoder decoder encoder_outputs are created# and added to `model_kwargs`model_kwargs = self._prepare_encoder_decoder_kwargs_for_generation(inputs_tensor, model_kwargs, model_input_name)

4.5 对自回归模型准备input_ids

这一步与4.3的主要区别在于,针对AR模型额外进行了处理。如果是encoder-decoder模型,则直接采用4.3创建的input_tensor作为input_ids。

        # 5. Prepare `input_ids` which will be used for auto-regressive generationif self.config.is_encoder_decoder:# 这里主要是针对decoder的开始位置id与bos id不同的情况# 在这种情况下,decoder-only模型应当以配置中规定的decoder start id开始进行生成# 此处可简单理解为:torch.ones((batch_size, 1), dtype=torch.long, device=device) * decoder_start_token_idinput_ids = self._prepare_decoder_input_ids_for_generation(batch_size,decoder_start_token_id=generation_config.decoder_start_token_id,bos_token_id=generation_config.bos_token_id,model_kwargs=model_kwargs,device=inputs_tensor.device,)# conditional generation for multi-modal models.if "input_ids" in model_kwargs and model_input_name == "pixel_values":input_ids = torch.cat([input_ids, model_kwargs.pop("input_ids")], dim=-1)else:input_ids = inputs_tensor if model_input_name == "input_ids" else model_kwargs.pop("input_ids")

4.6 准备最大长度

这一部分就是根据config中的相关配置,判断input_id的长度有没有超长。

        # 6. Prepare `max_length` depending on other stopping criteria.input_ids_seq_length = input_ids.shape[-1]has_default_max_length = kwargs.get("max_length") is None and generation_config.max_length is not Noneif has_default_max_length and generation_config.max_new_tokens is None:warnings.warn(f"Using `max_length`'s default ({generation_config.max_length}) to control the generation length. ""This behaviour is deprecated and will be removed from the config in v5 of Transformers -- we"" recommend using `max_new_tokens` to control the maximum length of the generation.",UserWarning,)elif generation_config.max_new_tokens is not None:generation_config.max_length = generation_config.max_new_tokens + input_ids_seq_lengthif not has_default_max_length:logger.warn(f"Both `max_new_tokens` (={generation_config.max_new_tokens}) and `max_length`(="f"{generation_config.max_length}) seem to have been set. `max_new_tokens` will take precedence. ""Please refer to the documentation for more information. ""(https://huggingface.co/docs/transformers/main/en/main_classes/text_generation)",UserWarning,)if generation_config.min_length is not None and generation_config.min_length > generation_config.max_length:raise ValueError(f"Unfeasible length constraints: the minimum length ({generation_config.min_length}) is larger than"f" the maximum length ({generation_config.max_length})")if input_ids_seq_length >= generation_config.max_length:input_ids_string = "decoder_input_ids" if self.config.is_encoder_decoder else "input_ids"logger.warning(f"Input length of {input_ids_string} is {input_ids_seq_length}, but `max_length` is set to"f" {generation_config.max_length}. This can lead to unexpected behavior. You should consider"" increasing `max_new_tokens`.")

4.7 确认生成模式

这里直接选择beam search分支了,其他模式不做展开介绍,下同。

beam search分为两种,基础款的beam_gen_mode,以及进阶款的beam_sample_gen_mode,其中,前者对应后续的生成方法为beam_search,后者对应后续的生成方法为beam_sample

二者的区别主要在于,进阶款的beam_sample_gen_mode可以设置temperature、top_k、top_p等参数进一步控制生成,设置的方法在4.11节:logits warper中介绍。对于基础款的beam_gen_mode,就没有创建logits warper这一环节。

        # 7. determine generation modeis_beam_sample_gen_mode = ((generation_config.num_beams > 1)and (generation_config.num_beam_groups == 1)and generation_config.do_sample is Trueand not is_constraint_gen_modeand not is_contrastive_search_gen_mode)

4.8 创建logits处理器

        # 8. prepare distribution pre_processing samplerslogits_processor = self._get_logits_processor(generation_config=generation_config,input_ids_seq_length=input_ids_seq_length,encoder_input_ids=inputs_tensor,prefix_allowed_tokens_fn=prefix_allowed_tokens_fn,logits_processor=logits_processor,)

这一个环节比较重要,因为涉及到了logits processor。这些processor是在生成的过程中,在每一个step,对计算出来的得分进行修正处理的。在transformers中,预设了若干processor,用户也可以定义自己的processor(需要继承抽象类transformers.generation.logit_process.LogitsProcessor),自己设计逻辑,来对生成的过程进行人工干预。

在beam search中,logits process的使用方法是:

# 在def beam_sample中使用
next_token_scores_processed = logits_processor(input_ids, next_token_scores)

其中,input_ids是当前step传给模型的序列token id对应Tensor(batch_size, sequence_length),next_token_scores是经过模型计算之后的分数(即在vocab上的概率分布)取log_softmax。

在这里简单介绍一下在transformers中预设的processor。限于篇幅,不贴出全部源码,只对其功能进行总结。

processor作用参考连接
MinLengthLogitsProcessor通过将EOS的概率强行设置为0,保证生成结果的长度大于等于一个最小值/
MinNewTokensLengthLogitsProcessor与上一个类似,但是prompt的部分不计入生成长度/
RepetitionPenaltyLogitsProcessor防止“复读机”现象,给重复出现token添加惩罚,由预训练模型CTRL提出arxiv
EncoderRepetitionPenaltyLogitsProcessor与上一个区别在于,生成的结果不能与encoder输入input id重复,而非与当前给定的全部input id/
NoRepeatNGramLogitsProcessor防止生成的文本中出现重复的n-gram(n个连续的词或字符),区别在于限制连续n个github
EncoderNoRepeatNGramLogitsProcessorn-gram可以在encoder的input ids中重复,不可以在decoder重复github
NoBadWordsLogitsProcessor确保某些词永远不会被生成/
PrefixConstrainedLogitsProcessor给定一个prefix_allow_func来限制符合哪些条件的token可以被生成arxiv
HammingDiversityLogitsProcessor以Hamming距离为标准,确保生成的各个beam之前的区别足够大arxiv
ForcedBOSTokenLogitsProcessor确保生成的第一个token是某个特定的token/
ForcedEOSTokenLogitsProcessor达到最大长度时,确保以某个特定的token作为结束/
InfNanRemoveLogitsProcessor将计算出的得分中,nan替换为0,inf替换为可计算的最大值/
SuppressTokensAtBeginLogitsProcessor在达到某个长度之后,将不再生成某些特定的词/
SuppressTokensLogitsProcessor将某些特定词的概率设置为-inf,不生成这些词/
ForceTokensLogitsProcessor建立一个映射表,把某个token强行映射成另一个token/
WhisperTimeStampLogitsProcessor强制模型生成时间戳(时间戳是一个特殊token,例如对话中,query=今天是周几?,answer=今天是[timestamp],这个[timestamp]后期会替换成对应的时间)/

4.9 创建停止规则

stopping_criteria与logits_processor是用户对生成过程进行干预的主要手段,相比logits_processor强行改变概率空间,stopping_criteria则是直接设定了终止生成的策略,理解起来也会相对容易一些。

        # 9. prepare stopping criteriastopping_criteria = self._get_stopping_criteria(generation_config=generation_config, stopping_criteria=stopping_criteria)

预设的criteria总结如下:

criteria作用
MaxLengthCriteria生成的序列达到设置的最大长度时,停止生成
MaxNewTokensCriteria生成的序列中,除去prompt的部分达到设置的最大长度时,停止生成
MaxTimeCriteria生成的耗时超过一定时间限制时,停止生成

如果是自定义criteria,应当继承抽象类transformers.generation.stopping_criteria.StoppingCriteria

4.10 进入相应的分支

这里直接选择进入beam search的分支。如前文所述,如果要控制temperature等超参数,则应该进入is_beam_sample_gen_mode这个分支。

4.11 创建logits warper

            # 11. prepare logits warperlogits_warper = self._get_logits_warper(generation_config)

logits warper的使用方法与logits processor一样,都是用来修改概率的输出。关于他们的区别,暂时没有找到很好的解释,可以理解为warper控制着temperature、topk等与生成策略相关的参数。并且是在logits processor处理之后再进行处理的。

普通的beam search不会涉及这一部分,只有选择sample模式的beam search时,才会使用到logits warper。

需要记住的是,它的输入与processor一样,都是当前的序列(token_ids)与之前计算出的得分(scores),返回的结果是处理之后的得分,形状是(batch_size, config.vocab_size)

预设的warper包括:

warper作用(仅供参考)参考链接
TemperatureLogitsWarper对score整体除以temperature做缩放/
TopPLogitsWarper概率小于topp的得分置为0/
TopKLogitsWarper只取topk的概率对应的词汇,其余的概率置为-inf/
TypicalLogitsWarpertypical decodingarxiv
EpsilonLogitsWarper将概率小于epsilon的token移除arxiv
EtaLogitsWarpereta-samplingarxiv
LogitNormalization在beam search进行的过程中做layernorm/

4.12 beam search

这一部分是beam search的核心流程,限于篇幅,其具体的执行生成过程将在本文的下篇中进行详细的介绍。

在这一部分中,首先创建了用于打分的BeamSearchScorer(具体作用将在下篇中进行介绍),然后根据num_beams对input_ids进行了扩展,最后执行beam search的核心方法beam_search,或beam sample对应的beam_sample方法。

            beam_scorer = BeamSearchScorer(batch_size=batch_size,num_beams=generation_config.num_beams,device=inputs_tensor.device,length_penalty=generation_config.length_penalty,do_early_stopping=generation_config.early_stopping,num_beam_hyps_to_keep=generation_config.num_return_sequences,max_length=generation_config.max_length,)# 12. interleave input_ids with `num_beams` additional sequences per batchinput_ids, model_kwargs = self._expand_inputs_for_generation(input_ids=input_ids,expand_size=generation_config.num_beams,is_encoder_decoder=self.config.is_encoder_decoder,**model_kwargs,)# 13. run beam searchreturn self.beam_search(input_ids,beam_scorer,logits_processor=logits_processor,stopping_criteria=stopping_criteria,pad_token_id=generation_config.pad_token_id,eos_token_id=generation_config.eos_token_id,output_scores=generation_config.output_scores,return_dict_in_generate=generation_config.return_dict_in_generate,synced_gpus=synced_gpus,**model_kwargs,)

在本文的下篇中,将介绍beam search的基本原理,transformers模块对于beam search的实现方法中,主要涉及的几个工具组件,beam search的生成与更新过程,以及beam sample对beam search的改进实现,感兴趣的朋友可以继续阅读。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/18078.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Mysql存储过程基本语法

目录 存储过程MYSQL基础语法游标(作用范围存储过程)事务(Demo)其他操作Demo 存储过程 MYSQL 基础语法 #创建存储过程 #参数格式 #in输入参数 out输出参数 inout既可以输入也可以输出 create or replace procedure 存储过程名…

react常用知识点

React是一个用于构建用户界面的JavaScript库。以下是React常用的知识点: 组件:React将用户界面分解成小而独立的组件,每个组件都有自己的状态和属性,并且可以通过组合这些组件来构建复杂的用户界面。 // 函数组件示例 function We…

torch.load 报错 ModuleNotFoundError 或 AttributeError

Python 3.11.3 (main, Apr 7 2023, 19:25:52) [Clang 14.0.0 (clang-1400.0.29.202)] on darwin Type "help", "copyright", "credits" or "license" for more information.正常情况下,我们会使用 torch.save 保存模型的 …

向 Maven 中央仓库上传一个修改过的基于jeecg的autoPOI的 jar包记录

1、注册https://issues.sonatype.org/账号 下面就代表注册好了,同时提交的工单也通过了 2、这里主要是goupId 需要进行认证,需要到域名注册商近一个txt的解析,以便确保这个是你的 通过下面来验证你的域名信息,这里主要是上面的工…

git命令分类合集

配置 git config --global user.name <name>&#xff1a;设置全局用户名 git config --global user.email <email>&#xff1a;设置全局用户邮箱 git config --global core.editor <editor>&#xff1a;设置全局文本编辑器创建与克隆仓库 git init&#xf…

面试题:说一说深拷贝和浅拷贝?

JavaScript中存在两大数据类型&#xff1a; 基本类型 和 引用类型 基本类型数据保存在在栈内存中 引用类型数据保存在堆内存中&#xff0c;引用数据类型的变量是一个指向堆内存中实际对象的引用&#xff0c;存在栈中 深拷贝和浅拷贝都只针对于引用类型。 一、 浅拷贝&#xff1…

【2023年11月第四版教材】《第1章-信息化发展之<3 现代化创新发展>》

第1章-信息化发展之&#xff1c;3 现代化创新发展&#xff1e; 3 现代化创新发展3.1 农业现代化3.2 两化融合&#xff08;17下2&#xff09;&#xff08;18下2&#xff09; &#xff08;22下12)3.3 智能制造3.4 消费互联网 3 现代化创新发展 3.1 农业现代化 要素具体内容农业…

Cpp7 — 继承和多态

继承 -------- 面向对象的三大特性之一 面向对象的三大特性&#xff1a;封装、继承、多态 封装&#xff1a;把数据和方法都封装在一起&#xff0c;想给你访问的变成共有&#xff0c;不想给访问的&#xff0c;写成私有。 继承&#xff1a;继承是类设计层次的复用 多态&#…

[SQL挖掘机] - 索引

介绍: 当你在数据库中进行查询时&#xff0c;索引是一种用于提高查询性能的重要工具。索引是对表中的一列或多列进行排序的数据结构&#xff0c;它可以快速定位到满足特定条件的记录&#xff0c;从而减少了查询所需的时间和资源。 在数据库中使用索引的主要好处包括&#xff…

【AGI】Copilot AI编程辅助工具安装教程

1. 基础激活教程 GitHub和OpenAI联合为程序员们送上了编程神器——GitHub Copilot。 但是&#xff0c;Copilot目前不提供公开使用&#xff0c;需要注册账号通过审核&#xff0c;我也提交了申请&#xff1a;这里第一期记录下&#xff0c;开启教程&#xff0c;欢迎大佬们来讨论…

通向架构师的道路之apache性能调优

一、总结前一天的学习 在前两天的学习中我们知道、了解并掌握了Web Server结合App Server实现单向Https的这样的一个架构。这个架构是一个非常基础的J2ee工程上线布署时的一种架构。在前两天的教程中&#xff0c;还讲述了Http服务 器、App Server的最基本安全配置&#xff08;…

java 数组的使用

数组 基本介绍 数组可以存放多个同一类型的数据&#xff0c;数组也是一种数据类型&#xff0c;是引用类型。 即&#xff1a;数组就是一组数据。 数组的使用 1、数组的定义 方法一 -> 单独声明 数据类型[] 数组名 new 数据类型[大小] 说明&#xff1a;int[] a new int…

C/C++算法——散列表

1、散列表介绍 散列表的英文叫Hash Table&#xff0c;我们平时也叫它哈希表或者Hash 表。散列表用的是数组支持按照下标随机访问数据的特性&#xff0c;所以散列表其实就是数组的一种扩展&#xff0c;由数组演化而来。可以说&#xff0c;如果没有数组&#xff0c;就没有散列表。…

【SpringBoot】85、SpringBoot中Boolean类型数据转0/1返回序列化配置

在 SpringBoot 中,前端传参数 0,1,后端可自动解析为 boolean 类型,但后端返回前端 boolean 类型时,却无法自动转换为 0,1,所以我们需要自定义序列化配置,将 boolean 类型转化为 0,1 1、类型对应 boolean 类型有false,true对应的 int 类型0,12、序列化配置 import com.f…

iOS——锁与死锁问题

iOS中的锁 什么是锁锁的分类互斥锁1. synchronized2. NSLock3. pthread 递归锁1. NSRecursiveLock2. pthread 信号量Semaphore1. dispatch_semaphore_t2. pthread 条件锁1. NSCodition2. NSCoditionLock3. POSIX Conditions 分布式锁NSDistributedLock 读写锁1. dispatch_barri…

MySQL优化

目录 一. 优化 SQL 查询语句 1.1. 分析慢查询日志 1.2. 优化 SQL 查询语句的性能 1.2.1 优化查询中的索引 1.2.2 减少表的连接&#xff08;join&#xff09; 1.2.3 优化查询语句中的过滤条件 1.2.4 避免使用SELECT * 1.2.5 优化存储过程和函数 1.2.6 使用缓存 二. 优化表结构…

超全整理,Jmeter性能测试-常用Jmeter第三方插件详解(超细)

目录&#xff1a;导读 前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结&#xff08;尾部小惊喜&#xff09; 前言 Jmeter作为一个开…

React(4)

1.属性&#xff08;props&#xff09;初始 状态state都是组件内部写的&#xff0c;也就是A组件内的state就只能A组件里面用&#xff0c;其他组件复用不了。因此属性props就可以。 比如一个导航栏&#xff0c;首页有&#xff0c;购物车有&#xff0c;我的有&#xff0c;他们三个…

Vue使用QrcodeVue生成二维码并下载

生成二维码 1、安装qrcode.vue组件 npm install --save qrcode.vue<template><div id"app"><qrcode-vue :valuevalue :sizesize></qrcode-vue><br /></div> </template><script> //导入组件 import QrcodeVue fro…

《吐血整理》进阶系列教程-拿捏Fiddler抓包教程(20)-Fiddler精选插件扩展安装让你的Fiddler开挂到你怀疑人生

1.简介 Fiddler本身的功能其实也已经很强大了&#xff0c;但是Fiddler官方还有很多其他扩展插件功能&#xff0c;可以更好地辅助Fiddler去帮助用户去开发、测试和管理项目上的任务。Fiddler已有的功能已经够我们日常工作中使用了&#xff0c;为了更好的扩展Fiddler&#xff0c…