classSolution{//交换publicstaticvoidchangePosition(int arr[],int i,int j){int temp = arr[i];arr[i]= arr[j];arr[j]= temp;}publicvoidsortColors(int[] nums){int n = nums.length;int left =0;//指向交换位置for(int right =0;right<n;right++){//将0换到left位置if(nums[right]==0)changePosition(nums,left++,right);}for(int right = left;right<n;right++){//将1换到left位置if(nums[right]==1)changePosition(nums,left++,right);}}}
Transformer模型已经成为当前所有自然语言处理NLP的标配,如GPT,Bert,Sora,LLama,Grok等。假如《Attention Is All You Need》类比为爱因斯坦的侠义相对论,Transformer模型则堪称EMC^2之等量公式。
看过论文…