基于PyTorch深度学习实战入门系列-PyTorch基础全

Torch的基本使用

  1. 判断GPU是否可用

    torch.cuda.is_available()
    
  2. 张量

    Torch 定义了 10 种张量类型,包括 CPU 和 GPU 形式,如下表所示:

    数据类型dtypeCPU张量GPU张量
    32位浮点数torch.float32、torch.floattorch.FloatTensortorch.cuda.FloatTensor
    64位浮点数torch.float64、torch.doubletorch. DoubleTensortorch.cuda.DoubleTensor
    16位浮点数torch.float16、torch.halftorch.HalfTensortorch.cuda.HalfTensor
    16位浮点数torch.bfloat16torch.BFloat16Tensortorch.cuda.BFloat16Tensor
    32位复数torch.complex32、torch.chalf//
    64位复数torch.complex64、torch.cfloattorch.complex/
    128位复数torch.complex128、torch.cdouble//
    8位整型(无符号)torch.uint8torch.ByteTensortorch.cuda.ByteTensor
    8位整型(有符号)torch.int8torch.CharTensortorch.cuda.CharTensor
    16位整型(有符号)torch.int16、torch.shorttorch.ShortTensortorch.cuda.ShortTensor
    32位整型(有符号)torch.int32、torch.inttorch.IntTensortorch.cuda.IntTensor
    64位整型(有符号)torch.int64、torch.longtorch.LongTensortorch.cuda.LongTensor
    布尔torch.booltorch.BoolTensortorch.cuda.BoolTensor
    量化的8位整型(无符号)torch.quint8torch.ByteTensor/
    量化8位整型(有符号)torch.qint8torch.CharTensor/
    量化的32位整型(有符号)torch.qint32torch.IntTensor/
    量化4位整型(无符号)torch.quint4x2torch.ByteTensor/
    torch.tensor()和torch.Tensor()的区别:

    torch.tensor 是一个工厂函数,它接收多种类型的输入,包括原始数据(如列表、元组或张量)、数据类型和计算设备的指定以及是否需要开启自动求导功能的指示。它的返回值总是新创建的一个张量,即使输入本身就是张量。

    torch.Tensor 是一个类,它用于创建空的张量。它的参数可以是张量的形状(shape)或者是另一个张量。该类的实例化不会改变输入张量的内容,而是返回一个新的张量对象。

    虽然 torch.tensor 和 torch.Tensor 在功能上是相似的,都用于创建PyTorch中的张量,但 torch.Tensor 作为类,提供了更多灵活性,并且在使用时可以避免一些复杂的类型推断问题。

    torch中默认的数据类型为32位浮点型
    tensor1 = torch.Tensor(5)
    tensor1.dtype
    

    输出:

    torch.float32
    
    更改默认数据类型:
    torch.set_default_tensor_type(torch.FloatTensor)
    
    获取默认数据类型:
    torch.get_default_dtype()
    

    输出:

    torch.float32
    
    初始化张量
    通过传入List初始化:
    tensor2 = torch.Tensor([[1, 2], [3, 4]])
    tensor2
    

    输出:

    tensor([[1., 2.],[3., 4.]])
    
    通过传入数组初始化:
    array = np.array([[5, 6], [7, 8]])
    tensor3 = torch.Tensor(array)
    tensor3
    

    输出:

    tensor([[5., 6.],[7., 8.]])
    
    按类型初始化:
    # 32位浮点数
    tensor1 = torch.FloatTensor([1])
    # 64位浮点数
    tensor2 = torch.DoubleTensor([2])
    # 16位浮点数
    tensor3 = torch.HalfTensor([3])
    # 32位整型
    tensor4 = torch.IntTensor([4])
    # 64位整型
    tensor5 = torch.LongTensor([5])
    # 布尔类型
    tensor6 = torch.BoolTensor([0, 1, 0, 1])print(f"tensor1:{tensor1}")
    print(f"tensor2:{tensor2}")
    print(f"tensor3:{tensor3}")
    print(f"tensor4:{tensor4}")
    print(f"tensor5:{tensor5}")
    print(f"tensor6:{tensor6}")
    

    输出:

    tensor1:tensor([1.])
    tensor2:tensor([2.], dtype=torch.float64)
    tensor3:tensor([3.], dtype=torch.float16)
    tensor4:tensor([4], dtype=torch.int32)
    tensor5:tensor([5])
    tensor6:tensor([False,  True, False,  True])
    
    构造全 0 全 1 张量并初始化类型:
    # 构造全0张量 并设置类型为torch.float32
    zerotensor = torch.zeros([3, 6], dtype=torch.float32)
    # 构造全1张量 并设置类型为torch.int32
    onetensor = torch.ones([3, 6], dtype=torch.int32)print(zerotensor)
    print(onetensor)
    

    输出:

    tensor([[0., 0., 0., 0., 0., 0.],[0., 0., 0., 0., 0., 0.],[0., 0., 0., 0., 0., 0.]])
    tensor([[1, 1, 1, 1, 1, 1],[1, 1, 1, 1, 1, 1],[1, 1, 1, 1, 1, 1]], dtype=torch.int32)
    
    创建相同大小的全 1 或全 0 张量
    # 创建相同大小全1张量
    tensor1 = torch.Tensor([[1, 2, 3], [4, 5, 6]])
    likeone = torch.ones_like(tensor1)
    # 创建相同大小全0张量
    likezero = torch.zeros_like(tensor1)
    print(tensor1)
    print(likeone)
    print(likezero)
    

    输出:

    tensor([[1., 2., 3.],[4., 5., 6.]])
    tensor([[1., 1., 1.],[1., 1., 1.]])
    tensor([[0., 0., 0.],[0., 0., 0.]])
    
    生成同纬度随机张量
    # 生成同纬度随机张量
    rantensor = torch.rand_like(tensor1)
    print(rantensor)
    

    输出:

    tensor([[0.1340, 0.2402, 0.7677],[0.6867, 0.7134, 0.0426]])
    
    使用new_full填充张量
    newfull = tensor1.new_full((3, 3), fill_value=8)
    print(newfull)
    

    输出:

    tensor([[8., 8., 8.],[8., 8., 8.],[8., 8., 8.]])
    
    使用new_zeros构建全 0 张量
    # 使用new_zeros构建全0张量
    newzeros = tensor1.new_zeros((3, 3))
    print(newzeros)
    

    输出:

    tensor([[0., 0., 0.],[0., 0., 0.],[0., 0., 0.]])
    
    使用new_ones构建全 1 张量
    # 使用new_ones构建全0张量
    newones = tensor1.new_ones((3, 3))
    print(newones)
    

    输出:

    tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]])
    
    使用new_empty构建全 空 张量
    # 使用new_empty构建全0张量
    newempty = tensor1.new_empty((3, 3))
    print(newempty)
    

    输出:

    tensor([[8., 8., 8.],[8., 8., 8.],[8., 8., 8.]])
    
    张量的操作:
    张量的类型转换(两种方式):
    tensor1 = torch.Tensor([1, 2, 3])
    print(tensor1.dtype)
    # 转换成整型的第一种方法
    print(tensor1.int().dtype)
    # 转换成整形的第二种方法
    print(tensor1.to(dtype=torch.int32).dtyp
    

    输出:

    torch.float32
    torch.int32
    torch.int32
    
    获取张量的值(只能获取一个数):
    tensor1[0].item()
    
    张量转换成数组:
    array = tensor1.numpy()
    
    数组转换为张量:
    array = np.ones((3, 3))
    tensor1 = torch.as_tensor(array)
    tensor2 = torch.from_numpy(array)
    print(tensor1)
    print(tensor2)
    

    输出:

    tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]], dtype=torch.float64)
    tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]], dtype=torch.float64)
    
    通过指定均值和标准差生成随机数:
    # 通过指定均值和标准差生成随机数
    torch.manual_seed(456)
    # 均值为0  标准差为1
    a = torch.normal(mean=0, std=torch.tensor(1.0))
    print(a)
    
    生成0-1上均匀分布的张量:
    # 生成0-1上均匀分布的张量
    tensor1 = torch.rand(2, 3)
    print(tensor1)
    
    生成相同尺寸的随机数张量:
    # 生成相同尺寸的随机数张量
    tensor1 = torch.rand_like(tensor2)
    print(tensor1)
    
    生成0-50随机排列的张量:
    # 生成0-50随机排列的张量
    tensor1 = torch.randperm(50)
    print(tensor1)
    

    输出:

    tensor([42, 16, 43, 39, 28,  4,  5, 45, 48, 25, 34,  1, 21, 33, 13, 29, 15, 12,40,  6, 10, 22, 17,  2, 26, 14, 47, 36,  0, 38, 11, 18, 37, 31,  7, 27,3, 41,  9, 49, 23, 30,  8, 19, 44, 24, 35, 20, 32, 46])
    
    张量数据CPU与GPU的转换:
    print(tensor1.cpu())
    print(tensor1.cuda())
    

    输出:

    tensor([1., 2., 3.])
    tensor([1., 2., 3.], device='cuda:0')
    
    判断Tensor是否在CUDA上(True在、False不在):
    # 判断tensor是否在CUDA上
    print(tensor1.is_cuda)
    
    输出Tensor所在位置:
    print(tensor1.device)
    
    生成指定范围指定步长的张量:
    # 生成指定范围指定步长的张量
    tensor1 = torch.arange(start=0, end=100, step=5)
    print(tensor1)
    

    输出:

    tensor([ 0,  5, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55, 60, 65, 70, 75, 80, 85,90, 95])
    
    使用linspace生成固定数量等间隔的张量:
    # 使用linspace生成固定数量等间隔的张量
    tensor1 = torch.linspace(start=0, end=100, steps=10)
    print(tensor1)
    

    输出:

    tensor([  0.0000,  11.1111,  22.2222,  33.3333,  44.4444,  55.5556,  66.6667,77.7778,  88.8889, 100.0000])
    
    生成以对数为间隔的张量:
    # 生成以对数为间隔的张量
    tensor1 = torch.logspace(start=0, end=1, steps=10)
    print(tensor1)
    
    获取张量的维度:

    注:shape 是一个属性,直接访问,也返回一个元组(tuple),包含了 PyTorch 张量 x 的各个维度的尺寸信息。

    ​ size() 是一个函数,调用时不需要加括号,返回一个元组(tuple),包含了 PyTorch 张量 x 的各个维度的尺寸信息。

    print(tensor1.shape)
    print(tensor1.size())
    

    输出:

    torch.Size([3])
    torch.Size([3])
    
    计算张量中元素个数
    tensor1.numel()
    
    使用requires_grad是否需要计算梯度(只有浮点数可以计算梯度)
    tensor1 = torch.tensor((4, 5, 6), dtype=torch.float32, requires_grad=True)
    print(tensor1)
    

    输出:

    tensor([4., 5., 6.], requires_grad=True)
    
    创建具有特定大小的张量
    tensor1 = torch.Tensor(2, 3)
    print(tensor1)
    

    输出:

    tensor([[0.0000, 1.8750, 0.0000],[2.0000, 0.0000, 2.1250]])
    
    改变张量形状(reshape):
    # 改变张量形状
    tensor1 = torch.arange(15)
    tensor2 = tensor1.reshape(5, 3)
    tensor3 = torch.reshape(input=tensor1, shape=(3, 5))
    print(tensor1)
    print(tensor2)
    print(tensor3)
    

    输出:

    tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14])
    tensor([[ 0,  1,  2],[ 3,  4,  5],[ 6,  7,  8],[ 9, 10, 11],[12, 13, 14]])
    tensor([[ 0,  1,  2,  3,  4],[ 5,  6,  7,  8,  9],[10, 11, 12, 13, 14]])
    
    改变张量形状(resize):
    tensor2 = tensor1.resize(3, 5)
    print(tensor2)
    

    输出:

    tensor([[ 0,  1,  2,  3,  4],[ 5,  6,  7,  8,  9],[10, 11, 12, 13, 14]])
    
    改变张量形状(resize_):
    tensor1.resize_(3, 5)
    print(tensor1)
    

    输出:

    tensor([[ 0,  1,  2,  3,  4],[ 5,  6,  7,  8,  9],[10, 11, 12, 13, 14]])
    
    将张量B形状设置和A一样:
    # 将张量B形状设置和A一样
    tensor1 = torch.Tensor([[9, 8, 7], [4, 5, 6]])
    tensor2 = torch.randperm(6)
    print(tensor2)
    tensor2 = tensor2.resize_as(tensor1)
    print(tensor2)
    

    输出:

    tensor([4, 1, 2, 5, 0, 3])
    tensor([[4, 1, 2],[5, 0, 3]])
    
    升维:
    # 升维
    print(tensor1.shape)
    tensor1 = torch.unsqueeze(tensor1,dim=0)
    print(tensor1.shape)
    

    输出:

    torch.Size([2, 3])
    torch.Size([1, 2, 3])
    
    降维:
    # 降维
    print(tensor1.shape)
    tensor1 = torch.squeeze(tensor1, dim=0)
    print(tensor1.shape)
    

    输出:

    torch.Size([1, 2, 3])
    torch.Size([2, 3])
    
    使用expand进行张量扩展:
    # 使用expand进行张量扩展
    tensor1 = torch.arange(5)
    tensor2 = tensor1.expand(3, -1)
    print(tensor2)
    

    输出:

    tensor([[0, 1, 2, 3, 4],[0, 1, 2, 3, 4],[0, 1, 2, 3, 4]])
    
    使用expand_as进行张量扩展:
    tensor3 = torch.arange(10).resize(2, 5)
    tensor2 = tensor1.expand_as(tensor3)
    print(tensor2)
    

    输出:

    tensor([[0, 1, 2, 3, 4],[0, 1, 2, 3, 4]])
    
    根据条件筛选:
    # 根据条件筛选
    tensor1 = torch.randperm(12).reshape(3, 4)
    tensor2 = -tensor1
    print(tensor1)
    print(tensor2)
    tensor3 = torch.where(tensor1 > 6, tensor1, tensor2)
    print(tensor3)
    

    输出:

    tensor([[ 6,  4,  8,  2],[ 3,  0, 11, 10],[ 9,  1,  7,  5]])
    tensor([[ -6,  -4,  -8,  -2],[ -3,   0, -11, -10],[ -9,  -1,  -7,  -5]])
    tensor([[-6, -4,  8, -2],[-3,  0, 11, 10],[ 9, -1,  7, -5]])
    
    获取矩阵张量下三角:
    # 获取矩阵下三角
    tensor1 = torch.randperm(16).reshape(4, 4)
    print(torch.tril(tensor1, diagonal=0))
    

    输出:

    tensor([[15,  0,  0,  0],[14,  3,  0,  0],[12,  0,  1,  0],[11, 13,  8,  6]])
    
    获取矩阵张量上三角:
    # 获取矩阵上三角
    tensor1 = torch.randperm(16).reshape(4, 4)
    print(torch.triu(tensor1, diagonal=0))
    

    输出:

    tensor([[11, 13,  3,  7],[ 0,  4,  6, 14],[ 0,  0,  8,  5],[ 0,  0,  0,  2]])
    
    生成对角阵:
    # 生成对角阵
    tensor1 = torch.diag(torch.Tensor([1, 2, 3]))
    print(tensor1)
    

    输出:

    tensor([[1., 0., 0.],[0., 2., 0.],[0., 0., 3.]])
    
    张量的拼接和拆分
    拼接张量(cat):
    tensor1 = torch.arange(12).reshape(3, 4)
    tensor2 = torch.linspace(0, 50, 12).reshape(3, 4)
    # 0维度拼接张量  列上拼接
    tensor3 = torch.cat((tensor1, tensor2), dim=0)
    # 1维度拼接张量  行上拼接
    tensor4 = torch.cat((tensor1, tensor2), dim=1)
    print(tensor3)
    print(tensor4)
    

    输出:

    tensor([[ 0.0000,  1.0000,  2.0000,  3.0000],[ 4.0000,  5.0000,  6.0000,  7.0000],[ 8.0000,  9.0000, 10.0000, 11.0000],[ 0.0000,  4.5455,  9.0909, 13.6364],[18.1818, 22.7273, 27.2727, 31.8182],[36.3636, 40.9091, 45.4545, 50.0000]])
    tensor([[ 0.0000,  1.0000,  2.0000,  3.0000,  0.0000,  4.5455,  9.0909, 13.6364],[ 4.0000,  5.0000,  6.0000,  7.0000, 18.1818, 22.7273, 27.2727, 31.8182],[ 8.0000,  9.0000, 10.0000, 11.0000, 36.3636, 40.9091, 45.4545, 50.0000]])
    
    沿新的维度拼接张量(stack):
    tensor1 = torch.arange(12).reshape(3, 4)
    tensor2 = torch.linspace(0, 50, 12).reshape(3, 4)
    # 0维度拼接张量  列上拼接
    tensor3 = torch.stack((tensor1, tensor2), dim=0)
    # 1维度拼接张量  行上拼接
    tensor4 = torch.stack((tensor1, tensor2), dim=1)
    print(tensor3)
    print(tensor4)
    

    输出:

    tensor([[[ 0.0000,  1.0000,  2.0000,  3.0000],[ 4.0000,  5.0000,  6.0000,  7.0000],[ 8.0000,  9.0000, 10.0000, 11.0000]],[[ 0.0000,  4.5455,  9.0909, 13.6364],[18.1818, 22.7273, 27.2727, 31.8182],[36.3636, 40.9091, 45.4545, 50.0000]]])
    tensor([[[ 0.0000,  1.0000,  2.0000,  3.0000],[ 0.0000,  4.5455,  9.0909, 13.6364]],[[ 4.0000,  5.0000,  6.0000,  7.0000],[18.1818, 22.7273, 27.2727, 31.8182]],[[ 8.0000,  9.0000, 10.0000, 11.0000],[36.3636, 40.9091, 45.4545, 50.0000]]])
    
    分割张量(chunk):
    tensor1 = torch.arange(12).reshape(2, 6)
    tensor2 = torch.chunk(tensor1, 2, dim=0)
    tensor3 = torch.chunk(tensor1, 6, dim=1)
    print(tensor1)
    print(tensor2)
    print(tensor3)
    

    输出:

    tensor([[ 0,  1,  2,  3,  4,  5],[ 6,  7,  8,  9, 10, 11]])
    (tensor([[0, 1, 2, 3, 4, 5]]), tensor([[ 6,  7,  8,  9, 10, 11]]))
    (tensor([[0],[6]]), tensor([[1],[7]]), tensor([[2],[8]]), tensor([[3],[9]]), tensor([[ 4],[10]]), tensor([[ 5],[11]]))
    
    分割张量指定每个块大小(spilt):
    a, b, c = torch.split(tensor1, [1, 2, 3], dim=1)
    print(a)
    print(b)
    print(c)
    

    输出:

    tensor([[0],[6]])
    tensor([[1, 2],[7, 8]])
    tensor([[ 3,  4,  5],[ 9, 10, 11]])
    

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/768721.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

大数据技术原理与应用 01.大数据概述

不可以垂头丧气,会显矮 —— 24.3.24 参考学习:厦门大学 林子雨老师 大数据技术原理与应用 一、大数据时代 大数据概念、影响、应用、关键技术 大数据与云计算、物联网的关系 ①三次信息化浪潮时代 ②第三次信息化浪潮的技术支撑 1>存储设备容量不断…

ARM:按键中断

key_inc.c #include"key_inc.h"void key1_it_config(){//使能GPIOF外设时钟RCC->MP_AHB4ENSETR | (0x1<<5);//将PF9设置为输入模式GPIOF->MODER & (~(0x3<<18));//设置由PF9管脚产生EXTI9事件EXTI->EXTICR3 & (~(0XFF<<8));EXTI…

msyq类型类转换造成索引失效

今天碰到一个慢sql的问题&#xff0c;sql明明按照最前缀的原则写的&#xff0c;但是索引就是不生效&#xff0c;最终排查发现是因为索引字段发生类型转换造成的。 一、表结构 1、表字段 2、表索引 二、问题sql EXPLAIN SELECT * FROM t_res WHERE open 1 AND res_date &…

蓝桥杯day12刷题日记

P8720 [蓝桥杯 2020 省 B2] 平面切分 思路&#xff1a;首先借用dalao的图解释一下&#xff0c;又多出一条与当前平面任意一条直线都不重合线时&#xff0c;多了的平面是交点数1&#xff0c;所以用双层循环每次往里面加一条直线&#xff0c;计算交点 #include <iostream>…

Ubuntu Desktop - Updates (不升级到新版本)

Ubuntu Desktop - Updates [不升级到新版本] 1. UpdatesReferences 1. Updates System Settings -> Software & Updates -> Updates ubuntu-16.04.3-desktop-amd64.iso 不升级到新版本 ​ References [1] Yongqiang Cheng, https://yongqiang.blog.csdn.net/

TypeScript 常见的面试题

文章目录 1. 什么是TypeScript2. 类型声明和类型推断的区别&#xff0c;并举例应用3. 什么是接口&#xff08;interface&#xff09;&#xff0c;它的作用&#xff0c;接口的使用场景。接口和类型别名&#xff08;Type Alias&#xff09;的区别4. 什么是泛型&#xff08;generi…

RK3588开发笔记-v1.3.0-SDK文件系统分区添加

目录 目录 前言 一、分区文件 二、分区文件初始化 三、板级配置文件修改

【Linux】nmcli命令详解

目录 ​编辑 一、概述 二、常用参数使用 2.1 nmcli networking 1.显示NM是否接管网络 2.查看网络连接状态 3.开/关网络连接 2.2 general ​编辑 1.显示系统网络状态 2.显示主机名 3.更改主机名 2.3 nmcli connection ​编辑1.显示所有网络连接 2.显示某个网卡的…

JAVA 100道题(15)

15.使用TreeSet对一组整数进行排序。 在Java中&#xff0c;TreeSet是一个基于红黑树实现的NavigableSet接口。由于它是自动排序的&#xff0c;因此当我们向TreeSet中添加元素时&#xff0c;它们会自动按照自然顺序&#xff08;对于整数&#xff0c;就是从小到大的顺序&#xf…

【数据结构】快速排序(用递归)

大家好&#xff0c;我是苏貝&#xff0c;本篇博客带大家了解快速排序&#xff0c;如果你觉得我写的还不错的话&#xff0c;可以给我一个赞&#x1f44d;吗&#xff0c;感谢❤️ 目录 一. 基本思想二. 快速排序2.1 hoare版本2.2 挖坑法2.3 前后指针法2.4 快速排序优化三数取中法…

redis 基本操作

1、String 类型 赋值语法&#xff1a;SET key value 127.0.0.1:6379> set k1 zhangsan OK 取值语法&#xff1a; GET key 127.0.0.1:6379> get k1 "zhangsan" 设置多个键语法&#xff1a; MSET key value [key value …] 127.0.0.1:6379> mset k2 lisi k3 …

Python学习目录

基础篇 变量赋值篇字符串(string)篇&#xff08;一&#xff09;字符串(string)篇&#xff08;二&#xff09;字符串(string)篇&#xff08;三&#xff09;字符串(string)篇&#xff08;四&#xff09;字符串(string)篇&#xff08;五&#xff09;列表(list)篇&#xff08;一&a…

【Android】【Bluetooth Stack】蓝牙电话协议之接听电话分析(超详细)

1. 精讲蓝牙协议栈&#xff08;Bluetooth Stack&#xff09;&#xff1a;SPP/A2DP/AVRCP/HFP/PBAP/IAP2/HID/MAP/OPP/PAN/GATTC/GATTS/HOGP等协议理论 2. 欢迎大家关注和订阅&#xff0c;【蓝牙协议栈】和【Android Bluetooth Stack】专栏会持续更新中.....敬请期待&#xff0…

MySQL详解

本笔记源于【狂神说Java】 B站收UP主&#xff1a;遇见狂神说。即可看见教程 或者点击链接MySQL最新教程 目录 1、初始MySQL 1.1、数据库简介 1.2、数据库管理系统 1.3、MySQL简介及安装 1.4、SQLyog 2、操作数据库 2.1、操作数据库&#xff08;了解&#xff09; 2.2、数…

LangChain核心模块 Retrieval——Indexing

Indexing 索引 LangChain Indexing API将数据从任何来源同步到向量存储中并保持同步&#xff0c;可以做到&#xff1a; 避免将重复内容写入矢量库避免重写未更改的内容避免在未更改的内容上重新计算嵌入 最重要的是&#xff0c;Indexing API 甚至可以处理相对于原始源文档经…

WM8978 —— 带扬声器驱动程序的立体声编解码器(2)

接前一篇文章&#xff1a;WM8978 —— 带扬声器驱动程序的立体声编解码器&#xff08;1&#xff09; 六、引脚详细说明 引脚&#xff08;PIN&#xff09;名称&#xff08;NAME&#xff09;类型&#xff08;TYPE&#xff09;描述&#xff08;DESCRIPTION&#xff09;1LIP模拟输入…

无极低码SQL模板引擎使用教程示例,自己手撸一个sql模板引擎进行动态sql生成。

无极低码 &#xff1a;https://wheart.cn 无极低码SQL模板使用教程 一、模板结构与规则 无极低码SQL模板通过简洁的Markdown格式&#xff0c;使SQL语句具有更强的灵活性和适应性&#xff0c;简化了根据业务需求定制SQL的过程。 无极低码SQL模板是一种基于Markdown格式的特殊…

006、Dynamo Python 之Revit元素类别

今天我们来聊聊 Revit 元素这点事&#xff0c;不仅仅是在 Dynamo Python 之中涉及&#xff0c;我们在日常使用 Revit 的时候&#xff0c;也涉及这个问题&#xff0c;只是对我们日常画图没什么影响&#xff0c;所以很多人并没太在意这块。 Revit Elements 分为六个组&#xff1a…

Redis实战篇-4

实战篇Redis 1.3 、实现发送短信验证码功能 页面流程 具体代码如下 贴心小提示&#xff1a; 具体逻辑上文已经分析&#xff0c;我们仅仅只需要按照提示的逻辑写出代码即可。 发送验证码 Overridepublic Result sendCode(String phone, HttpSession session) {// 1.校验手机…

第6章 准时与专注

< 回到目录 第6章 准时与专注 自己预定的会议一定要准时参加。如果无法准时出席呢&#xff1f;当你意识到自己即将迟到时&#xff0c;必须第一时间通知所有与会人员&#xff0c;让大家有充分的准备。这是基本的社交礼仪&#xff0c;更重要的&#xff0c;它还能最大限度地减…