BigDL-LLM 安装指南——在iGPU集成显卡下使用BigDL-LLM大模型库加速LLM

文章目录

    • iGPU是什么?
    • 一、环境准备
      • 1.1 Visual Studio 2022 Community 安装
      • 1.2 安装或更新最新版本的GPU驱动程序
      • 1.3 安装英特尔oneAPI工具包2024.0版本
      • 1.4 安装Anaconda
    • 二、BigDL -LLM 安装
      • 2.1 创建虚拟环境
      • 2.2 激活虚拟环境
      • 2.3 安装bigdl-llm[xpu]
    • 三、运行环境配置
    • 四、安装验证
    • 五、本地测试下BigDL-LLM大模型
    • 参考资料

iGPU是什么?

首先,我们普及以下iGPU的概念, iGPU, 全称为集成图形处理单元(Integrated Graphics Processing Unit),是一种嵌入在中央处理器(CPU)内部的图像处理单元。

与独立显卡相比,iGPU通常性能较低,但它具有低功耗、低成本和便携性等优势。

iGPU内存是指集成显卡(iGPU)使用的内存,通常嵌入在CPU或APU芯片中,与CPU共享内存,用于处理图形和视频等任务。iGPU内存可以是动态随机存储器(DRAM)或静态随机存储器(SRAM)类型,DRAM类型的iGPU内存可以被访问和修改,而SRAM类型的iGPU内存速度更快,但容量通常较小且不可修改。iGPU内存的容量通常取决于使用的处理器型号和制造商,例如英特尔的iGPU内存容量通常在1GB到2GB之间,而AMD的iGPU内存容量则较高,通常在2GB到8GB之间。这次博主使用的iGPU是联想最新推出的2024款联想小新Pro 16寸。

该电脑配置有32G的运行内存,共享GPU内存更是高达16G,甚至还配置有16G的NPU。

在这里插入图片描述

一、环境准备

1.1 Visual Studio 2022 Community 安装

安装点击此处👉:Visual Studio 2022 Community安装链接

在这里插入图片描述
安装的时候将使用C++的桌面开发选项选中。注意:如果C盘空间充足就直接安装到C盘,实在太少就安装到其他盘,但是还需配置一遍环境变量比较麻烦。
在这里插入图片描述
然后点击右下角的安装即可(这里我已经安装成功,所以没有安装选项)。

1.2 安装或更新最新版本的GPU驱动程序

这个操作一般都不需要,买的新电脑驱动应该是最新版的,详细可见:[GPU和NPU驱动安装与配置说明]。(https://docs.openvino.ai/archive/2023.2/openvino_docs_install_guides_configurations_header.html)

1.3 安装英特尔oneAPI工具包2024.0版本

安装点击此处👉:oneAPI工具包安装链接
在这里插入图片描述
进来后选择操作系统,这里我们选Windows,以及Online install下载,也就是在线下载。
然后,翻到下面点击
在这里插入图片描述
这里可能浏览器会阻止弹窗,那就不能下载成功,可以将弹窗阻止关闭。

1.4 安装Anaconda

安装点击此处👉:最新版本Anaconda安装地址

注意:如果电脑内存有限,建议安装miniconda,方法差不多,具体教程可以自行上网搜索,本篇博客就不再详细叙述。
在这里插入图片描述

如果嫌下载慢的话,也可以使用清华大学的软件镜像网站,点击此处👉清华大学软件镜像网站地址
在这里插入图片描述

在这里插入图片描述
下载完成后,我们点击安装包,开始进行安装。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里可以换一下安装路径到D盘,默认的是C盘。
在这里插入图片描述
在这里插入图片描述
最新版本安装时间有点长,静静等待即可。

在这里插入图片描述
在这里插入图片描述
以上两个,取消勾选,不然会打开网站和Anaconda导航工具。

步骤如下:此电脑----->属性----->高级系统设置----->环境变量----->path----->编辑----->新建(好多软件都是这里配置环境变量,大家应该不陌生),懒得话直接按win键,搜索“环境变量”
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
配置好环境以后,我们进行测试一下。
在这里插入图片描述
返回版本就说明已经配置成功。

二、BigDL -LLM 安装

首先,请先创建一个python 3.9环境,上面我们已经安装了Anaconda,这里直接使用。
请注意:bigdl-llm 支持python 3.9, 3.10以及3.11。为了最佳使用体验,建议使用 python 3.9版本。

2.1 创建虚拟环境

打开 Anaconda Prompt 先创建一个虚拟环境。

conda create -n bigdl_llm python=3.9 libuv

在这里插入图片描述

2.2 激活虚拟环境

conda activate bigdl_llm

在这里插入图片描述

2.3 安装bigdl-llm[xpu]

pip install --pre --upgrade bigdl-llm[xpu] -f https://developer.intel.com/ipex-whl-stable-xpu

在这里插入图片描述
注意:如果在 pip install --pre --upgrade bigdl-llm[xpu] -f https://developer.intel.com/ipex-whl-stable-xpu 的过程中遇到 IPEX等相关库的安装问题,可以选择下面任意一种方式完成相关依赖的安装。

  1. 使用命令:pip install --pre --upgrade bigdl-llm[xpu] --extra-index-url https://pytorch-extension.intel.com/release-whl/stable/xpu/cn/

  2. 在安装bigdl-llm前,您需要先运行下面指令,下载 torch/torchvision/ intel-extension-for-pytorch 的对应whl文件

wget https://intel-extension-for-pytorch.s3.amazonaws.com/ipex_stable/xpu/torch-2.1.0a0%2Bcxx11.abi-cp39-cp39-win_amd64.whl
wget https://intel-extension-for-pytorch.s3.amazonaws.com/ipex_stable/xpu/torchvision-0.16.0a0%2Bcxx11.abi-cp39-cp39-win_amd64.whl
wget https://intel-extension-for-pytorch.s3.amazonaws.com/ipex_stable/xpu/intel_extension_for_pytorch-2.1.10%2Bxpu-cp39-cp39-win_amd64.whl

下载完成后,您可以直接通过whl文件安装相关依赖,并完成bigdl-llm的安装。

pip install torch-2.1.0a0+cxx11.abi-cp39-cp39-win_amd64.whl
pip install torchvision-0.16.0a0+cxx11.abi-cp39-cp39-win_amd64.whl
pip install intel_extension_for_pytorch-2.1.10+xpu-cp39-cp39-win_amd64.whl
pip install --pre --upgrade bigdl-llm[xpu] 

请注意:以上提供的whl包下载链接是针对python 3.9环境的,如果您想使用python 3.10或python 3.11,请将whl包名字中的cp39改为cp310或cp311。

三、运行环境配置

为了在Core Ultra 平台上的 iGPU上运行BigDL-LLM,我们需要完成相关环境变量的配置。

请您在预备运行代码的CMD(PowerShell不支持以下命令)终端中运行以下命令:

call "C:\Program Files (x86)\Intel\oneAPI\setvars.bat"set SYCL_CACHE_PERSISTENT=1
set BIGDL_LLM_XMX_DISABLED=1

在这里插入图片描述
注意事项:
1.每次重新打开终端时,请重新运行上面命令
2.每个新模型在iGPU上首次运行时,可能需要花费几分钟时间完成编译。

四、安装验证

完成安装后可以运行如下Python代码,以确保您已成功安装bigdl-llm及相关依赖,并完成了运行环境配置。运行后您应当看到这样的输出:torch.Size([1, 1, 40,40])

import torch
import intel_extension_for_pytorch as ipex
import linear_q4_0tensor_1 = torch.randn(1, 1, 40, 128).to('xpu')
tensor_2 = torch.randn(1, 1, 128, 40).to('xpu')
print(torch.matmul(tensor_1, tensor_2).size())

在python里面运行的时候,import torch 就会报以下的错误:
在这里插入图片描述
原因是numpy的版本太高了,我们可以使用quit()退出python,适当降低numpy的版本为1.26.4,即:

pip install numpy==1.26.4

在这里插入图片描述
这时候看已经不报错了~

但是运行import intel_extension_for_pytorch as ipex的时候还是会出现警告,但是无伤大雅。
在这里插入图片描述
这时候再运行其它命令就不会出现错误内容了~
在这里插入图片描述

五、本地测试下BigDL-LLM大模型

首先下载BigDL-LLM代码,点击此处👉BigDL-LLM的Github链接。

下载完代码以后,我们进入到BigDL-main/BigDL-main/python/llm/example/GPU/PyTorch-Models/Model/chatglm3/generate.py目录下,看下代码可以发现,这里调用的是github上的ChatGLM3模型权重,需要加载,但是很慢。

在这里插入图片描述
这里我推荐大家直接去我们国内的ModelScope魔搭社区,进行模型的下载,我们可以使用git命令,直接下载到本地,具体方法相信不需要我说大家都知道。
在这里插入图片描述

全部下载到本地以后,我们使用CMD命令行来进行大模型的运行,因为涉及到了下面三行CMD代码的执行,所以直接在CMD命令行里面运行。

call "C:\Program Files (x86)\Intel\oneAPI\setvars.bat"set SYCL_CACHE_PERSISTENT=1
set BIGDL_LLM_XMX_DISABLED=1

如果不运行上面三行代码,那么直接运行会进行报错。在这里插入图片描述
系统找不到该指定模块,但是我看我路径下确实有该文件,具体原因我上网尝试了很多方法都没解决(有大佬知道辛苦评论区指导~)。
在这里插入图片描述
我们直接进入到模型文件目录下,这次我用的是chatglm3b大模型。
在这里插入图片描述
然后输入cmd打开命令行。
在这里插入图片描述
记得每次打开新的命令行都需要重新输入以下三行命令:

call "C:\Program Files (x86)\Intel\oneAPI\setvars.bat"set SYCL_CACHE_PERSISTENT=1
set BIGDL_LLM_XMX_DISABLED=1

在这里插入图片描述

然后输入conda activate bigdl_llm 激活虚拟环境,如果有人以前没有在cmd命令行里面激活过conda虚拟环境,可以输入conda init 初始化conda环境,将cmd名号了关闭后重新进入,再此输入激活虚拟环境命令进行激活。
在这里插入图片描述

然后输入 python generate.py 运行代码:

在这里插入图片描述
可以看到,推理时间只有短短2s左右,速度还是很快的。
以上是调用XPU的推理速度,下面我们看看CPU的推理速度。
在这里插入图片描述
可以看到,借助了BigDL-LLM大模型加速库的情况下,cpu推理时间为3秒左右。

推理的结果,可以通过调整参数--n-predict来进行控制,默认值为32,我们调整到64以后可以看到下面回答的更加完整了一点。
在这里插入图片描述

参考资料

  • BigDL-LLM 代码仓库https://github.com/intel-analytics/BigDL/

  • BigDL-LLM 教程https://github.com/intel-analytics/bigdl-llm-tutorial

  • 社区流行模型使用BigDL-LLM在Intel CPU和GPU上的使用实例https://github.com/intel-analytics/BigDL/tree/main/python/llm/example

  • BigDL-LLM 文档https://bigdl.readthedocs.io/en/latest/index.html

  • BigDL-LLM API文档https://bigdl.readthedocs.io/en/latest/doc/PythonAPI/LLM/index.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/743905.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

iOS 17.4 Not Installed

iOS15以后,下载了xcode安装好后,并不会自动下载好模拟器,需要手动下载。 有两种下载方式 xcode下载 xcode -> Settings 打开面板 xcode下载虽然方便,但是有个问题是,这里下载如果断网了不会断点续传,…

MyBatis 框架之一:简介及环境搭建详细步骤

1. MyBatis 是什么? MyBatis 是一个流行的、轻量级的 Java 持久层框架,它简化了与数据库交互和 SQL 映射的过程。MyBatis 取代了 JDBC 原始 API 的大量繁琐工作,允许开发者将更多的精力放在业务逻辑上而不是处理数据访问细节。 mybatis 是一款…

激光雷达研究笔记1:资料整理与学习_windows机对其评估使用

到手了一款型号为LDROBOT LiDAR LD19 的单线激光雷达模块,现对其进行学习使用: 1.对产品手册的研究: 通读产品手册后,我提炼了几方面有用的信息: 1.测量依据: 以下是激光雷达点云扫描示意图: 上…

Linux信号机制(二)

目录 一、信号的阻塞 二、信号集操作函数 三、sigprocmask函数 四、pause函数 五、sigsuspend函数 一、信号的阻塞 有时候不希望在接到信号时就立即停止当前执行,去处理信号,同时也不希望忽略该信号,而是延时一段时间去调用信号处理函数。…

【Sql Server】通过Sql语句批量处理数据,使用变量且遍历数据进行逻辑处理

欢迎来到《小5讲堂》,大家好,我是全栈小5。 这是《Sql Server》系列文章,每篇文章将以博主理解的角度展开讲解, 特别是针对知识点的概念进行叙说,大部分文章将会对这些概念进行实际例子验证,以此达到加深对…

Qt配置OpenCV,无需编译

网上很多关于Qt配置OpenCV的教程都需要下载CMake编译Opencv,但是这种做法出错的概率很大,很多时候会受CMake或者Opencv版本的影响,又或者是没有使用Qt自带的Cmake-gui.exe程序,我在编译的时候也是频繁出错。 本文推荐的方法是使用…

【EDK II】作为UEFI的实现,EDK II 的架构是什么样的

目录 前言 EDK II 架构 配置文件 结语 前言 基本输入输出系统 (Basic Input Output System, BIOS) 最早由 IBM(International Business Machines Corporation) 公司于1981年提出并开发,后来成为个人计算机(PC)的标准固件接口。但受限于传统BIOS (Le…

MySQL的用户管理以及权限设置

用户管理 账户管理 我们在数据库里面创建用户,修改用户,删除用户,本质上就是对mysql数据库下的user表进行增删查改,用户的所有信息都存在这张表里,我们想要创建用户可以往user表insert,删除用户可以delet…

【Java基础概述-10】IO流、字节流、字符流、缓冲流、转换流、序列化、打印流、Properties属性集对象

目录 1、IO流概述 2、字节流的使用 2.1、FileInputStream字节输入流 2.1.1、读取方式一 2.1.2、读取方式二 2.1.3、字节流读取数据如何避免中文乱码 2.2、OutputStream字节输出流 2.3、案例:复制粘贴小案例 3、字符流 3.1、FileReader字符输入流 3.1.1、读…

打卡学习kubernetes——kubernetes架构原理

接上一篇的内容,除了核心组件,还有一些推荐的Add-ons: kube-dns 负责为整个集群提供DNS服务Ingress Controller 为服务提供外网入口Heapster 提供资源监控(没用过这个,但是用过grafana,很方便&#xf…

MySQL的事务隔离是如何实现的?

目录 从一个例子说起 快照读和当前读 事务的启动时机和读视图生成的时刻 MVCC 隐藏字段 Undo Log回滚日志 Read View - 读视图 可重复读(RC)隔离级别下的MVCC 读提交(RR)隔离级别下的MCC 关于MVCC的一些疑问 1.为什么需要 MVCC ?如果没有 MVCC 会怎样&am…

ov多域名SSL数字证书1200元一年送一月

随着互联网的发展,不论是个人用户还是企事业单位都不止有一个网站,为了保护网站安全,就需要为网站安装SSL证书,而SSL证书中的通配符SSL证书和多域名SSL证书都可以同时保护多个域名站点。其中,多域名SSL证书可以同时保护…

POS 之 验证者如何才能提议区块

验证者提议区块 验证者帐户提议区块。 验证者帐户由节点运营商(可以是AWS等待云服务商)管理,节点运营商运行验证者软件作为其执行和共识客户端的一部分,并且已经向存款合约中存入了至少 32 个以太币 然而,每个验证者只是偶尔负责提议一个区块…

jvm题库详解

1、JVM内存模型 注意:这个是基于jdk1.8之前的虚拟机,在jdk1.8后 已经没有方法区,一并合并到堆中的元空间了 JVM内存区域总共分为两种类型 线程私有区域:程序计数器、本地方法栈和虚拟机栈 线程共享区域:堆&#xff08…

android MMKV数据持久化缓存集合

前言 最近在使用mmkv缓存的时候 发现没有集合缓存 非常不方便 自己写一个方法 MMKV public class MmkvUtils {private MmkvUtils() {throw new UnsupportedOperationException("u cant instantiate me...");}public static void init() {MMKV.initialize(LeoUtils…

脚本.py文件转.exe文件遇见的问题,打开exe文件出现弹窗: No module named ‘xxx‘

目录 1 问题2 问题分析3 解决过程3.1 确保Pillow库存在3.2 迷惑阶段3.3 解决问题 4 希望大佬解答 1 问题 今天做了一个使用Python写的脚本文件.py,打算把它转换成.exe文件。点击生成的exe文件时,出现了如下弹窗。 2 问题分析 根据错误描述&#xff1…

国际黄金在哪里买?

国际黄金可以在以下几个主要的市场和渠道进行购买: 1. 黄金交易所:国际上有多个黄金交易所,其中最知名的是伦敦金属交易所(London Bullion Market Association,简称LBMA)。LBMA是全球最大的黄金交易市场&am…

Arrays --Java学习笔记

Arrays 用来操作数组的一个工具类 Arrays类提供的常见方法: 代码演示: import java.util.Arrays; import java.util.function.IntToDoubleFunction; import java.util.function.IntUnaryOperator;public class Arrays类 {public static void main(Str…

[JAVAEE]—进程和多线程的认识

文章目录 什么是线程什么是进程进程的组成什么是pcb 进程概括线程线程与进程的关系线程的特点 创建线程创建线程方法创建线程的第二种方法对比 其他的方式匿名内部类创建线程匿名内部类创建Runable的子类lambda表达式创建一个线程 多线程的优势 什么是线程 什么是进程 首先想…