合肥生态建设职业培训学校网站/如何创建网站教程

合肥生态建设职业培训学校网站,如何创建网站教程,农产品公司网页设计,网站产品类别顺序如果修改显卡架构是GPU设计的核心,不同厂商有其独特的架构演进。以下是主要厂商的显卡架构概述: 一、NVIDIA Tesla(2006-2010) 代表产品:GeForce 8000系列(G80)。特点:首款统一着色架构&…

显卡架构是GPU设计的核心,不同厂商有其独特的架构演进。以下是主要厂商的显卡架构概述:

一、NVIDIA

  1. Tesla(2006-2010)

    • 代表产品:GeForce 8000系列(G80)。
    • 特点:首款统一着色架构,支持CUDA。
  2. Fermi(2010)

    • 产品:GTX 400/500系列。
    • 特点:引入L2缓存,支持ECC内存。
  3. Kepler(2012)

    • 产品:GTX 600/700系列。
    • 特点:能效提升,支持GPU Boost。
  4. Maxwell(2014)

    • 产品:GTX 900系列。
    • 特点:高能效比,SMM单元优化。
  5. Pascal(2016)

    • 产品:GTX 10系列(如1080)。
    • 特点:16nm工艺,支持NVLink。
  6. Volta(2017)

    • 产品:Tesla V100(数据中心)。
    • 特点:Tensor Core加速AI计算。
  7. Turing(2018)

    • 产品:RTX 20系列。
    • 特点:首次支持光线追踪和DLSS。
  8. Ampere(2020)

    • 产品:RTX 30系列、A100。
    • 特点:第二代光追,第三代Tensor Core。
  9. Ada Lovelace(2022)

    • 产品:RTX 40系列。
    • 特点:DLSS 3,第四代光追。
  10. Hopper(2022)

    • 产品:H100(数据中心)。
    • 特点:Transformer引擎,HBM3内存。

二、AMD

  1. GCN(Graphics Core Next)(2012-2018)

    • 产品:Radeon HD 7000系列至RX 500系列。
    • 特点:统一计算架构,支持Mantle API。
  2. RDNA(Radeon DNA)

    • RDNA 1(2019):RX 5000系列,7nm工艺,提升能效。
    • RDNA 2(2020):RX 6000系列(如6900 XT),支持光线追踪和FSR。
    • RDNA 3(2022):RX 7000系列,5nm工艺,Chiplet设计。
  3. CDNA(2020-至今)

    • 产品:Instinct MI系列(如MI250X)。
    • 特点:专为计算优化,支持Infinity Fabric。

三、Intel

  1. Xe架构
    • Xe LP(2020):集成显卡(如Iris Xe)。
    • Xe HPG(2022):Arc A系列(如A770),支持光线追踪和XeSS。
    • Xe HPC(2022):Ponte Vecchio(数据中心)。
    • Xe HP:多芯片设计,面向服务器。

四、其他厂商

  1. Imagination PowerVR

    • 用于移动设备(如旧款iPhone),低功耗设计。
  2. ARM Mali

    • 集成于移动SoC(如三星Exynos),侧重能效。
  3. 高通 Adreno

    • 源自ATI Imageon,用于骁龙芯片(如Adreno 740)。

五、应用领域

  • 游戏/消费级:NVIDIA Ada Lovelace、AMD RDNA、Intel Xe HPG。
  • 数据中心:NVIDIA Hopper、AMD CDNA、Intel Xe HPC。
  • 移动/嵌入式:ARM Mali、PowerVR、Adreno。

六、英伟达Blackwell架构

以下是英伟达Blackwell架构的历史发展脉络,结合技术演进、市场背景与行业影响进行综合分析:


一、起源与命名

  1. 发布背景
    Blackwell架构是英伟达在AI算力需求爆炸式增长、摩尔定律逐渐放缓的背景下推出的新一代GPU架构。其目标是通过技术创新解决用户对高画质、高帧率与低功耗的双重需求,同时支撑万亿参数级AI模型的训练与推理。

  2. 命名由来
    架构以美国数学家David Blackwell(首位入选美国国家科学院的黑人学者)命名,延续了英伟达以科学家命名的传统(如Turing、Ampere等),旨在致敬其对统计学和博弈论的贡献。


二、研发投入与时间线

  1. 研发周期与成本

    • 研发始于2021年,历时3年,投入约2.5万名工程师,人力成本估算达163亿美元(仅薪酬部分)。
    • 作为对比,前代Hopper架构研发成本约为其一半,但Blackwell的复杂性与技术突破显著提升。
  2. 发布与延迟

    • 2024年3月,英伟达在GTC开发者大会上首次公布Blackwell架构,并推出首款产品GB200芯片。
    • 原计划2024年底量产,但因台积电CoWoS封装工艺问题推迟至2025年第一季度。

三、技术演进与架构继承

  1. 前代架构的积累
    Blackwell继承了英伟达GPU架构的迭代基因:

    • Pascal(2016):首推统一着色器设计,奠定CUDA核心灵活性基础。
    • Volta(2017):引入Tensor Core,开启AI专用加速时代。
    • Ampere(2020):NVLink 3.0与HBM2e显存提升多卡协作效率。
    • Hopper(2022):HBM3显存与FP8精度优化大模型训练。
  2. Blackwell的核心突破

    • 晶体管与工艺:采用台积电4nm工艺,集成2080亿晶体管(Hopper的两倍)。
    • 显存技术:配备192GB HBM3e显存,带宽达8TB/s,支持万亿参数模型实时推理。
    • 计算单元:第五代Tensor Core支持FP4/FP6低精度计算,AI算力提升至20千万亿次/秒(H100的5倍)。
    • 互联技术:NVLink 5提供1.8TB/s双向带宽,支持576个GPU无缝互联,构建超大规模集群。

四、产品化与市场布局

  1. 关键产品线

    • 数据中心:GB200 NVL72系统(72个GPU + 36个Grace CPU),专为万亿参数大语言模型设计,推理性能较H100提升30倍。
    • 消费级显卡:RTX 50系列(如RTX 5090),采用GDDR7显存(30Gbps带宽)与神经网络着色器,支持DLSS 4与8K 165Hz显示。
    • AI芯片:B300芯片(288GB HBM3e显存),TDP提升至1400W,面向超大规模AI训练。
  2. 行业合作与生态

    • 亚马逊、谷歌、微软等云服务商首批采用Blackwell平台。
    • 与CUDA生态深度绑定,巩固英伟达在AI芯片市场90%的份额,同时面临“UXL基金会”等开源联盟的挑战。

五、历史意义与行业影响

  1. 技术里程碑
    Blackwell标志着GPU从“图形处理器”向“通用AI加速器”的彻底转型,其多精度计算、海量互联与能效优化重新定义了高性能计算的标准。

  2. 市场格局重塑

    • 推动AI模型规模从万亿向十万亿参数迈进,加速生成式AI(如3D视频生成)的平民化。
    • 巩固英伟达在AI芯片市场的垄断地位,但也引发对技术依赖与生态封闭性的争议。
  3. 未来方向

    • Chiplet与光互联:Blackwell的模块化设计为后续多芯片集成铺路,硅光技术或成下一代互联核心。
    • 量子计算协同:通过cuQuantum项目探索GPU加速量子模拟,拓展异构计算边界。

Blackwell架构是英伟达继Hopper后的又一里程碑,其技术突破与市场策略体现了“AI驱动计算”的行业趋势。从研发投入、性能指标到生态布局,Blackwell不仅延续了英伟达的技术霸权,更将AI算力推向了新的高度,成为2020年代中后期全球AI基础设施的核心支柱。


补充内容:历史架构与冷门厂商

1. 经典老架构(已退出市场)
  • 3dfx Voodoo(1990年代)

    • Voodoo Graphics(1996):首款3D加速卡,支持Glide API。
    • Voodoo2(1998):SLI多卡互联技术先驱。
  • NVIDIA NV1(1995)

    • 集成2D+3D+声卡功能,但采用四边形渲染(非主流三角形),最终失败。
  • ATI Rage/R300(1990s-2000s)

    • Rage 128(1998):对抗Voodoo的早期尝试。
    • Radeon 9700(R300)(2002):首款支持DirectX 9的显卡,击败同期NVIDIA FX 5800。
  • S3 Graphics

    • S3 Virge(1995):首款“2D+3D加速”消费级显卡,但3D性能较弱。
    • S3 Savage(1998):支持纹理压缩,但驱动问题导致市场失利。
  • Matrox

    • Parhelia(2002):首款支持三屏输出的显卡,主打专业多屏市场。

2. 技术细节补充
  • 统一着色器架构(Unified Shaders)

    • 起源:2006年NVIDIA Tesla架构首次实现,取代了传统的固定管线(VS/PS分离)。
    • 意义:允许GPU动态分配计算资源,提升通用计算能力。
  • 显存技术演进

    • GDDR3→GDDR5→GDDR6→GDDR6X:带宽与频率逐代提升。
    • HBM(High Bandwidth Memory):AMD Fury系列(2015)首次采用,通过3D堆叠实现高带宽。
    • HBM3:Hopper架构的H100使用,带宽达3TB/s。
  • 制造工艺节点

    • NVIDIA Fermi(40nm)→Pascal(16nm)→Ampere(8nm)→Ada Lovelace(4nm)。
    • AMD RDNA 3(5nm+6nm Chiplet) vs Intel Xe HPG(TSMC 6nm)。

3. 架构对比关键指标
架构核心创新制程工艺代表技术
NVIDIA Turing光线追踪硬件单元(RT Core)12nmDLSS 1.0、RTX Voice
AMD RDNA 2Infinity Cache(高速缓存优化)7nmFSR 1.0、硬件光追加速
Intel Xe HPG独立显卡市场突破6nmXeSS超分、Deep Link协同计算

4. 未来趋势

  1. Chiplet设计

    • AMD RDNA 3和CDNA 2采用多芯片模块化设计,提升良率与扩展性。
    • NVIDIA未来可能跟进(如Hopper的MCM布局)。
  2. AI与GPU深度融合

    • DLSS/FSR/XeSS:超分辨率技术依赖AI计算。
    • AI降噪:光线追踪中加速渲染(如OptiX AI)。
  3. 量子计算与GPU混合

    • NVIDIA cuQuantum项目探索GPU加速量子模拟。
  4. 存算一体架构

    • 三星、SK海力士研发HBM-PIM(内存内计算),减少数据搬运延迟。

5. 小众/新兴玩家

  • 国产GPU

    • 摩尔线程MTT S80:基于PowerVR架构,支持PCIe 5.0。
    • 壁仞科技BR100:7nm工艺,对标数据中心GPU。
  • 开源架构

    • RISC-V GPU:如Imagination推出的RISC-V兼容GPU IP。
    • Mesa 3D:开源驱动推动老旧显卡兼容新API(如Vulkan)。

6. 冷知识

  • NVIDIA的代号来源:历代架构以科学家命名(如Turing→艾伦·图灵,Ampere→安培)。
  • AMD的“RDNA”含义:源自“Radeon DNA”,强调架构基因革新。
  • Intel Xe的野心:Xe涵盖集成显卡、游戏卡、数据中心,试图统一GPU生态。

以下是基于显卡架构演进历程,对显卡通信技术与**AI专用硬件(“AI颗粒”)**两大方面的综合分析:


一、显卡通信技术的演进

1. 高带宽显存与互联技术
  • GDDR到HBM的跨越
    早期显卡依赖GDDR显存(如GDDR3到GDDR6X),带宽逐步提升至1TB/s以上(如RTX 4090)。2015年AMD首次引入HBM(High Bandwidth Memory),通过3D堆叠实现更高带宽;英伟达在Blackwell架构中采用HBM3e,显存带宽达8TB/s,为大规模AI模型训练提供数据吞吐保障。
  • NVLink与PCIe的协同
    NVIDIA在Pascal架构(2016)推出NVLink,单卡互联带宽达160GB/s,解决多GPU协作瓶颈。Volta架构(2017)扩展至6通道NVLink,双向带宽提升至300GB/s。PCIe 6.0的引入(带宽128GB/s)进一步优化CPU-GPU通信,降低延迟。
2. 多卡协同与分布式计算
  • 数据中心级互联方案
    Blackwell架构的GB200机架方案采用CPO(共封装光学)技术,通过光引擎与芯片集成,缩短传输距离,降低功耗。H200 GPU支持多卡协同训练,效率较H100提升4倍,显存容量扩展至192GB HBM3e,适用于千亿参数大模型。
  • 消费级多卡潜力
    用户通过魔改多张RTX 4090实现本地大模型推理(如70B参数Llama-2),借助PCIe 5.0与NVLink的混合方案,平衡成本与性能。
3. 未来趋势:光互联与Chiplet设计
  • 硅光技术与Chiplet
    AMD的RDNA 3和CDNA 2采用Chiplet设计,分离计算单元与I/O模块,提升良率与扩展性。英伟达探索硅光技术,通过光互联优化数据中心内GPU集群通信效率。
  • 存算一体架构
    三星HBM-PIM(内存内计算)技术将部分计算逻辑嵌入显存,减少数据搬运延迟,适用于实时AI推理场景。

二、AI专用硬件(“AI颗粒”)的演进

1. 从通用计算到专用加速单元
  • Tensor Core的诞生与进化
    Volta架构(2017)首次引入Tensor Core,专为张量计算优化,支持FP16混合精度。Turing架构(2018)扩展至INT8/INT4量化计算,Ampere架构(2020)新增TF32与BF16支持,Blackwell架构(2024)引入FP4/FP6精度,降低大模型存储与计算开销。
  • NPU与CUDA核心的协同
    NVIDIA在RTX 500系列笔记本显卡中集成NPU(神经网络处理单元),专用于轻型AI任务(如语音识别),与GPU的Tensor Core分工协作,提升能效比。
2. AI计算与图形渲染的融合
  • DLSS/FSR/XeSS超分技术
    基于AI的超分辨率技术(如DLSS 3)利用Tensor Core实时生成高分辨率帧,减少原生渲染负载。AMD FSR与Intel XeSS通过算法优化,实现类似效果。
  • 光线追踪与AI降噪
    RT Core处理光线追踪路径计算,Tensor Core通过AI算法(如OptiX AI)加速降噪,提升实时渲染效率。例如《赛博朋克2077》的路径追踪模式依赖二者协同。
3. 未来趋势:AI驱动的硬件定制化
  • 量化与低精度计算
    Blackwell架构支持FP4/FP6精度,结合模型压缩技术,使70B参数模型可在单卡运行,推理速度提升2倍。
  • AI辅助芯片设计
    英伟达CuLitho技术利用GPU加速光刻模拟,将芯片设计周期从2周缩短至8小时,推动更高效的AI芯片迭代。
  • 开源生态与国产GPU
    摩尔线程MTT S80基于PowerVR架构支持PCIe 5.0,壁仞科技BR100对标数据中心GPU,国产GPU逐步融入AI计算生态。

以下是关于显卡通信技术提升与AI专用硬件(“AI颗粒”)发展的综合分析,结合了当前技术趋势和厂商动态:


一、显卡通信技术的革新

  1. 高带宽显存与互联技术

    • HBM3e与GDDR6X:英伟达Blackwell架构的HBM3e显存带宽翻倍,达3TB/s,显著提升AI大模型的数据吞吐效率。AMD的RDNA 3也采用HBM3,而消费级显卡如RTX 4090使用GDDR6X,带宽突破1TB/s。
    • NVLink与PCIe 6.0:NVLink在Blackwell中带宽翻倍,支持多GPU高速互联;PCIe 6.0的引入进一步降低CPU与GPU间的通信延迟,适用于数据中心和高端计算场景。
  2. 光模块与芯片互联优化

    • CPO(共封装光学)技术:通过将光引擎与芯片集成,缩短传输距离,降低功耗(如英伟达GB200机架方案)。
    • 硅光技术:提升数据中心内GPU集群的通信效率,支持大规模AI训练。
  3. 多卡协同与分布式计算

    • 英伟达的GB200方案通过优化CPU:GPU配比,降低总拥有成本(TCO),同时支持多卡协同训练,效率达H100的4倍。
    • 消费级用户可通过魔改多张RTX 4090实现本地大模型推理(如70B参数模型)。

二、AI专用硬件(“AI颗粒”)的演进

  1. Tensor Core与NPU的融合

    • 英伟达Tensor Core:第四代Tensor Core(Ada Lovelace架构)支持FP8精度,AI计算效率提升3倍,适用于DLSS 3和生成式AI任务。
    • NPU(神经网络处理单元):英伟达RTX 500/1000系列笔记本显卡集成NPU,专用于轻型AI任务(如语音识别),与GPU协同降低功耗。
  2. CUDA核心的双模式设计

    • 英伟达RTX 50系列(Blackwell架构)的CUDA核心支持FP32/INT32双数据模式,复兴Pascal时代的灵活设计,提升AI推理和游戏渲染的并行效率。
  3. 英特尔与AMD的AI加速方案

    • 英特尔XMX引擎:Xe2架构集成增强版XMX单元,支持VVC编解码和AI图像生成(如AI Playground应用)。
    • AMD CDNA架构:专为计算优化,Infinity Fabric技术提升多GPU协作能力,适用于数据中心AI训练。

三、技术融合与未来趋势

  1. AI与图形计算的深度结合

    • 实时AI渲染:通过Tensor Core加速光线追踪降噪(如OptiX AI),或动态生成游戏场景(如《方舟:生存飞升》中的G-Assist AI助手)。
    • 创作工具革新:AI Playground、DALL-E等工具依赖显卡的并行计算能力,实现本地化图像生成与编辑。
  2. Chiplet与存算一体架构

    • AMD RDNA 3和CDNA 2采用Chiplet设计,提升良率与扩展性;三星HBM-PIM技术探索内存内计算,减少数据搬运延迟。
    • 未来显卡可能集成量子计算模块(如NVIDIA cuQuantum),加速复杂模拟任务。
  3. 能效与生态整合

    • 英伟达DLSS/AMD FSR/Intel XeSS等超分技术依赖AI优化,在提升画质的同时降低GPU负载。
    • 开源社区推动RISC-V GPU与Mesa 3D驱动发展,降低AI开发门槛。

以下是基于NVIDIA、AMD和Intel等厂商的显卡架构演进历程,对其技术改进方向及驱动原因的分析:


一、NVIDIA架构演进的技术方向

1. 早期架构(Tesla → Fermi → Kepler)
  • 统一计算与并行化(Tesla架构)

    • 技术改进:首次引入统一着色器模型(Unified Shaders),支持CUDA编程,将顶点、几何和像素处理统一为通用计算单元。
    • 原因:满足通用计算需求(如科学模拟),突破传统固定管线限制,为GPU计算奠定基础。
  • 双精度计算与缓存优化(Fermi架构)

    • 技术改进:增加双精度浮点单元(FP64)、ECC内存支持和L2缓存层级设计。
    • 原因:进军高性能计算(HPC)市场,提升数据中心应用的可靠性和计算精度。
  • 能效与SM单元重构(Kepler架构)

    • 技术改进:引入SMX单元,CUDA核心数激增(每组SMX含192核心),优化功耗比。
    • 原因:应对移动设备和云计算对能效的敏感需求,降低单位计算成本。
2. 现代架构(Maxwell → Pascal → Volta → Turing → Ampere → Blackwell)
  • 能效与架构精简(Maxwell架构)

    • 技术改进:SMM单元采用模块化设计,CUDA核心精简但逻辑控制增强,显存压缩技术提升带宽利用率。
    • 原因:优化游戏显卡的功耗表现,适应轻薄笔记本和嵌入式设备需求。
  • 深度学习与互联技术(Pascal架构)

    • 技术改进:16nm工艺、NVLink多GPU互联、支持FP16半精度计算。
    • 原因:AI浪潮兴起,需加速深度学习训练(如AlphaGo),提升多卡协同效率。
  • 专用AI单元(Volta架构)

    • 技术改进:首次集成Tensor Core,支持混合精度(FP16/FP32)计算,提升AI推理速度。
    • 原因:应对AI模型复杂化(如Transformer),降低训练成本。
  • 实时光追与AI超分(Turing架构)

    • 技术改进:引入RT Core(光线追踪硬件单元)和DLSS(AI超分辨率)。
    • 原因:推动游戏画质革命,解决光追性能瓶颈,通过AI降低渲染负载。
  • 多领域融合(Ampere架构)

    • 技术改进:第三代Tensor Core支持稀疏计算,显存带宽提升(HBM2e/GDDR6X),支持PCIe 4.0。
    • 原因:兼顾游戏、数据中心和AI推理,满足多任务场景需求。
  • 神经网络渲染与显存革新(Blackwell架构)

    • 技术改进:第五代Tensor Core支持FP4低精度计算,GDDR7显存(PAM3编码),引入神经网络着色器和AI管理处理器(AMP)。
    • 原因:应对万亿参数大模型训练需求,降低显存占用,提升AI推理效率;通过神经网络渲染优化游戏材质生成效率。

二、AMD架构演进的技术方向

1. GCN架构(2012-2018)
  • 统一计算与显存优化
    • 技术改进:统一计算单元(CU)、HBM显存首次应用(Fury系列)。
    • 原因:对标NVIDIA的通用计算能力,提升带宽密集型任务(如4K游戏)表现。
2. RDNA架构(2019至今)
  • 能效与游戏优化(RDNA 1/2/3)
    • 技术改进:Infinity Cache(高速缓存)、硬件光追加速、Chiplet设计(RDNA 3)。
    • 原因:缩小与NVIDIA的游戏性能差距,通过模块化设计提升良率和扩展性。
3. CDNA架构(2020至今)
  • 计算专用优化
    • 技术改进:Infinity Fabric互联、双精度计算强化,支持ROCm生态。
    • 原因:争夺数据中心和AI市场,针对HPC和机器学习任务优化。

三、Intel Xe架构的技术方向

  • 多场景覆盖(Xe LP/HPG/HPC)
    • 技术改进:Xe HPG支持硬件光追和XeSS超分,Xe HPC采用Chiplet和HBM显存。
    • 原因:进军独立显卡市场,覆盖从集成显卡到数据中心的多元化需求,挑战NVIDIA和AMD的垄断。

四、技术改进的共性驱动因素

  1. 市场需求变化

    • 游戏画质升级(光追、高帧率)推动硬件加速单元(RT Core);
    • AI计算需求(如ChatGPT)催生专用AI核心(Tensor Core)。
  2. 制程工艺进步

    • 从28nm(Kepler)到4nm(Blackwell),晶体管密度提升支持更复杂架构。
  3. 能效与环保压力

    • GDDR7显存功耗降低50%,Chiplet设计减少芯片废品率。
  4. 竞争与生态建设

    • NVIDIA通过CUDA生态绑定开发者,AMD以开源ROCm和性价比策略应对。

显卡架构的演进始终围绕性能提升能效优化场景适配三大核心方向。从早期的通用计算到如今的AI与光追融合,每一次技术革新都反映了市场需求(如游戏、AI、HPC)、工艺突破(如先进制程、HBM)和竞争格局的演变。未来,随着Chiplet、存算一体和量子计算协同技术的发展,显卡将进一步打破传统边界,成为异构计算的基石。

总结

显卡架构随技术进步不断演进,NVIDIA在光追和AI领先,AMD注重能效与性价比,Intel通过Xe进军独立显卡市场,移动端则由ARM、高通等主导。

除了之前提到的核心架构,还有一些补充内容,包括历史架构、技术细节和新兴趋势:

显卡架构不仅是硬件设计的进化史,更是计算需求的缩影——从早期3D加速到光追与AI,从固定管线到通用计算。未来,随着Chiplet、存算一体等技术的成熟,GPU可能进一步模糊与CPU、专用加速器的边界,成为异构计算的“万能胶水”。


架构演进的核心驱动力**

  1. 通信技术:从GDDR到HBM3e,从PCIe到NVLink/光互联,显存带宽与多卡协作效率的持续提升,支撑了AI大模型的训练与推理需求。
  2. AI硬件:从通用CUDA核心到专用Tensor Core/NPU,计算精度与能效的优化,使GPU从图形处理器进化为通用AI加速器。

未来,随着Chiplet、存算一体等技术的成熟,显卡将进一步模糊与专用AI芯片的边界,成为异构计算的“万能胶水”,推动游戏、创作与科学计算的全面革新。

显卡通信技术的提升(如HBM3e、NVLink)与AI专用硬件(Tensor Core、NPU)的演进,共同推动了AI计算的高效化与平民化。未来,随着Chiplet、存算一体等技术的成熟,显卡将进一步成为异构计算的核心,同时支持游戏、创作与科学计算等多重场景。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/898168.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

实验- 分片上传 VS 直接上传

分片上传和直接上传是两种常见的文件上传方式。分片上传将文件分成多个小块,每次上传一个小块,可以并行处理多个分片,适用于大文件上传,减少了单个请求的大小,能有效避免因网络波动或上传中断导致的失败,并…

Android视频渲染SurfaceView强制全屏与原始比例切换

1.创建UI添加强制全屏与播放按钮 2.SurfaceView控件设置全屏显示 3.全屏点击事件处理实现 4.播放点击事件处理 5.使用接口更新强制全屏与原始比例文字 强制全屏/原始比例 点击实现

数据结构——串、数组和广义表

串、数组和广义表 1. 串 1.1 串的定义 串(string)是由零个或多个字符组成的有限序列。一般记为 S a 1 a 2 . . . a n ( n ≥ 0 ) Sa_1a_2...a_n(n\geq0) Sa1​a2​...an​(n≥0) 其中,S是串名,单引号括起来的字符序列是串的值, a i a_i a…

无再暴露源站!群联AI云防护IP隐匿方案+防绕过实战

一、IP隐藏的核心原理 群联AI云防护通过三层架构实现源站IP深度隐藏: 流量入口层:用户访问域名解析至高防CNAME节点(如ai-protect.example.com)智能调度层:基于AI模型动态分配清洗节点,实时更新节点IP池回…

1.5.3 掌握Scala内建控制结构 - for循环

Scala的for循环功能强大&#xff0c;支持单重和嵌套循环。单重for循环语法为for (变量 <- 集合或数组 (条件)) {语句组}&#xff0c;可选筛选条件&#xff0c;循环变量依次取集合值。支持多种任务&#xff0c;如输出指定范围整数&#xff08;使用Range、to、until&#xff0…

windows版本的时序数据库TDengine安装以及可视化工具

了解时序数据库TDengine&#xff0c;可以点击官方文档进行详细查阅 安装步骤 首先找到自己需要下载的版本&#xff0c;这边我暂时只写windows版本的安装 首先我们需要点开官网&#xff0c;找到发布历史&#xff0c;目前TDengine的windows版本只更新到3.0.7.1&#xff0c;我们…

Web测试

7、Web安全测试概述 黑客技术的发展历程 黑客基本涵义是指一个拥有熟练电脑技术的人&#xff0c;但大部分的媒体习惯将“黑客”指作电脑侵入者。 黑客技术的发展 在早期&#xff0c;黑客攻击的目标以系统软件居多。早期互联网Web并非主流应用&#xff0c;而且防火墙技术还没有…

游戏引擎学习第163天

我们可以在资源处理器中使用库 因为我们的资源处理器并不是游戏的一部分&#xff0c;所以它可以使用库。我说过我不介意让它使用库&#xff0c;而我提到这个的原因是&#xff0c;今天我们确实有一个选择——可以使用库。 生成字体位图的两种方式&#xff1a;求助于 Windows 或…

7、什么是死锁,如何避免死锁?【高频】

&#xff08;1&#xff09;什么是死锁&#xff1a; 死锁 是指在两个或多个进程的执行时&#xff0c;每个进程都持有资源 并 等待其他进程 释放 它所需的资源&#xff0c;如果此时所有的进程一直占有资源而不释放&#xff0c;就会陷入互相等待的一种僵局状态。 死锁只有同时满足…

Compose 实践与探索十四 —— 自定义布局

自定义布局在 Compose 中相对于原生的需求已经小了很多&#xff0c;先讲二者在本质上的逻辑&#xff0c;再说它们的使用场景&#xff0c;两相对比就知道为什么 Compose 中的自定义布局的需求较小了。 原生是在 xml 布局文件不太方便或者无法满足需求时才会在代码中通过自定义 …

整形在内存中的存储(例题逐个解析)

目录 一.相关知识点 1.截断&#xff1a; 2.整形提升&#xff1a; 3.如何 截断&#xff0c;整型提升&#xff1f; &#xff08;1&#xff09;负数 &#xff08;2&#xff09;正数 &#xff08;3&#xff09;无符号整型&#xff0c;高位补0 注意&#xff1a;提升后得到的…

HTML中滚动加载的实现

设置div的overflow属性&#xff0c;可以使得该div具有滚动效果&#xff0c;下面以div中包含的是table来举例。 当table的元素较多&#xff0c;以至于超出div的显示范围的话&#xff0c;观察下该div元素的以下3个属性&#xff1a; clientHeight是div的显示高度&#xff0c;scrol…

人工智能助力家庭机器人:从清洁到陪伴的智能转型

引言&#xff1a;家庭机器人进入智能时代 过去&#xff0c;家庭机器人只是简单的“工具”&#xff0c;主要用于扫地、拖地、擦窗等单一任务。然而&#xff0c;随着人工智能&#xff08;AI&#xff09;技术的迅猛发展&#xff0c;家庭机器人正经历从“机械助手”向“智能管家”甚…

Flume详解——介绍、部署与使用

1. Flume 简介 Apache Flume 是一个专门用于高效地 收集、聚合、传输 大量日志数据的 分布式、可靠 的系统。它特别擅长将数据从各种数据源&#xff08;如日志文件、消息队列等&#xff09;传输到 HDFS、HBase、Kafka 等大数据存储系统。 特点&#xff1a; 可扩展&#xff1…

Spring源码解析

第一讲 容器接口 BeanFactory和ApplicationContext接口的具体继承关系&#xff1a; ApplicationContext 间接继承了BeanFactory BeanFactory是父接口ApplicationContext是子接口&#xff0c;里面一些功能调用了BeanFactory BeanFactory的功能 表面上只有 getBean&#xff0…

Django Rest Framework 创建纯净版Django项目部署DRF

描述创建纯净版的Django项目和 Django Rest Framework 环境的部署 一、创建Django项目 1. 环境说明 操作系统 Windows11python版本 3.9.13Django版本 V4.2.202. 操作步骤(在Pycharm中操作) 创建Python项目drfStudy、虚拟环境 ​虚拟环境中安装 jdangopip install django==4.…

图解AUTOSAR_CP_NetworkManagementInterface

AUTOSAR 网络管理接口(Nm)详解 AUTOSAR 网络管理接口规范与实现指南 目录 1. 概述 1.1. 网络管理接口的作用1.2. 网络管理接口的特点 2. 网络管理接口架构 2.1. 架构概览2.2. 模块交互关系 3. 网络管理状态机 3.1. 状态定义3.2. 状态转换 4. 协调算法 4.1. 协调关闭流程4.2. 同…

java学习总结(八):Spring boot

一、SpringBoot简介 传统Spring开发缺点&#xff1a; 1、导入依赖繁琐 2、项目配置繁琐 Spring Boot是全新框架(更像是一个工具&#xff0c; 脚手架)&#xff0c;是Spring提供的一个子项目&#xff0c; 用于快速构建Spring应用程序。 随着Spring 3.0的发布&#xff0c;Spring 团…

openEuler24.03 LTS下安装MySQL8

前提条件 拥有openEuler24.03 LTS环境&#xff0c;可参考&#xff1a;Vmware下安装openEuler24.03 LTS 步骤 卸载原有mysql及mariadb sudo systemctl stop mysql mysqld 2>/dev/null sudo rpm -qa | grep -i mysql\|mariadb | xargs -n1 sudo rpm -e --nodeps 2>/dev/…

【失败了】LazyGraphRAG利用本地ollama提供Embedding model服务和火山引擎的deepseek API构建本地知识库

LazyGraphRAG测试结果如下 数据&#xff1a; curl https://www.gutenberg.org/cache/epub/24022/pg24022.txt -o ./ragtest/input/book.txt 失败了 气死我也&#xff01;&#xff01;&#xff01;对deepseek-V3也不是很友好啊&#xff0c;我没钱prompt 微调啊&#xff0c;晕死…