【Python 自动化】自媒体剪辑第一版·思路简述与技术方案

大家都知道我主业是个运维开发(或者算法工程师),每天时间不多,但我又想做自媒体。然后呢,我就想了个方案,每天起来之后写个短视频的脚本,包含一系列图片和文字,然后上班的时候给它提交到流水线上跑,下班之前就能拿到视频,然后往各大平台上一传,是不是挺美滋滋的。

我和我之前的合伙人一说,他就觉得做短视频没啥用,不过还是按我说的做,出了一个脚本,我一看什么玩意儿,根本就没办法跑起来。无奈之下,我重新写了现在我要展示的这个版本。后来这个合伙人就装逼失败跑路了,大快人心。这个版本不长,也就3~400行,我就在想,连一个几百行的程序都写不好,还谈啥副业,真是可笑。

首先程序接受这样一个 YAML 剧本,定义了图片和文字内容。这里我把MR数据杨第一版引擎所使用的素材做成了剧本:

name: 人气直播主饶方晴气质笑颜无害又迷人
format: mp4
imgSize: [1280, 768]
contents:- type: image:filevalue: asset/1.jpg- type: audio:ttsvalue: 人气直播主饶方晴,气质笑颜无害又迷人。- type: image:filevalue: asset/2.jpg- type: audio:ttsvalue: 这笑容是要融化多少单身汉!小编今天要为大家送上这位白嫩系的正妹「亮亮Sunny」。- type: image:filevalue: asset/3.jpg- type: audio:ttsvalue: 浑身白皙的肌肤吹弹可破一般稚嫩,留着柔顺长发的她衬着那张清新又甜美的脸蛋。- type: image:filevalue: asset/4.jpg- type: audio:ttsvalue: 水汪大眼搭上迷人的微笑,让人对到一眼就深深着迷。- type: image:filevalue: asset/5.jpg- type: audio:ttsvalue: 往下一望还有一双壮美的峰景,深厚的事业线简直不留余地给司机们啊!- type: image:filevalue: asset/6.jpg- type: audio:ttsvalue: 亮亮本名又叫作「饶方晴」,身为美女主播的她凭着那亮丽的外表和姣好的体态。- type: image:filevalue: asset/7.jpg- type: audio:ttsvalue: 总能无时无刻圈下不少忠实粉丝,开朗又活泼的个性更是深受大家喜爱。- type: image:filevalue: asset/8.jpg- type: audio:ttsvalue: 大方的她平日也总在IG上放晒迷人又性感的自拍照。- type: image:filevalue: asset/9.jpg- type: audio:ttsvalue: 不只是濠乳沟乍现,连笔直又纤长的美腿也让腿控们大饱眼福呢!

很简单是吧,就是一个图片一个文本这样。真的不用太多,精雕细琢没意义,樊登说了,自媒体平台靠走量刷流量池取胜。我在此奉劝大家彻底抛弃完美主义。

子命令回调

因为我这个功能是一个工具集的子命令,回调就是子命令的入口。我们看看回调咋写的:

def autovideo(args):cfg_fname = args.configif not cfg_fname.endswith('.yml'):print('请提供 YAML 文件')returncfg_dir = path.dirname(cfg_fname)user_cfg = yaml.safe_load(open(cfg_fname, encoding='utf8').read())update_config(user_cfg, cfg_dir)# 素材预处理preproc_asset(config)# 转换成帧的形式frames = contents2frame(config['contents'])# 组装视频video = make_video(frames)if config['format'] != 'mp4':video = ffmpeg_conv_fmt(video, 'mp4',  config['format'])# 写文件video_fname = fname_escape(config['name']) + '.' + config['format']print(video_fname)open(video_fname, 'wb').write(video)

一共这么五步:(1)读取配置(2)预处理(3)模块划分(4)组装(5)写文件,大功告成。

读取配置

(1)将用户传入的配置覆盖程序默认配置,(2)将所有素材对于剧本的相对路径转换成对于 CWD 的相对路径,(3)加载外部模块,覆盖 TTI 和 TTS 函数。

def update_config(user_cfg, cfg_dir):global ttsglobal tticonfig.update(user_cfg)if not config['contents']:raise AttributeError('内容为空,无法生成')for cont in config['contents']:if cont['type'].endswith(':file'):cont['value'] = path.join(cfg_dir, cont['value'])if config['header']:config['header'] = path.join(cfg_dir, config['header'])if config['footer']:config['footer'] = path.join(cfg_dir, config['footer'])if config['external']:mod_fname = path.join(cfg_dir, config['external'])exmod = load_module(mod_fname)if hasattr(exmod, 'tts'): tts = exmod.ttsif hasattr(exmod, 'tti'): tti = exmod.tti

预处理

(1)遍历每个内容,分别处理不同类型:

  • :file是文件,直接读取
  • image:dir需要从资源目录随机挑选一张指定关键词的图片
  • :url是网络资源,直接下载
  • audio:tts是机器朗读的音频,直接调用 TTS 函数
  • image:color是纯色图片,用 OpenCV 生成
  • image:tti是文成图,直接调用 TTI 函数
  • audio:blank是空白音频,直接用 SciPy 生成

(2)剪裁图片到配置规定的尺寸,(3)如果第一张不是图片,将第一个图片提前(当前这块逻辑也可以改成如果第一张不是图片就插入一个纯黑的图片)。

def preproc_asset(config):# 加载或生成内容for cont in config['contents']:if cont['type'].endswith(':file'):cont['asset'] = open(cont['value'], 'rb').read()elif cont['type'] == 'image:dir':assert config['assetDir']cont['asset'] = get_rand_asset_kw(config['assetDir'], cont['value'], is_pic)elif cont['type'].endswith(':url'):url = cont['value']print(f'下载:{url}')cont['asset'] = request_retry('GET', url).contentelif cont['type'] == 'audio:tts':text = cont['value']print(f'TTS:{text}')cont['asset'] = tts(text)elif cont['type'] == 'image:color':bgr = cont['value']if isinstance(bgr, str):assert re.search(r'^#[0-9a-fA-F]{6}$', bgr)r, g, b = int(bgr[1:3], 16), int(bgr[3:5], 16), int(bgr[5:7], 16)bgr = [b, g, r]cont['asset'] = gen_mono_color(config['size'][0], config['size'][1], bgr)elif cont['type'] == 'image:tti':text = cont['value']print(f'TTI:{text}')cont['asset'] = tti(text)elif cont['type'] == 'audio:blank':cont['asset'] = gen_blank_audio(cont['value'])config['contents'] = [c for c in config['contents']if 'asset' in c]# 剪裁图片w, h = config['size']mode = config['resizeMode']for c in config['contents']:if c['type'].startswith('image:'):c['asset'] = resize_img(c['asset'], w, h, mode)# 如果第一张不是图片,则提升第一个图片idx = -1for i, c in enumerate(config['contents']):if c['type'].startswith('image:'):idx = ibreakif idx == -1:print('内容中无图片,无法生成视频')sys.exit()if idx != 0:c = config['contents'][idx]del config['contents'][idx]config['contents'].insert(0, c)

模块划分

每个模块相对独立,每个模块只能有一个图片,但可以有多个音频。所以将单个图片和其后的连续音频划分到一个模块中。每个模块单独组装,之后再连接起来,这样比较方便处理字幕。

def contents2frame(contents):frames = []for c in contents:if c['type'].startswith('image:'):frames.append({'image': c['asset'],'audios': [],})elif c['type'].startswith('video:'):frames.append({'video_noaud': c['asset'],'audios': [],})elif c['type'].startswith('audio:'):if len(frames) == 0: continueframes[-1]['audios'].append({'audio': c['asset'],'len': audio_len(c['asset']),'subtitle': c['value'] if c['type'] == 'audio:tts' else '',})for f in frames:f['len'] = sum([a['len'] for a in f['audios']])f['video_noaud'] = img_nsec_2video(f['image'], f['len'], config['fps'])f['audio'] = (f['audios'][0]['audio'] if len(f['audios']) == 1 else ffmpeg_cat([a['audio'] for a in f['audios']], 'mp3'))f['video'] = ffmpeg_merge_video_audio(f['video_noaud'], f['audio'], audio_fmt='mp3')f['srt'] = gen_srt(f['audios'])f['video'] = ffmpeg_add_srt(f['video'], f['srt'])return frames

这里的逻辑是,(1)划分模块,将每个图片连同后面的连续音频划分进一个模块。

(2)对于每个模块,根据音频求出整个模块长度,制作无声视频,连接音频,制作字幕,然后把这些都连接起来。

字幕处理

模块划分这一步需要为每个模块生成 SRT 文件。


def srt_time_fmt(num):sec = int(num) % 60min_ = int(num) // 60 % 60hr = int(num) // 3600msec = int(num * 1000) % 1000return f'{hr:02d}:{min_:02d}:{sec:02d},{msec:03d}'# 生成字幕
def gen_srt(audios):# 提取 audios 数组中的字幕subs = [{'text': a['subtitle'],'len': a['len'],}for a in audios]# 将每个字幕按指定长度分割for s in subs:text = s['text']if not text: continueparts = split_text_even(text, config['subtitleMaxLen'])s['parts'] = [{'text': p,'len': len(p) / len(text) * s['len'],}for p in parts]# 将分割后的字幕替换原字幕subs = sum([s.get('parts', s) for s in subs], [])# 计算起始时间offset = 0for s in subs:s['start'] = offsetoffset += s['len']# 组装 SRT 文件srts = []for i, s in enumerate(subs):if not s['text']: continuest, ed = srt_time_fmt(s['start']), srt_time_fmt(s['start'] + s['len'])text = s['text']srts.append(f'{i+1}\n{st} --> {ed}\n{text}\n')srt = '\n'.join(srts)return srt

这里我们把每个音频挑出来,从里面获取字幕和长度。然后对于每个字幕,将其按照指定好的长度分割,按照每个片段的比例计算其长度。最后给每条字幕计算起始时间,并组装 SRT 文件。

为了防止字母分割之后有个小尾巴,我们根据最大长度计算片段数量,然后按照这个数量平均分割。

def split_text_even(text, maxlen):textlen = len(text)num = math.ceil(textlen / maxlen)reallen = textlen // numres = [text[i:i+reallen] for i in range(0, textlen, reallen)]if textlen % num != 0:res[-1] += text[:-textlen%num]return res

组装视频

这就简单了,合并所有模块的视频,并添加片头片尾(如果存在的话)。

def make_video(frames):# 合并视频video = ffmpeg_cat([f['video'] for f in frames])# 合并片头片尾if config['header']:header = open(config['header'], 'rb').read()video = ffmpeg_cat([header, video])if config['footer']:footer = open(config['footer'], 'rb').read()video = ffmpeg_cat([video, footer])return video

工具函数

工具函数基本都用 FFMPEG 或者 OpenCV 实现的。

tts

直接调用 EdgeTTS:

def edgetts_cli(text, voice='zh-CN-XiaoyiNeural', fmt='mp3'):fname = path.join(tempfile.gettempdir(), uuid.uuid4().hex + '.' + fmt)cmd = ['edge-tts', '-t', text, '-v', voice, '--write-media', fname,]print(f'cmd: {cmd}')subp.Popen(cmd, shell=True).communicate()res = open(fname, 'rb').read()safe_remove(fname)return res

然后外面包了一层加了个缓存:

def tts(text):hash_ = hashlib.md5(text.encode('utf8')).hexdigest()cache = load_tts(hash_, 'none')if cache: return cachedata = edgetts_cli(text)save_tts(hash_, 'none', data)return datadef load_tts(hash_, voice):fname = path.join(DATA_DIR, f'{hash_}-{voice}')if path.isfile(fname):return open(fname, 'rb').read()else:return Nonedef save_tts(hash_, voice, data):safe_mkdir(DATA_DIR)fname = path.join(DATA_DIR, f'{hash_}-{voice}')open(fname, 'wb').write(data)

tti

这个函数没有实现,可以在外部脚本里面实现。

get_rand_asset_kw

os.walk遍历指定目录及其子目录中的文件,使用过滤函数和关键词过滤,再随机挑选。

def get_rand_asset_kw(dir, kw, func_filter=is_pic):tree = list(os.walk(dir))fnames = [path.join(d, n) for d, _, fnames in tree for n in fnames]pics = [n for n in fnames if func_filter(n)]cand = [n for n in pics if kw in n]return random.choice(cand) if len(cand) else  random.choice(pics)

gen_mono_color

用 NumPy 生成[H, W, 3]尺寸的 BGR 图片,然后每个第二维都赋值为指定 BGR。最后拿 OpenCV 编码。

def gen_mono_color(w, h, bgr):assert len(bgr) == 3img = np.zeros([h, w, 3])img[:, :] = bgrimg = cv2.imencode('.png', img, [cv2.IMWRITE_PNG_COMPRESSION, 9])[1]return bytes(img)

gen_blank_audio

用 NumPy 生成[SR * L]尺寸的纯零数组,用sp.io写到内存流里面。

def gen_blank_audio(nsec, sr=22050, fmt='wav'):audio = np.zeros(int(nsec * sr), dtype=np.uint8)bio = BytesIO()wavfile.write(bio, sr, audio)audio = bio.getvalue()if fmt != 'wav':audio = ffmpeg_conv_fmt(audio, 'wav', fmt)return audio

ffmpeg_get_info

调用 FFMPEG 获取视频的时长、FPS、SR。

def ffmpeg_get_info(video, fmt='mp4'):if isinstance(video, bytes):fname = path.join(tempfile.gettempdir(), uuid.uuid4().hex + '.' + fmt)open(fname, 'wb').write(video)else:fname = videocmd = ['ffmpeg', '-i', fname]print(f'cmd: {cmd}')r = subp.Popen(cmd, stdout=subp.PIPE, stderr=subp.PIPE, shell=True).communicate()text = r[1].decode('utf8')res = {}m = re.search(r'Duration:\x20(\d+):(\d+):(\d+)(.\d+)', text)if m:hr = int(m.group(1))min_ = int(m.group(2))sec = int(m.group(3))ms = float(m.group(4))res['duration'] = hr * 3600 + min_ * 60 + sec + msm = re.search(r'(\d+)\x20fps', text)if m:res['fps'] = int(m.group(1))m = re.search(r'(\d+)\x20Hz', text)if m:res['sr'] = int(m.group(1))if isinstance(video, bytes):safe_remove(fname)

resize_img

保持长宽比缩放图片。有两种模式:wrap将图片缩放到不大于指定尺寸的最大尺寸,然后填充不足的部分;fill缩放到大于指定尺寸的最小尺寸,然后切掉多余的部分。

# 缩放到最小填充尺寸并剪裁
def resize_img_fill(img, nw, nh):fmt_bytes = isinstance(img, bytes)if fmt_bytes:img = cv2.imdecode(np.frombuffer(img, np.uint8), cv2.IMREAD_COLOR)h, w, *_ = img.shape# 计算宽高的缩放比例,使用较大值等比例缩放x_scale = nw / wy_scale = nh / hscale = max(x_scale, y_scale)rh, rw = int(h * scale), int(w * scale)img = cv2.resize(img, (rw, rh), interpolation=cv2.INTER_CUBIC)# 剪裁成预定大小cut_w = rw - nwcut_h = rh - nhimg = img[cut_h // 2 : cut_h // 2 + nh,cut_w // 2 : cut_w // 2 + nw,]if fmt_bytes:img = bytes(cv2.imencode('.png', img, IMWRITE_PNG_FLAG)[1])return img# 缩放到最大包围并填充
def resize_img_wrap(img, nw, nh):fmt_bytes = isinstance(img, bytes)if fmt_bytes:img = cv2.imdecode(np.frombuffer(img, np.uint8), cv2.IMREAD_COLOR)h, w, *_ = img.shape# 计算宽高的缩放比例,使用较小值等比例缩放x_scale = nw / wy_scale = nh / hscale = min(x_scale, y_scale)rh, rw = int(h * scale), int(w * scale)img = cv2.resize(img, (rw, rh), interpolation=cv2.INTER_CUBIC)# 填充到预定大小pad_w = nw - rwpad_h = nh - rhimg = cv2.copyMakeBorder(img, pad_h // 2, pad_h - pad_h // 2, pad_w // 2, pad_w - pad_w // 2, cv2.BORDER_CONSTANT, None, (0,0,0)) if fmt_bytes:img = bytes(cv2.imencode('.png', img, IMWRITE_PNG_FLAG)[1])return imgdef resize_img(img, nw, nh, mode='wrap'):assert mode in ['wrap', 'fill']func_resize_img = resize_img_wrap if mode == 'wrap' else resize_img_fillreturn func_resize_img(img, nw, nh)

imgs_nsecs_2video

将指定图片做成长度固定的视频。就是使用秒数乘以 FPS,作为帧数,将帧塞进VideoWriter做成视频即可。

def imgs2video(imgs, fps=30):ofname = path.join(tempfile.gettempdir(), uuid.uuid4().hex + '.mp4')fmt = cv2.VideoWriter_fourcc('M', 'P', '4', 'V')w, h = get_img_size(imgs[0])vid = cv2.VideoWriter(ofname, fmt, fps, [w, h])for img in imgs:if isinstance(img, bytes):img = cv2.imdecode(np.frombuffer(img, np.uint8), cv2.IMREAD_COLOR)vid.write(img)vid.release()res = open(ofname, 'rb').read()safe_remove(ofname)return resdef get_img_size(img):if isinstance(img, bytes):img = cv2.imdecode(np.frombuffer(img, np.uint8), cv2.IMREAD_COLOR)assert isinstance(img, np.ndarray) and img.ndim in [2, 3]return img.shape[1], img.shape[0]def img_nsec_2video(img, nsec, fps=30):count = math.ceil(fps * nsec)imgs = [img] * countreturn imgs2video(imgs, fps)

ffmpeg_*

这些都是 FFMPEG 命令行的包装,注意处理好编码和反斜杠什么的就可以。

def ffmpeg_conv_fmt(video, from_, to):prefix = uuid.uuid4().hexfrom_fname = path.join(tempfile.gettempdir(), f'{prefix}.{from_}')to_fname = path.join(tempfile.gettempdir(), f'{prefix}.{to}')open(from_fname, 'wb').write(video)cmd = ['ffmpeg', '-i', from_fname, '-c', 'copy', to_fname, '-y']print(f'cmd: {cmd}')subp.Popen(cmd, shell=True).communicate()res = open(to_fname, 'rb').read()safe_remove(from_fname)safe_remove(to_fname)return resdef ffmpeg_cat(videos, fmt='mp4'):tmpdir = path.join(tempfile.gettempdir(), uuid.uuid4().hex)safe_mkdir(tmpdir)for i, video in enumerate(videos):fname = path.join(tmpdir, f'{i}.{fmt}')open(fname, 'wb').write(video)video_fnames = ['file ' + path.join(tmpdir, f'{i}.{fmt}').replace('\\', '\\\\')for i in range(len(videos))]video_li_fname = path.join(tmpdir, f'list.txt') open(video_li_fname, 'w', encoding='utf8').write('\n'.join(video_fnames))ofname = path.join(tmpdir, f'res.{fmt}')cmd = ['ffmpeg', '-f', 'concat', '-safe', '0','-i', video_li_fname, '-c', 'copy', ofname, '-y',]print(f'cmd: {cmd}')subp.Popen(cmd, shell=True).communicate()res = open(ofname, 'rb').read()safe_rmdir(tmpdir)return resdef ffmpeg_add_srt(video, srt, video_fmt='mp4'):tmpdir = path.join(tempfile.gettempdir(), uuid.uuid4().hex)safe_mkdir(tmpdir)vfname = path.join(tmpdir, f'video.{video_fmt}')open(vfname, 'wb').write(video)sfname = path.join(tmpdir, f'subtitle.srt')open(sfname, 'w', encoding='utf8').write(srt)res_fname = path.join(tmpdir, f'merged.{video_fmt}')cmd = ['ffmpeg', '-i', f'video.{video_fmt}', '-vf', f'subtitles=subtitle.srt', res_fname, '-y']'''cmd = ['ffmpeg', '-i', vfname, '-i', sfname, '-c', 'copy', res_fname, '-y',]if video_fmt == 'mp4': cmd += ['-c:s', 'mov_text']'''print(f'cmd: {cmd}')subp.Popen(cmd, shell=True, cwd=tmpdir).communicate()res = open(res_fname, 'rb').read()safe_rmdir(tmpdir)return resdef ffmpeg_merge_video_audio(video, audio, video_fmt='mp4', audio_fmt='mp4'):tmpdir = path.join(tempfile.gettempdir(), uuid.uuid4().hex)safe_mkdir(tmpdir)vfname = path.join(tmpdir, f'video.{video_fmt}')v0fname = path.join(tmpdir, f'video0.{video_fmt}')open(vfname, 'wb').write(video)afname = path.join(tmpdir, f'audio.{audio_fmt}')a0fname = path.join(tmpdir, f'audio0.{audio_fmt}')open(afname, 'wb').write(audio)res_fname = path.join(tmpdir, f'merged.{video_fmt}')cmds = [['ffmpeg', '-i', vfname, '-vcodec', 'copy', '-an', v0fname, '-y'],['ffmpeg', '-i', afname, '-acodec', 'copy', '-vn', a0fname, '-y'],['ffmpeg', '-i', a0fname, '-i', v0fname, '-c', 'copy', res_fname, '-y'],]for cmd in cmds:print(f'cmd: {cmd}')subp.Popen(cmd, shell=True).communicate()res = open(res_fname, 'rb').read()safe_rmdir(tmpdir)return res

load_module

用一些骚操作加载外部模块。(1)创建加载目录,并添加到sys.path。(2)为模块起个名字,并将文件内容用这个名字保存到加载目录中。(3)导入模块,删除文件。

def load_module(fname):if not path.isfile(fname) or \not fname.endswith('.py'):raise FileNotFoundError('外部模块应是 *.py 文件')tmpdir = path.join(tempfile.gettempdir(), 'load_module')safe_mkdir(tmpdir)if tmpdir not in sys.path:sys.path.insert(0, tmpdir)mod_name = 'x' + uuid.uuid4().hexnfname = path.join(tmpdir, mod_name + '.py')shutil.copy(fname, nfname)mod = __import__(mod_name)safe_remove(nfname)return mod

未来规划

  • 添加视频整合能力
  • 添加 PPT(富文本转图片)整合能力
  • 没了。。。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/62990.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AMEYA360代理 | 佰维eMMC、LPDDR存储芯片赋能电视终端流畅体验

5G、AI、VR、AR等技术的发展,助推智能电视、机顶盒等电视终端成为智能家居领域不可忽视的重要设备。随着4K超高清(UHD)技术、虚拟现实技术(VR)和增强现实技术(AR)的普及,并向8K超高清技术不断渗透,电视终端将可以为消费者提供更清晰的视觉体验…

【简单】228. 汇总区间

原题链接:https://leetcode.cn/problems/summary-ranges/description/ 228. 汇总区间 给定一个 无重复元素 的 有序 整数数组 nums 。 返回 恰好覆盖数组中所有数字 的 最小有序 区间范围列表 。也就是说,nums 的每个元素都恰好被某个区间范围所覆盖&…

vue通过draggable实现拖拽功能

1. 官方文档 2. 安装 yarn add vuedraggable npm i -S vuedraggable <script src"//cdnjs.cloudflare.com/ajax/libs/Vue.Draggable/2.20.0/vuedraggable.umd.min.js"></script> 3. 其他组件&#xff1a; sortablejs.js拖拽 非官网文档 npm install …

PingCode DevOps 团队:企业CICD流水线可能会遇到的问题及解法

CICD 流水线是指一系列自动化的构建、测试和部署步骤&#xff0c;用于将应用程序从开发到生产环境的过程。在 CICD 流水线中&#xff0c;每个步骤都是自动化的&#xff0c;并且在完成后会触发下一个步骤的执行。 CICD 的价值 CICD 流水线可以帮助团队更快地交付产品&#xff…

16 Linux之JavaEE定制篇-搭建JavaEE环境

16 Linux之JavaEE定制篇-搭建JavaEE环境 文章目录 16 Linux之JavaEE定制篇-搭建JavaEE环境16.1 概述16.2 安装JDK16.3 安装tomcat16.4 安装idea2020*16.5 安装mysql5.7 学习视频来自于B站【小白入门 通俗易懂】2021韩顺平 一周学会Linux。可能会用到的资料有如下所示&#xff0…

Windows右键添加用 VSCODE 打开

1.安装VSCODE时 安装时会有个选项来添加&#xff0c;如下&#xff1a; ①将“通过code 打开“操作添加到windows资源管理器文件上下文菜单 ②将“通过code 打开”操作添加到windows资源管理器目录上下文菜单 说明&#xff1a;①②勾选上&#xff0c;可以对文件&#xff0c;目…

XSS 攻击是什么?怎么验证是否有XSS攻击漏洞?

XSS&#xff08;跨站脚本&#xff0c;Cross-Site Scripting&#xff09;攻击是一种网络攻击&#xff0c;攻击者利用网站漏洞将恶意脚本注入用户的浏览器&#xff0c;从而在用户浏览网页时执行恶意代码。这种攻击可能造成用户敏感信息泄露、钓鱼、欺诈等安全问题。 验证是否有 …

C#,《小白学程序》第八课:列表(List)应用之二“编制高铁列车时刻表”

1 文本格式 /// <summary> /// 车站信息类 class /// </summary> public class Station { /// <summary> /// 编号 /// </summary> public int Id { get; set; } 0; /// <summary> /// 车站名 /// </summary&g…

算法训练第五十二天

718. 最长重复子数组 - 力扣&#xff08;LeetCode&#xff09; class Solution { public:int findLength(vector<int>& nums1, vector<int>& nums2) {vector<vector<int>> dp(nums1.size() 1,vector<int>(nums2.size() 1,0));int res…

Windows docker desktop 基于HyperV的镜像文件迁移到D盘

Docker desktop的HyperV镜像文件&#xff0c;默认是在C盘下 C:\ProgramData\DockerDesktop\vm-data\DockerDesktop.vhdx如果部署的软件较多&#xff0c;文件较大&#xff0c;或者产生日志&#xff0c;甚至数据等&#xff0c;这将会使此文件越来越大&#xff0c;容易导致C盘空间…

java 浅谈ThreadLocal底层源码(通俗易懂)

目录 一、ThreadLocal类基本介绍 1.概述 : 2.作用及特定 : 二、ThreadLocal类源码解读 1.代码准备 : 1.1 图示 1.2 数据对象 1.3 测试类 1.4 运行测试 2.源码分析 : 2.1 set方法解读 2.2 get方法解读 一、ThreadLocal类基本介绍 1.概述 : (1) ThreadLocal&#xff0c;本…

[机缘参悟-103] :IT人关于接纳的思考与感悟

目录 前言&#xff1a; 一、接纳 1.1 什么是接纳 1.2 对接纳的误解 1.3 接纳的含义 1.4 "存在即合理" VS 接纳 1.5 接纳 VS 躺平 VS 随遇而安 1.6 为什么现实总是那么不尽人意 1.7 现实世界的多样性 1.8 接纳与认命 1.9 不接纳的表现 前言&#xff1a; …

python3.11教程1:python基础语法、程序控制、函数

文章目录 一、Python简介1.1 为什么学习python1.2 python安装与配置1.3 python解释器1.4 命令行参数1.4.1 sys.argv变量1.4.2 -c和-m选项 1.5 解释器的运行环境1.5.1 编码格式1.5.2 编码声明 二、Python基础语法2.1 行结构2.2 变量&#xff08;标识符&#xff09;2.3 字节串2.4…

神经网络NLP基础 循环神经网络 LSTM

用的时候&#xff0c;只关心token的输入&#xff0c;以及hidden state就好了 sequence的length是多少&#xff0c;lstm的cell的数量就是多少 LSTM BI-LSTM stacked lstm GRU 实现

【计算机网络】TCP 的三次握手和四次挥手

TCP 是面向连接的&#xff0c;面向连接就是数据通讯的时候需要进行三次握手&#xff0c;断开通讯的时候需要进行四次挥手。 1.seq(sequence number)&#xff0c;序列号&#xff0c;随机生成的 2.ack(acknowledgement number)&#xff0c;确认号&#xff0c;ackseq1 3.ACK(ackno…

Linux安装JenkinsCLI

项目简介安装目录 mkdir -p /opt/jenkinscli && cd /opt/jenkinscli JenkinsCLI下载 wget http://<your-jenkins-server>/jnlpJars/jenkins-cli.jar # <your-jenkins-server> 替换为你的 Jenkins 服务器地址 JenkinsCLI授权 Dashboard-->Configure Glob…

希尔贝壳入选“北京市人工智能大模型高质量数据集发布(第二批)”合作企业

8月28日&#xff0c;2023中国国际服务贸易交易会通用人工智能算力论坛在石景山区举办。论坛上&#xff0c;北京市人工智能大模型高质量数据集&#xff08;第二批&#xff09;发布&#xff0c;其中包含北京希尔贝壳科技有限公司的“大模型方言口语语音数据集”和“智能会议场景高…

评估安全 Wi-Fi 接入:Cisco ISE、Aruba、Portnox 和 Foxpass

在当今不断变化的数字环境中&#xff0c;对 Wi-Fi 网络进行强大访问控制的需求从未像现在这样重要。各组织一直在寻找能够为其用户提供无缝而安全的体验的解决方案。 在本博客中&#xff0c;我们将深入探讨保护 Wi-Fi&#xff08;和有线&#xff09;网络的四种领先解决方案——…

数据库(一)

数据库 1.为什么要使用数据库 如果要存储数据&#xff0c;我们是可以使用文件来存储数据的&#xff0c;但是使用文件管理数据有很多缺点&#xff0c;比如&#xff1a; 不安全&#xff0c;不利于管理&#xff0c;查询&#xff0c;如果要存储大量的数据&#xff0c;使用文件管理…

Show that f(z)=1/z is analytic or not

See https://brainly.in/question/21838444