AI艺术革命:使用神经网络生成创新艺术作品

如何使用神经网络生成艺术作品

1. 简介

神经网络,特别是卷积神经网络(CNN)和生成对抗网络(GAN),在生成艺术作品方面表现出色。本教程将介绍如何使用这些神经网络生成艺术作品。

2. 基础概念

2.1 卷积神经网络(CNN)

CNN主要用于图像分类和识别任务,通过卷积层提取图像特征。利用这些特征,我们可以进行风格迁移,将一种图像的风格应用到另一种图像上。

2.2 生成对抗网络(GAN)

GAN由生成器和判别器两个部分组成。生成器负责生成新的图像,而判别器则评估这些图像的真实性。GAN通过两者之间的竞争与协作来提高生成图像的质量。

3. 准备环境

3.1 安装必要的库

使用Python和深度学习框架(如TensorFlow或PyTorch)进行实现。首先,确保安装了必要的库:

pip install numpy matplotlib tensorflow keras

4. 使用卷积神经网络进行风格迁移

4.1 导入库
import numpy as np
import tensorflow as tf
from tensorflow.keras.preprocessing import image as kp_image
from tensorflow.keras.applications import vgg19
import matplotlib.pyplot as plt
import cv2
4.2 加载和处理图像

定义图像加载和处理函数:

def load_and_process_img(path_to_img):img = kp_image.load_img(path_to_img, target_size=(224, 224))img = kp_image.img_to_array(img)img = np.expand_dims(img, axis=0)img = vgg19.preprocess_input(img)return imgdef deprocess_img(processed_img):x = processed_img.copy()if len(x.shape) == 4:x = np.squeeze(x, 0)x[:, :, 0] += 103.939x[:, :, 1] += 116.779x[:, :, 2] += 123.68x = x[:, :, ::-1]x = np.clip(x, 0, 255).astype('uint8')return x
4.3 定义损失函数

定义内容损失和风格损失:

def get_content_loss(base_content, target):return tf.reduce_mean(tf.square(base_content - target))def gram_matrix(input_tensor):channels = int(input_tensor.shape[-1])a = tf.reshape(input_tensor, [-1, channels])n = tf.shape(a)[0]gram = tf.matmul(a, a, transpose_a=True)return gram / tf.cast(n, tf.float32)def get_style_loss(base_style, gram_target):height, width, channels = base_style.get_shape().as_list()gram_style = gram_matrix(base_style)return tf.reduce_mean(tf.square(gram_style - gram_target))
4.4 加载预训练模型

使用预训练的VGG19模型:

def get_model():vgg = vgg19.VGG19(include_top=False, weights='imagenet')vgg.trainable = Falsecontent_layers = ['block5_conv2']style_layers = ['block1_conv1','block2_conv1','block3_conv1','block4_conv1','block5_conv1']output_layers = style_layers + content_layersoutputs = [vgg.get_layer(name).output for name in output_layers]model = tf.keras.Model([vgg.input], outputs)return model
4.5 定义训练过程
def compute_loss(model, loss_weights, init_image, gram_style_features, content_features):model_outputs = model(init_image)style_output_features = model_outputs[:num_style_layers]content_output_features = model_outputs[num_style_layers:]style_score = 0content_score = 0weight_per_style_layer = 1.0 / float(num_style_layers)for target_style, comb_style in zip(gram_style_features, style_output_features):style_score += weight_per_style_layer * get_style_loss(comb_style[0], target_style)weight_per_content_layer = 1.0 / float(num_content_layers)for target_content, comb_content in zip(content_features, content_output_features):content_score += weight_per_content_layer * get_content_loss(comb_content[0], target_content)style_score *= loss_weights[0]content_score *= loss_weights[1]loss = style_score + content_scorereturn loss, style_score, content_score@tf.function()
def compute_grads(cfg):with tf.GradientTape() as tape:all_loss = compute_loss(**cfg)total_loss = all_loss[0]return tape.gradient(total_loss, cfg['init_image']), all_loss
4.6 运行风格迁移
def run_style_transfer(content_path, style_path, num_iterations=1000, content_weight=1e3, style_weight=1e-2):  model = get_model()for layer in model.layers:layer.trainable = Falsecontent_image = load_and_process_img(content_path)style_image = load_and_process_img(style_path)init_image = tf.Variable(content_image, dtype=tf.float32)opt = tf.optimizers.Adam(learning_rate=5, beta_1=0.99, epsilon=1e-1)style_features = model(style_image)[:num_style_layers]content_features = model(content_image)[num_style_layers:]gram_style_features = [gram_matrix(style_feature) for style_feature in style_features]loss_weights = (style_weight, content_weight)cfg = {'model': model,'loss_weights': loss_weights,'init_image': init_image,'gram_style_features': gram_style_features,'content_features': content_features}norm_means = np.array([103.939, 116.779, 123.68])min_vals = -norm_meansmax_vals = 255 - norm_means   best_loss, best_img = float('inf'), Nonefor i in range(num_iterations):grads, all_loss = compute_grads(cfg)loss, style_score, content_score = all_lossopt.apply_gradients([(grads, init_image)])clipped = tf.clip_by_value(init_image, min_vals, max_vals)init_image.assign(clipped)if loss < best_loss:best_loss = lossbest_img = deprocess_img(init_image.numpy())return best_img, best_lossbest, best_loss = run_style_transfer('path_to_your_content_image.jpg', 'path_to_your_style_image.jpg')
plt.imshow(best)
plt.title(f"Loss: {best_loss}")
plt.show()

5. 使用生成对抗网络生成艺术作品

5.1 导入库
import tensorflow as tf
from tensorflow.keras.layers import Dense, Reshape, Flatten, Conv2D, Conv2DTranspose, LeakyReLU, Dropout
from tensorflow.keras.datasets import mnist
import matplotlib.pyplot as plt
import numpy as np
5.2 构建生成器和判别器
def build_generator():model = tf.keras.Sequential()model.add(Dense(7*7*256, use_bias=False, input_shape=(100,)))model.add(LeakyReLU())model.add(Reshape((7, 7, 256)))model.add(Conv2DTranspose(128, (5, 5), strides=(1, 1), padding='same', use_bias=False))model.add(LeakyReLU())model.add(Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same', use_bias=False))model.add(LeakyReLU())model.add(Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias=False, activation='tanh'))return modeldef build_discriminator():model = tf.keras.Sequential()model.add(Conv2D(64, (5, 5), strides=(2, 2), padding='same', input_shape=[28, 28, 1]))model.add(LeakyReLU())model.add(Dropout(0.3))model.add(Conv2D(128, (5, 5), strides=(2, 2), padding='same'))model.add(LeakyReLU())model.add(Dropout(0.3))model.add(Flatten())model.add(Dense(1))return model
5.3 训练GAN
def train_gan(generator, discriminator, dataset, epochs=10000, batch_size=256, noise_dim=100):cross_entropy = tf.keras.losses.BinaryCrossentropy(from_logits=True)generator_optimizer = tf.keras.optimizers.Adam(1e-4)discriminator_optimizer = tf.keras.optimizers.Adam(1e-4)@tf.functiondef train_step(images):noise = tf.random.normal([batch_size, noise_dim])with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape:generated_images = generator(noise, training=True)real_output = discriminator(images, training=True)fake_output = discriminator(generated_images, training=True)gen_loss = cross_entropy(tf.ones_like(fake_output), fake_output)disc_loss = cross_entropy(tf.ones_like(real_output), real_output) + cross_entropy(tf.zeros_like(fake_output), fake_output)gradients_of_generator = gen_tape.gradient(gen_loss, generator.trainable_variables)gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.trainable_variables)generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables))discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables))for epoch in range(epochs):for image_batch in dataset:train_step(image_batch)if epoch % 100 == 0:print(f'Epoch {epoch} completed')(train_images, train_labels), (_, _) = mnist.load_data()
train_images = train_images.reshape(train_images.shape[0], 28, 28, 1).astype('float32')
train_images = (train_images - 127.5) / 127.5
train_dataset = tf.data.Dataset.from_tensor_slices(train_images).shuffle(60000).batch(256)generator = build_generator()
discriminator = build_discriminator()
train_gan(generator, discriminator, train_dataset)
5.4 生成和展示图像
def generate_and_save_images(model, epoch, test_input):predictions = model(test_input, training=False)fig = plt.figure(figsize=(4, 4))for i in range(predictions.shape[0]):plt.subplot(4, 4, i + 1)plt.imshow(predictions[i, :, :, 0] * 127.5 + 127.5, cmap='gray')plt.axis('off')plt.savefig(f'image_at_epoch_{epoch:04d}.png')plt.show()noise = tf.random.normal([16, 100])
generate_and_save_images(generator, 1000, noise)

总结

使用神经网络生成艺术作品需要理解和应用卷积神经网络和生成对抗网络的原理。通过风格迁移和GAN训练,你可以创作出具有独特艺术风格的图像。希望这个教程能帮助你开始你的AI艺术创作之旅。

如果有任何问题或需要进一步的帮助,请随时告诉我!


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/46857.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Ubuntu安装 Nginx

前置条件&#xff1a; 把apt包更新到最新&#xff08;如果更新过就跳过这步&#xff09; 先检查 sudo apt update 后更新 sudo apt upgrade &#xff08;期间要选择确认&#xff0c;输入 y 即可&#xff09; 如果不行可以&#xff1a;sudo apt upgrade --fix-missing 先卸…

buttonrpc解析—server篇

文章目录 前言serveras_serverbindcallproxycallproxy_ runcall_ 总结参考 前言 关于buttonrpc.hpp的解析 server 我们从server.cpp的main函数部分来学习这个hpp文件 int main() {buttonrpc server; server.as_server(5555);//server.bind("redis_command", redis…

IIS的安装及Web服务器深度配置:打造高效稳定的网络门户

在构建现代网络环境的过程中&#xff0c;IIS&#xff08;Internet Information Services&#xff09;作为微软提供的强大Web服务器软件&#xff0c;扮演着至关重要的角色。无论是企业级的网站部署&#xff0c;还是个人开发者的小型项目测试&#xff0c;IIS都能提供稳定、高效的…

无人机使能的边缘计算优化问题

Joint Deployment and Task Scheduling Optimization for Large-Scale Mobile Users in Multi-UAV-Enabled Mobile Edge Computing论文阅读笔记 BackgroundContributionsSystem Model and Problem FormulationLocal Execution ModelMEC Execution ModelUAV Hover Model Propose…

kubernetes概念及基本介绍(一)

部署方式的演进过程 传统部署 直接将应用程序部署在物理机器上&#xff0c;很难合理分配计算机资源&#xff0c;而且程序之间会产生影响 虚拟化部署 可以在一台物理机上运行多个虚拟机&#xff0c;没个虚拟机都是独立的一个环境&#xff0c;程序环境不会产生影响&#xff0c;…

SHRM已开始报名,常见问题答疑来了

2024年SHRM&#xff08;美国人力资源管理认证&#xff09;的第二个考试报名窗口&#xff0c;即国内最后一次SHRM中文考试窗口&#xff0c;已于北美时间2024年6月3日00:00开放报名。 此次SHRM中文考试报名窗口的开启&#xff0c;对于国内众多渴望提升自我、拓宽职业发展道路的H…

React中使用usePrevious的意义是什么,为啥要用它

usePrevious钩子 export function usePrevious<T>(value: T): T | undefined {const ref useRef<T>();useEffect(() > {ref.current value;}, [value]);return ref.current; }注&#xff1a;更多好用的性能钩子网站推荐&#xff1a;https://react-hooks-libr…

【Linux】权限管理与相关指令

文章目录 1.权限、文件权限、用户文件权限的理解以及对应八进制数值表示、设置目录为粘滞位文件类型 2.权限相关的常用指令susudochmodchownchgrpumaskwhoamifile 1.权限、文件权限、用户 通过一定条件&#xff0c;拦住一部分人&#xff0c;给另一部分权利来访问资源&#xff0…

vue3源码(七)渲染原理-h()

1.定义 h函数是创建节点, 可实现展示template如何渲染到html中的过程&#xff0c;因为vue渲染到页面上是通过loader打包成模板字符串拼接渲染的&#xff0c;所以 h 函数同样也是通过字符串渲染到html中 h函数就是vue中的createElement方法&#xff0c;这个函数作用就是创建虚…

Python编程学习第一篇——Python零基础快速入门(六)(2)

上节讲了运算符,这节开始讲解Python的语法结构。前面一些章节我们对Python基础知识已经有了一些了解,包括Python数据类型、变量、语句、注释等等,也分享了一些可以运行小程序(小游戏),让大家在其中体会变量、语句、注释和数据类型等的运用。其中也涉及了一些语法结构,有…

PreparedStatement can have at most 65535 parameters

在 JDBC 中&#xff0c;由于内部实现的限制&#xff0c;PreparedStatement 能够接受的参数个数不能超过 65535 个 原因&#xff1a; PreparedStatement可以包含最多65,535个参数&#xff0c;‌这是因为PreparedStatement接口设计时&#xff0c;‌为了支持大量的参数化查询&am…

Windows 2012安装之实现远程连接

新建虚拟机 点击稍后安装操作系统 点击Microsoft Windows(W) 选择Windows Server 2012 设置虚拟机名称、安装位置 选择你的电脑核数 点击编辑虚拟机设置 点击CD/DVD(SATA) 使用ISO映像文件(M) 配置完之后点击确定 然后开启虚拟机 下一步&#xff1a; 点击现在安装&#xff1a…

【学习笔记】无人机(UAV)在3GPP系统中的增强支持(十二)-无人机群在物流中的应用

引言 本文是3GPP TR 22.829 V17.1.0技术报告&#xff0c;专注于无人机&#xff08;UAV&#xff09;在3GPP系统中的增强支持。文章提出了多个无人机应用场景&#xff0c;分析了相应的能力要求&#xff0c;并建议了新的服务级别要求和关键性能指标&#xff08;KPIs&#xff09;。…

常用的点云预处理算法

点云预处理是处理点云数据时的重要部分&#xff0c;其目的是提高点云数据的质量和处理效率。通过去除离群点、减少点云密度和增强特征&#xff0c;可以消除噪声、减少计算量、提高算法的准确性和鲁棒性&#xff0c;从而为后续的点云处理和分析步骤&#xff08;如配准、分割和重…

【Git】执行git clone / checkout 命令出现 git Filename too long

执行 git clone / checkout 命令出现错误 git Filename too long 原因是因为目录中个别文件的文件名长度太长&#xff0c;超过了win文件名限制的260长度 解决方案 全局配置git git config --system core.longpaths true查看 git config --get core.longpaths设置完成后即可c…

Spring中的常用注解(一)

目录 RequestMapping PostMapping RequestBody Controller ResponseBody RestController Autowired Qualifier Primary Service Component Bean和Configuration ---------------- RequestMapping RequestMapping 是 Spring Framework 中用于配置 URL 映射的…

三大知名向量化模型比较分析——m3e,bge,bce

先聊聊出处。 M3E 是 Moka Massive Mixed Embedding 的缩写&#xff0c; Moka&#xff0c;此模型由 MokaAI 训练&#xff0c;开源和评测&#xff0c;训练脚本使用 uniem &#xff0c;评测 BenchMark 使用 MTEB-zhMassive&#xff0c;此模型通过千万级 (2200w) 的中文句对数据…

常用图像分类、目标检测模型性能测试

说明 测试常用CV模型在单张图像上的识别速度&#xff0c;不包含图像读取时间&#xff0c;但包含图像预处理。可以在以后的应用中根据硬件配置选取合适的模型&#xff0c;达到最佳效果。其中推理速度为正常推理的速度&#xff0c;加速CPU使用openvino加速&#xff0c;GPU使用te…

智慧电子班牌系统,智慧班牌源码,为校园提供了便捷、高效、智能的信息管理和服务方式

智慧班牌在实现智慧校园的数字化建设中扮演着重要角色&#xff0c;它通过集成多种技术和功能&#xff0c;为校园提供了便捷、高效、智能的信息管理和服务方式。以下是智慧班牌如何实现智慧校园的数字化建设的具体方式&#xff1a; 一、信息集成与展示 基础信息展示&#xff1a…

海外媒体发稿:葡萄牙-实现高效媒体软文发稿计划-大舍传媒

一、葡萄牙媒体环境概述 葡萄牙&#xff0c;位于欧洲大陆西南端的国家&#xff0c;拥有丰富的文化和历史。在这个国家&#xff0c;媒体行业也有着相当大的影响力。葡萄牙的媒体环境多元化&#xff0c;包括电视、广播、报纸、杂志和互联网等各个领域。 二、葡萄牙媒体发稿的重…