python tensorflow 各种神经元

  1. 感知机神经元(Perceptron Neuron)

    • 最基本的人工神经元模型,用于线性分类任务。

      import numpy as npclass Perceptron:def __init__(self, input_size, learning_rate=0.01, epochs=1000):self.weights = np.zeros(input_size + 1)  # 加上一个偏置self.learning_rate = learning_rateself.epochs = epochsdef activation(self, x):return 1 if x >= 0 else 0def predict(self, x):summation = np.dot(x, self.weights[1:]) + self.weights[0]return self.activation(summation)def train(self, training_inputs, labels):for _ in range(self.epochs):for inputs, label in zip(training_inputs, labels):prediction = self.predict(inputs)self.weights[1:] += self.learning_rate * (label - prediction) * inputsself.weights[0] += self.learning_rate * (label - prediction)# 示例数据
      training_inputs = np.array([[1, 1], [1, 0], [0, 1], [0, 0]])
      labels = np.array([1, 0, 0, 0])# 创建感知机实例并训练
      perceptron = Perceptron(input_size=2)
      perceptron.train(training_inputs, labels)# 测试感知机
      inputs = np.array([1, 1])
      print("Input:", inputs, "Prediction:", perceptron.predict(inputs))inputs = np.array([0, 0])
      print("Input:", inputs, "Prediction:", perceptron.predict(inputs))
      

      代码解释

      1. 类定义: Perceptron类包含了初始化函数、激活函数、预测函数和训练函数。
      2. 初始化: 初始化权重为零,并设置学习率和训练轮数。
      3. 激活函数: 使用阶跃函数(step function)作为激活函数。
      4. 预测函数: 计算输入和权重的加权和,然后通过激活函数得到输出。
      5. 训练函数: 使用感知机学习规则,迭代更新权重。
      6. 示例数据: 二分类数据集(逻辑与问题)。
      7. 训练与测试: 训练感知机并测试其对新输入的预测。
  2. 多层感知机神经元(Multi-Layer Perceptron, MLP)

    • 包含多个隐藏层的感知机,能够学习复杂的非线性关系。

    • 使用一个简单的MLP模型来处理二分类任务。

      import numpy as npfrom keras.models import Sequential
      from keras.layers import Dense# 生成示例数据
      # 输入数据:4个样本,每个样本2个特征
      training_inputs = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
      # 标签:与XOR逻辑相符的二分类标签
      labels = np.array([[0], [1], [1], [0]])# 创建MLP模型
      model = Sequential()
      model.add(Dense(4, input_dim=2, activation='relu'))  # 隐藏层,包含4个神经元,ReLU激活函数
      model.add(Dense(1, activation='sigmoid'))  # 输出层,1个神经元,sigmoid激活函数用于二分类# 编译模型
      model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])# 训练模型
      model.fit(training_inputs, labels, epochs=1000, verbose=0)# 测试模型
      test_inputs = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
      predictions = model.predict(test_inputs)# 输出测试结果
      for i, test_input in enumerate(test_inputs):print(f"Input: {test_input}, Predicted: {predictions[i][0]:.4f}")
      

      代码解释

      1. 库导入: 导入必要的库,包括numpy用于数据处理,Sequential用于构建模型,Dense用于构建层。
      2. 数据准备: 创建一个简单的XOR逻辑问题的数据集。
      3. 模型构建:
        • 使用Sequential构建模型。
        • 添加一个隐藏层,包含4个神经元,使用ReLU激活函数。
        • 添加一个输出层,包含1个神经元,使用sigmoid激活函数(适合二分类任务)。
      4. 模型编译: 使用二元交叉熵损失函数和Adam优化器进行编译,并指定准确率为评估指标。
      5. 模型训练: 训练模型1000个轮次,设置verbose=0以抑制训练期间的详细输出。
      6. 模型测试: 使用训练好的模型对测试数据进行预测,并输出结果。
  3. 卷积神经网络神经元(Convolutional Neural Network, CNN)

    • 专门用于处理图像数据,通过卷积层提取空间特征。

    • 构建一个简单的 RNN 来处理时间序列数据,例如序列预测任务。

      
      from keras.models import Sequential
      from keras.layers import SimpleRNN, Dense
      import numpy as np# 生成示例数据
      # 假设有一个时间序列数据集,每个序列长度为5,特征数量为1
      X = np.array([[[0.0], [1.0], [2.0], [3.0], [4.0]],[[1.0], [2.0], [3.0], [4.0], [5.0]],[[2.0], [3.0], [4.0], [5.0], [6.0]],
      ])
      y = np.array([5.0, 6.0, 7.0])# 创建 RNN 模型
      model = Sequential()
      model.add(SimpleRNN(10, activation='relu', input_shape=(5, 1)))
      model.add(Dense(1))# 编译模型
      model.compile(optimizer='adam', loss='mse')# 训练模型
      model.fit(X, y, epochs=200, verbose=0)# 预测
      new_sequence = np.array([[[3.0], [4.0], [5.0], [6.0], [7.0]]])
      prediction = model.predict(new_sequence)
      print("Predicted value:", prediction)

      代码解释

      1. 导入必要的库:使用 TensorFlow 和 Keras 来构建和训练 RNN 模型,同时用 NumPy 生成示例数据。
      2. 生成示例数据:创建一个时间序列数据集 X 和相应的目标值 y
      3. 创建模型:使用 Sequential 模型构建一个包含一个 SimpleRNN 层和一个 Dense 层的简单 RNN 模型。
      4. 编译模型:使用 adam 优化器和均方误差损失函数编译模型。
      5. 训练模型:用示例数据训练模型 200 个 epochs。
      6. 进行预测:用训练好的模型对一个新的时间序列进行预测。
  4. 循环神经网络神经元(Recurrent Neural Network, RNN)

    • 能够处理序列数据,具有记忆功能,适用于时间序列分析、语言模型等。

    • 使用RNN处理序列数据。将创建一个模型来预测给定序列的下一个数字。

      
      import tensorflow as tf
      from keras.models import Sequential
      from keras.layers import SimpleRNN, Dense
      import numpy as np# 生成示例数据
      # 假设有一个时间序列数据集,每个序列长度为5,特征数量为1
      X = np.array([[[0.0], [1.0], [2.0], [3.0], [4.0]],[[1.0], [2.0], [3.0], [4.0], [5.0]],[[2.0], [3.0], [4.0], [5.0], [6.0]],
      ])
      y = np.array([5.0, 6.0, 7.0])# 创建 RNN 模型
      model = Sequential()
      model.add(SimpleRNN(10, activation='relu', input_shape=(5, 1)))
      model.add(Dense(1))# 编译模型
      model.compile(optimizer='adam', loss='mse')# 训练模型
      model.fit(X, y, epochs=200, verbose=0)# 预测
      new_sequence = np.array([[[3.0], [4.0], [5.0], [6.0], [7.0]]])
      prediction = model.predict(new_sequence)
      print("Predicted value:", prediction)

      代码解释

      1. 数据生成与准备:
        • generate_sequence(): 生成一个简单的序列。
        • prepare_data(): 准备训练数据,将序列转换为模型可以接受的格式。
      2. 模型构建:
        • 使用Sequential构建模型。
        • 添加一个SimpleRNN层,包含10个神经元,输入形状由数据决定,return_sequences=True表示输出每个时间步的结果。
        • 添加一个Dense层作为输出层,预测序列的下一个值。
      3. 模型编译: 使用均方误差作为损失函数,使用Adam优化器。
      4. 模型训练: 训练模型1000个轮次,verbose=0表示不显示训练过程中的详细信息。
      5. 模型测试: 使用模型预测给定序列的下一个值。
  5. 长短期记忆网络神经元(Long Short-Term Memory, LSTM)

    • RNN的一种,通过门控机制解决长期依赖问题,适合处理长序列数据。

    • 长一个简单的LSTM模型示例,用于预测时间序列数据。

      import numpy as np
      from keras.models import Sequential
      from keras.layers import LSTM, Dense
      from  sklearn.preprocessing import MinMaxScaler
      import matplotlib.pyplot as plt# 生成示例数据
      np.random.seed(0)
      data = np.sin(np.linspace(0, 100, 1000)) + np.random.normal(scale=0.5, size=1000)# 数据预处理
      scaler = MinMaxScaler(feature_range=(0, 1))
      scaled_data = scaler.fit_transform(data.reshape(-1, 1))# 创建训练和测试数据集
      train_size = int(len(scaled_data) * 0.8)
      train, test = scaled_data[:train_size], scaled_data[train_size:]# 创建数据集函数
      def create_dataset(data, time_step=1):X, Y = [], []for i in range(len(data) - time_step - 1):a = data[i:(i + time_step), 0]X.append(a)Y.append(data[i + time_step, 0])return np.array(X), np.array(Y)time_step = 10
      X_train, y_train = create_dataset(train, time_step)
      X_test, y_test = create_dataset(test, time_step)# Reshape input to be [samples, time steps, features] which is required for LSTM
      X_train = X_train.reshape(X_train.shape[0], X_train.shape[1], 1)
      X_test = X_test.reshape(X_test.shape[0], X_test.shape[1], 1)# 创建LSTM模型
      model = Sequential()
      model.add(LSTM(50, return_sequences=True, input_shape=(time_step, 1)))
      model.add(LSTM(50, return_sequences=False))
      model.add(Dense(1))
      model.compile(optimizer='adam', loss='mean_squared_error')# 训练模型
      model.fit(X_train, y_train, epochs=20, batch_size=32, verbose=1)# 预测
      train_predict = model.predict(X_train)
      test_predict = model.predict(X_test)# 逆缩放预测值
      train_predict = scaler.inverse_transform(train_predict)
      test_predict = scaler.inverse_transform(test_predict)
      y_train = scaler.inverse_transform(y_train.reshape(-1, 1))
      y_test = scaler.inverse_transform(y_test.reshape(-1, 1))# 可视化结果
      plt.figure(figsize=(14, 8))
      plt.plot(data, label='True Data')
      train_predict_plot = np.empty_like(data)
      train_predict_plot[:] = np.nan
      train_predict_plot[time_step:len(train_predict) + time_step] = train_predict[:, 0]
      plt.plot(train_predict_plot, label='Train Predict')test_predict_plot = np.empty_like(data)
      test_predict_plot[:] = np.nan
      test_predict_plot[len(train_predict) + (time_step * 2) + 1:len(data) - 1] = test_predict[:, 0]
      plt.plot(test_predict_plot, label='Test Predict')plt.xlabel('Time')
      plt.ylabel('Value')
      plt.legend()
      plt.show()
  6. 门控循环单元神经元(Gated Recurrent Unit, GRU)

    • 类似于LSTM,但结构更简单,参数更少,也用于处理序列数据。

    • 使用TensorFlow实现的简单门控循环单元(Gated Recurrent Unit, GRU),定义一个简单的GRU模型,并训练它来处理序列数据。

      import tensorflow as tf
      from keras.models import Sequential
      from keras.layers import GRU, Dense
      import numpy as np# 定义超参数
      input_size = 10   # 输入特征的维度
      hidden_size = 20  # 隐藏层神经元数量
      output_size = 1   # 输出的维度
      num_epochs = 100  # 训练的迭代次数
      learning_rate = 0.01  # 学习率# 生成一些假数据
      sequence_length = 5  # 每个序列的长度
      batch_size = 3       # 每批次的数据量
      x = np.random.randn(batch_size, sequence_length, input_size).astype(np.float32)  # 随机输入数据
      y = np.random.randn(batch_size, output_size).astype(np.float32)  # 随机输出数据# 定义GRU模型
      model = Sequential()
      model.add(GRU(hidden_size, input_shape=(sequence_length, input_size), return_sequences=False))
      model.add(Dense(output_size))# 编译模型
      model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=learning_rate), loss='mse')# 训练模型
      history = model.fit(x, y, epochs=num_epochs, verbose=1)print('Training complete.')

      这个代码示例展示了如何定义一个简单的GRU模型,并使用TensorFlow对其进行训练。以下是关键步骤的解释:

      1. 定义超参数:设置输入特征的维度、隐藏层神经元数量、输出维度、训练迭代次数和学习率。

      2. 生成假数据:使用随机数生成器创建一些输入和输出数据来模拟训练数据,并转换为浮点数类型。

      3. 定义GRU模型:使用Sequential模型,添加一个GRU层和一个全连接层。GRU层使用GRU,全连接层使用Dense

      4. 编译模型:使用Adam优化器,并设置均方误差(MSE)为损失函数。

      5. 训练模型:使用fit方法进行训练,传入输入数据和目标数据,设置训练的迭代次数,并打印训练过程。

  7. 径向基函数神经元(Radial Basis Function, RBF Neuron)

    • 使用径向基函数作为激活函数,常用于模式识别和函数逼近。

    • import tensorflow as tf
      import numpy as np# Define the Radial Basis Function (RBF) layer
      class RBFLayer(tf.keras.layers.Layer):def __init__(self, units, gamma):super(RBFLayer, self).__init__()self.units = unitsself.gamma = tf.constant(gamma, dtype=tf.float32)def build(self, input_shape):self.mu = self.add_weight(shape=(self.units, input_shape[-1]),initializer='random_normal',trainable=True,name='mu')def call(self, inputs):diff = tf.expand_dims(inputs, axis=1) - tf.expand_dims(self.mu, axis=0)sq_diff = tf.reduce_sum(tf.square(diff), axis=-1)return tf.exp(-self.gamma * sq_diff)# Example of using RBFLayer in a model
      def create_model(input_dim, rbf_units, gamma):model = tf.keras.Sequential([tf.keras.layers.InputLayer(input_shape=(input_dim,)),RBFLayer(units=rbf_units, gamma=gamma),tf.keras.layers.Dense(1)  # Example output layer, you can adjust this as needed])return model# Create some example data
      np.random.seed(0)
      X_train = np.random.randn(100, 2)
      y_train = np.random.randn(100, 1)# Parameters
      input_dim = 2
      rbf_units = 10
      gamma = 1.0# Create and compile the model
      model = create_model(input_dim, rbf_units, gamma)
      model.compile(optimizer='adam', loss='mse')# Train the model
      model.fit(X_train, y_train, epochs=100, verbose=0)# Predict
      predictions = model.predict(X_train)
      print(predictions)
      
  8. 自编码器神经元(Autoencoder Neuron)

    • 用于数据压缩和特征学习,通过编码和解码过程学习数据的有效表示。

    • 使用TensorFlow库实现自编码器神经元,使用MNIST数据集。

      import tensorflow as tf
      from keras import layers, losses
      from keras.models import Model
      from keras.datasets import mnist
      import numpy as np# 加载MNIST数据集
      (x_train, _), (x_test, _) = mnist.load_data()# 归一化数据
      x_train = x_train.astype('float32') / 255.
      x_test = x_test.astype('float32') / 255.# 扁平化数据
      x_train = x_train.reshape((len(x_train), np.prod(x_train.shape[1:])))
      x_test = x_test.reshape((len(x_test), np.prod(x_test.shape[1:])))# 定义编码器
      class Autoencoder(Model):def __init__(self, encoding_dim):super(Autoencoder, self).__init__()self.encoding_dim = encoding_dimself.encoder = tf.keras.Sequential([layers.Dense(encoding_dim, activation='relu'),])self.decoder = tf.keras.Sequential([layers.Dense(784, activation='sigmoid')])def call(self, x):encoded = self.encoder(x)decoded = self.decoder(encoded)return decoded# 初始化自编码器模型
      autoencoder = Autoencoder(32)# 编译模型
      autoencoder.compile(optimizer='adam', loss=losses.MeanSquaredError())# 训练模型
      autoencoder.fit(x_train, x_train,epochs=10,shuffle=True,validation_data=(x_test, x_test))# 测试模型
      encoded_imgs = autoencoder.encoder(x_test).numpy()
      decoded_imgs = autoencoder.decoder(encoded_imgs).numpy()

      在这个例子定义了一个自编码器类,该类包含一个编码器和一个解码器。编码器将输入数据压缩到一个低维空间,解码器则将这些压缩的表示恢复到原始空间,使用均方误差作为损失函数,并使用Adam优化器进行训练。最后,在测试集上测试模型的性能。

  9. 深度信念网络神经元(Deep Belief Networks, DBN)

    • 用于特征学习和分类。

    • 深度信念网络(Deep Belief Networks, DBN)是一种生成式模型,由多个受限玻尔兹曼机(Restricted Boltzmann Machines, RBM)堆叠组成。

      from keras.datasets import mnist
      from keras.models import Sequential
      from keras.layers import Dense, Flatten
      from keras.utils import to_categorical# 加载MNIST数据集
      (x_train, y_train), (x_test, y_test) = mnist.load_data()
      x_train = x_train / 255.0
      x_test = x_test / 255.0# 将标签转换为one-hot编码
      y_train = to_categorical(y_train, 10)
      y_test = to_categorical(y_test, 10)# 定义DBN模型
      def build_dbn(input_shape):model = Sequential()# 第一层RBMmodel.add(Dense(256, input_shape=input_shape, activation='relu'))# 第二层RBMmodel.add(Dense(128, activation='relu'))# 输出层model.add(Dense(10, activation='softmax'))return model# 构建和编译模型
      dbn_model = build_dbn((784,))
      dbn_model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])# 训练模型
      dbn_model.fit(x_train.reshape(-1, 784), y_train, epochs=10, batch_size=128, validation_data=(x_test.reshape(-1, 784), y_test))# 评估模型
      test_loss, test_acc = dbn_model.evaluate(x_test.reshape(-1, 784), y_test)
      print(f'Test accuracy: {test_acc}')

      解释

      1. 数据预处理:首先加载MNIST数据集并进行归一化处理(将像素值从0-255缩放到0-1)。标签数据转换为one-hot编码。

      2. 模型定义:使用Keras的Sequential API定义一个简单的深度信念网络,其中包含两层全连接层(Dense层)作为RBM层,最后一层是用于分类的softmax层。

      3. 编译模型:使用Adam优化器和交叉熵损失函数编译模型。

      4. 训练模型:使用训练数据进行训练,设置训练的epoch数和batch大小。

      5. 评估模型:使用测试数据集评估模型的准确性。

  10. 深度残差网络神经元(Residual Neural Network, ResNet)

    • 通过引入残差连接解决深层网络训练中的梯度消失问题。

    • 使用TensorFlow实现深度残差网络(ResNet),构建ResNet模型并进行训练。

      from keras import layers, models, datasets, utils# 定义残差块
      def residual_block(x, filters, kernel_size=3, stride=1, activation='relu'):# 第一个卷积层y = layers.Conv2D(filters, kernel_size, strides=stride, padding='same')(x)y = layers.BatchNormalization()(y)y = layers.Activation(activation)(y)# 第二个卷积层y = layers.Conv2D(filters, kernel_size, strides=1, padding='same')(y)y = layers.BatchNormalization()(y)# 如果输入和输出的维度不同,调整输入维度if stride != 1 or x.shape[-1] != filters:x = layers.Conv2D(filters, 1, strides=stride, padding='same')(x)# 残差连接y = layers.Add()([x, y])y = layers.Activation(activation)(y)return y# 定义ResNet模型
      def ResNet(input_shape, num_classes):inputs = layers.Input(shape=input_shape)# 初始卷积层x = layers.Conv2D(64, 7, strides=2, padding='same')(inputs)x = layers.BatchNormalization()(x)x = layers.Activation('relu')(x)x = layers.MaxPooling2D(pool_size=3, strides=2, padding='same')(x)# 残差块组x = residual_block(x, 64)x = residual_block(x, 64)x = residual_block(x, 128, stride=2)x = residual_block(x, 128)x = residual_block(x, 256, stride=2)x = residual_block(x, 256)x = residual_block(x, 512, stride=2)x = residual_block(x, 512)# 全局平均池化和分类层x = layers.GlobalAveragePooling2D()(x)outputs = layers.Dense(num_classes, activation='softmax')(x)model = models.Model(inputs, outputs)return model# 加载数据集
      (x_train, y_train), (x_test, y_test) = datasets.cifar10.load_data()
      y_train = utils.to_categorical(y_train, 10)
      y_test = utils.to_categorical(y_test, 10)# 创建ResNet模型
      model = ResNet((32, 32, 3), 10)
      model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])# 训练模型
      model.fit(x_train, y_train, epochs=10, batch_size=64, validation_data=(x_test, y_test))
  11. Transformer神经元(Transformer Neuron)

    • Transformer模型是一种基于自注意力机制的深度学习架构,特别适用于处理序列数据,广泛用于自然语言处理(NLP)任务。使用Keras内置的Transformer层来构建一个简单的文本分类模型,并使用IMDB电影评论数据集进行训练和测试。

      from keras.datasets import imdb
      from keras.preprocessing.sequence import pad_sequences
      from keras.layers import Embedding, Dense, MultiHeadAttention, LayerNormalization, Dropout, GlobalAveragePooling1D, Input
      from keras.models import Model# Parameters
      max_features = 10000  # Size of the vocabulary
      maxlen = 200  # Maximum length of each sequence
      embedding_dim = 32  # Embedding dimension# Load IMDB dataset
      (x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features)
      x_train = pad_sequences(x_train, maxlen=maxlen)
      x_test = pad_sequences(x_test, maxlen=maxlen)# Define Transformer model
      def build_transformer_model(input_shape):inputs = Input(shape=(input_shape,))embedding_layer = Embedding(max_features, embedding_dim)(inputs)# Add positional encoding if needed (optional)# pos_encoding = PositionalEncoding(input_shape, embedding_dim)# embedding_layer = pos_encoding(embedding_layer)attn_output = MultiHeadAttention(num_heads=2, key_dim=embedding_dim)(embedding_layer, embedding_layer)attn_output = LayerNormalization()(attn_output + embedding_layer)# Add feed-forward networkffn_output = Dense(128, activation='relu')(attn_output)ffn_output = Dropout(0.1)(ffn_output)ffn_output = Dense(embedding_dim)(ffn_output)ffn_output = LayerNormalization()(ffn_output + attn_output)avg_pool = GlobalAveragePooling1D()(ffn_output)outputs = Dense(1, activation='sigmoid')(avg_pool)model = Model(inputs=inputs, outputs=outputs)return model# Build and compile model
      transformer_model = build_transformer_model(maxlen)
      transformer_model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])# Train the model
      transformer_model.fit(x_train, y_train, epochs=5, batch_size=32, validation_data=(x_test, y_test))# Evaluate the model
      test_loss, test_acc = transformer_model.evaluate(x_test, y_test)
      print(f'Test accuracy: {test_acc}')

      解释

      1. 数据预处理:首先加载IMDB电影评论数据集,并将评论文本转换为整数序列。使用pad_sequences函数将所有序列填充到相同的长度。

      2. 模型定义:使用Keras的Sequential API定义一个包含嵌入层、Transformer层和全局平均池化层的模型。最后是一个用于二分类的全连接层(Dense层)。

      3. 编译模型:使用Adam优化器和二元交叉熵损失函数编译模型。

      4. 训练模型:使用训练数据进行训练,设置训练的epoch数和batch大小。

      5. 评估模型:使用测试数据集评估模型的准确性。

  12. 深度前馈网络神经元(Deep Feedforward Networks)

    • 一种基本的神经网络结构,信息只在一个方向上流动,从输入层到输出层。

    • 使用TensorFlow实现深度前馈网络神经元(Deep Feedforward Networks:

      from keras.models import Sequential
      from keras.layers import Dense
      from keras.optimizers import Adam
      from sklearn.model_selection import train_test_split
      from sklearn.datasets import make_classification# 生成一个二分类的数据集
      X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)# 分割数据集为训练集和测试集
      X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 创建一个深度前馈神经网络模型
      model = Sequential()
      model.add(Dense(64, input_dim=X_train.shape[1], activation='relu'))  # 输入层和第一个隐藏层
      model.add(Dense(32, activation='relu'))  # 第二个隐藏层
      model.add(Dense(16, activation='relu'))  # 第三个隐藏层
      model.add(Dense(1, activation='sigmoid'))  # 输出层# 编译模型
      model.compile(optimizer=Adam(learning_rate=0.001), loss='binary_crossentropy', metrics=['accuracy'])# 训练模型
      model.fit(X_train, y_train, epochs=50, batch_size=10, validation_split=0.2, verbose=1)# 评估模型
      loss, accuracy = model.evaluate(X_test, y_test, verbose=0)
      print(f'Test Accuracy: {accuracy * 100:.2f}%')# 进行预测
      predictions = model.predict(X_test)
      predictions = (predictions > 0.5).astype(int)# 显示部分预测结果
      print(predictions[:10])
      

      在上述代码中:

      1. 生成了一个用于分类的数据集,并将其分割为训练集和测试集。
      2. 使用 Sequential 模型创建了一个具有三层隐藏层的深度前馈神经网络。
      3. 使用 Adam 优化器和二元交叉熵损失函数编译了模型。
      4. 训练了模型并评估其在测试集上的准确性。
      5. 最后进行了预测并展示了一部分预测结果。
  13. 深度生成模型神经元(Deep Generative Models, 如GANs)

    • 包括生成对抗网络(GANs)等,用于生成新的数据样本,如图像、文本等。

      import tensorflow as tf
      from keras.layers import Dense, Flatten, Reshape, LeakyReLU
      from keras.models import Sequential
      from keras.optimizers.legacy import Adam
      import numpy as np
      import matplotlib.pyplot as plt# Load and preprocess the MNIST dataset
      (x_train, _), (_, _) = tf.keras.datasets.mnist.load_data()
      x_train = (x_train.astype(np.float32) - 127.5) / 127.5# Hyperparameters
      latent_dim = 100
      batch_size = 256
      epochs = 10000# Build the generator
      def build_generator():model = Sequential()model.add(Dense(256, input_dim=latent_dim))model.add(LeakyReLU(alpha=0.2))model.add(Dense(512))model.add(LeakyReLU(alpha=0.2))model.add(Dense(1024))model.add(LeakyReLU(alpha=0.2))model.add(Dense(784, activation='tanh'))model.add(Reshape((28, 28)))return model# Build the discriminator
      def build_discriminator():model = Sequential()model.add(Flatten(input_shape=(28, 28)))model.add(Dense(1024))model.add(LeakyReLU(alpha=0.2))model.add(Dense(512))model.add(LeakyReLU(alpha=0.2))model.add(Dense(256))model.add(LeakyReLU(alpha=0.2))model.add(Dense(1, activation='sigmoid'))return model# Compile the models
      optimizer = Adam(0.0002, 0.5)
      discriminator = build_discriminator()
      discriminator.compile(loss='binary_crossentropy', optimizer=optimizer, metrics=['accuracy'])generator = build_generator()
      z = tf.keras.Input(shape=(latent_dim,))
      img = generator(z)
      discriminator.trainable = False
      valid = discriminator(img)combined = tf.keras.Model(z, valid)
      combined.compile(loss='binary_crossentropy', optimizer=optimizer)# Training the GAN
      def train(epochs, batch_size=128, save_interval=50):half_batch = batch_size // 2for epoch in range(epochs):# Train discriminatoridx = np.random.randint(0, x_train.shape[0], half_batch)imgs = x_train[idx]noise = np.random.normal(0, 1, (half_batch, latent_dim))gen_imgs = generator.predict(noise, verbose=0)d_loss_real = discriminator.train_on_batch(imgs, np.ones((half_batch, 1)))d_loss_fake = discriminator.train_on_batch(gen_imgs, np.zeros((half_batch, 1)))d_loss = 0.5 * np.add(d_loss_real, d_loss_fake)# Train generatornoise = np.random.normal(0, 1, (batch_size, latent_dim))valid_y = np.array([1] * batch_size)g_loss = combined.train_on_batch(noise, valid_y)# Print progressif epoch % save_interval == 0:print(f"{epoch} [D loss: {d_loss[0]} | D accuracy: {100 * d_loss[1]}] [G loss: {g_loss}]")save_imgs(epoch)def save_imgs(epoch):r, c = 5, 5noise = np.random.normal(0, 1, (r * c, latent_dim))gen_imgs = generator.predict(noise, verbose=0)gen_imgs = 0.5 * gen_imgs + 0.5fig, axs = plt.subplots(r, c)cnt = 0for i in range(r):for j in range(c):axs[i, j].imshow(gen_imgs[cnt, :, :], cmap='gray')axs[i, j].axis('off')cnt += 1fig.savefig(f"mnist_{epoch}.png")plt.close()# Start training
      train(epochs=epochs, batch_size=batch_size, save_interval=1000)
      
  14. 深度强化学习神经元(Deep Reinforcement Learning, 如DQN)

    • 结合了深度学习和强化学习,用于解决决策问题,如游戏AI。

    • 一个深度Q网络(DQN)来解决OpenAI Gym的CartPole-v1。

      import gym
      import numpy as np
      import tensorflow as tf
      from keras import layers# 创建CartPole环境
      env = gym.make('CartPole-v1')
      num_actions = env.action_space.n
      num_states = env.observation_space.shape[0]# 构建深度Q网络模型
      def build_model():model = tf.keras.Sequential([layers.Dense(24, activation='relu', input_shape=(num_states,)),layers.Dense(24, activation='relu'),layers.Dense(num_actions, activation='linear')])model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.001),loss='mse')return modelmodel = build_model()# 超参数
      gamma = 0.99  # 折扣因子
      epsilon = 1.0  # 探索率
      epsilon_min = 0.01  # 最小探索率
      epsilon_decay = 0.995  # 探索率衰减
      batch_size = 64
      memory = []  # 经验回放缓冲区
      max_memory_size = 2000# 经验回放
      def replay():if len(memory) < batch_size:returnbatch = np.random.choice(len(memory), batch_size, replace=False)states = np.zeros((batch_size, num_states))next_states = np.zeros((batch_size, num_states))actions, rewards, dones = [], [], []for i, idx in enumerate(batch):states[i] = memory[idx][0]actions.append(memory[idx][1])rewards.append(memory[idx][2])next_states[i] = memory[idx][3]dones.append(memory[idx][4])target = np.array(rewards)# target = rewardsnot_done_idx = np.where(np.array(dones) == False)[0]if len(not_done_idx) > 0:target[not_done_idx] += gamma * np.amax(model.predict(next_states[not_done_idx]), axis=1)target_f = model.predict(states)for i, action in enumerate(actions):target_f[i][action] = target[i]model.fit(states, target_f, epochs=1, verbose=0)# 主训练循环
      num_episodes = 1000
      for e in range(num_episodes):state = env.reset()state = np.array(state[0]).reshape((1, num_states))for time in range(500):if np.random.rand() <= epsilon:action = np.random.choice(num_actions)else:action = np.argmax(model.predict(state)[0])next_state, reward, done, _, _ = env.step(action)reward = reward if not done else -10next_state = np.reshape(next_state, [1, num_states])memory.append((state, action, reward, next_state, done))if len(memory) > max_memory_size:memory.pop(0)state = next_stateif done:print(f"Episode: {e}/{num_episodes}, Score: {time}, Epsilon: {epsilon:.2}")breakreplay()if epsilon > epsilon_min:epsilon *= epsilon_decayenv.close()
      

      此代码展示了如何使用TensorFlow构建和训练一个深度Q网络,以解决经典的强化学习问题CartPole。以下是代码的主要步骤:

      1. 创建环境:使用Gym库创建CartPole-v1环境。
      2. 构建模型:使用Keras构建一个简单的神经网络模型。
      3. 设置超参数:定义一些强化学习的超参数,比如折扣因子、探索率等。
      4. 经验回放:定义经验回放函数,从缓冲区中抽取批次数据进行训练。
      5. 主训练循环:执行多个训练回合,每回合中通过epsilon-greedy策略选择动作,更新经验回放缓冲区,并使用经验回放进行模型训练。

Capsule神经元(Capsule Neuron)

  • 提供了一种新的方法来处理对象的部分-整体关系,用于提高模型的泛化能力。

  • 演示

    • import tensorflow as tf
      from keras import layers, modelsclass CapsuleLayer(layers.Layer):def __init__(self, num_capsules, dim_capsules, routing_iterations=3, **kwargs):super(CapsuleLayer, self).__init__(**kwargs)self.num_capsules = num_capsulesself.dim_capsules = dim_capsulesself.routing_iterations = routing_iterationsdef build(self, input_shape):self.W = self.add_weight(shape=[input_shape[-1], self.num_capsules * self.dim_capsules],initializer='glorot_uniform',trainable=True)super(CapsuleLayer, self).build(input_shape)def call(self, inputs):batch_size = tf.shape(inputs)[0]inputs_expand = tf.expand_dims(inputs, 2)inputs_tiled = tf.tile(inputs_expand, [1, 1, self.num_capsules, 1])inputs_hat = tf.reshape(inputs_tiled, [-1, tf.shape(inputs)[-1]])inputs_hat = tf.matmul(inputs_hat, self.W)inputs_hat = tf.reshape(inputs_hat, [batch_size, -1, self.num_capsules, self.dim_capsules])b = tf.zeros(shape=[batch_size, tf.shape(inputs)[1], self.num_capsules])for i in range(self.routing_iterations):c = tf.nn.softmax(b, axis=2)s = tf.einsum('bij,bijk->bik', c, inputs_hat)v = self.squash(s)if i < self.routing_iterations - 1:b += tf.einsum('bik,bijk->bij', v, inputs_hat)return vdef squash(self, s):s_squared_norm = tf.reduce_sum(tf.square(s), axis=-1, keepdims=True)scale = s_squared_norm / (1 + s_squared_norm)return scale * s / tf.sqrt(s_squared_norm + tf.keras.backend.epsilon())# Example usage
      input_shape = (None, 28, 28, 1)
      num_classes = 10inputs = layers.Input(shape=input_shape[1:])
      conv1 = layers.Conv2D(256, (9, 9), strides=1, padding='valid', activation='relu')(inputs)
      conv2 = layers.Conv2D(256, (9, 9), strides=2, padding='valid', activation='relu')(conv1)
      conv2_reshaped = layers.Reshape((-1, conv2.shape[-1]))(conv2)capsule_layer = CapsuleLayer(num_capsules=num_classes, dim_capsules=16)(conv2_reshaped)
      output = layers.Lambda(lambda x: tf.sqrt(tf.reduce_sum(tf.square(x), axis=2)))(capsule_layer)model = models.Model(inputs=inputs, outputs=output)
      model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
      model.summary()
      

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/28149.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode | 709.转换成小写字母

这道题可以用api也可以自己实现&#xff0c;都不难&#xff0c;大小字母之前相差了32&#xff0c;检查到大写字母时加上32即可 class Solution(object):def toLowerCase(self, s):""":type s: str:rtype: str"""return s.lower()class Solution…

试论地产需求政策的有效性边界

分析师通过对传统框架因子的分析和美日地产的回顾&#xff0c;指出收入政策将成为核心&#xff0c;测算认为地方收储面积约0.5-1.1亿平、收储资金0.8-1.9万亿元&#xff0c;70城二手房价降幅收窄至[-4.5%&#xff0c;-1.6%]。 事件&#xff1a;2024年5月17日&#xff0c;央行印…

代码生成器功能

代码生成器功能 SELECTtable_name,table_comment,create_time,update_time ,table_schema FROMinformation_schema.TABLES WHEREtable_schema (SELECT DATABASE()) 该SQL语句的作用是从MySQL的information_schema.TABLES表中查询当前数据库下所有表的基本信息。具体解释如下…

git 快速将当前目录添加仓储

一、进入目录 git init git add . git commit -m "init" git remote add origin http://192.168.31.104/root/AutoBuildDemo.git 二、登录gitlab&#xff0c;创建项目AutoBuildDemo 最后执行&#xff1a; git push -u origin master

多线程部分面试题整理

并行和并发 并发&#xff1a;指两个或多个事件在同一个时间段内发生。&#xff08;单核&#xff09; 并行&#xff1a;指两个或多个事件在同一时刻发生&#xff08;同时发生&#xff0c;多核&#xff09; 自定义线程的方式 创建线程方式有四种&#xff1a; 继承Thread类&…

django orm 查询返回指定关键字

django orm 查询返回指定关键字 在Django ORM中,可以使用以下方式查询并返回指定的关键字 使用 values() 方法: # 查询并返回 name 和 email 字段 results MyModel.objects.values(name, email)这将返回一个包含 name 和 email 字段的 QuerySet 对象。每个结果都是一个字典…

web前端设计nav:深入探索导航栏设计的艺术与技术

web前端设计nav&#xff1a;深入探索导航栏设计的艺术与技术 在web前端设计中&#xff0c;导航栏&#xff08;nav&#xff09;扮演着至关重要的角色&#xff0c;它不仅是用户浏览网站的指引&#xff0c;更是网站整体设计的点睛之笔。本文将从四个方面、五个方面、六个方面和七…

通用VS垂直,谁将领跑?

AI大模型的战场分化&#xff1a;通用VS垂直&#xff0c;谁能率先领跑&#xff1f; 在当前的AI大模型领域&#xff0c;一场激烈的竞争正在上演。通用大模型和垂直大模型在落地场景上的优劣各有千秋&#xff0c;究竟谁能在这一竞争中率先领跑呢&#xff1f; 首先&#xff0c;通用…

数据库的性能监控和调优工具

数据库的性能监控和调优是确保数据库高效、稳定运行的关键环节。以下是关于数据库性能监控和调优工具的清晰归纳&#xff1a; 1. 开源免费数据库监控工具 Netdata&#xff1a;一个开源的数据库、系统、容器和应用程序监控项目&#xff0c;能够收集指标&#xff0c;并将信息美…

Github 2024-06-12 C开源项目日报 Top10

根据Github Trendings的统计,今日(2024-06-12统计)共有10个项目上榜。根据开发语言中项目的数量,汇总情况如下: 开发语言项目数量C项目10PHP项目1PLpgSQL项目1C++项目1Ventoy: 100%开源的可启动USB解决方案 创建周期:1534 天开发语言:C协议类型:GNU General Public Licen…

2024年7款硬盘恢复软件:即刻恢复硬盘删除的文件!

当文件被删除后&#xff0c;它并不是立即从硬盘中消失&#xff0c;而是被标记为“已删除”&#xff0c;等待垃圾回收处理。因此&#xff0c;在文件被删除后&#xff0c;有几种方法可以尝试恢复删除的数据。 以下是7款常用的数据恢复软件&#xff0c;以及它们的详细介绍&#xf…

单片机与DHT11温湿度检测设计

本次设计是采用STC89C54单片机加上低成本的温湿度模块DHT11构成的温湿度检测系统。设计主要由硬件与软件两部分设计构成。硬件方面包括单片机STC89C54、温湿度模块DHT11、显示模块LCD1602、电池电源、I2C存储器以及控制按键等5个部分。此系统完全基于单片机最小系统并进行一定的…

【C++ | 静态成员】类的 静态(static)数据成员、静态(static)成员函数 详解及例子代码

&#x1f601;博客主页&#x1f601;&#xff1a;&#x1f680;https://blog.csdn.net/wkd_007&#x1f680; &#x1f911;博客内容&#x1f911;&#xff1a;&#x1f36d;嵌入式开发、Linux、C语言、C、数据结构、音视频&#x1f36d; ⏰发布时间⏰&#xff1a;2024-06-16 0…

Electron+vite+vuetify项目搭建

最近想用Electron来进行跨平台的桌面应用开发。同时想用vuetify作为组件&#xff0c;于是想搭建一个这样的开发环境。其中踩了不少坑&#xff0c;总是会出现各种的编译错误和问题&#xff0c;依赖的各种问题&#xff0c;搞了好久最终环境终于弄好可正常开发了。这里分享下快速搭…

前端面试题日常练-day71 【面试题】

题目 希望这些选择题能够帮助您进行前端面试的准备&#xff0c;答案在文末 好的&#xff0c;以下是另外五个与Sass相关的选择题&#xff1a; Sass中&#xff0c;以下哪个符号用于声明一个变量&#xff1f; a) $ b) c) # d) & 在Sass中&#xff0c;以下哪个符号用于引入…

践行国产化替代,优刻得私有云勇当先锋

编辑&#xff1a;阿冒 设计&#xff1a;沐由 阳泉&#xff0c;十万火急&#xff01; 位于太行山西麓的山西省阳泉市&#xff0c;是一座历史悠久、底蕴深厚、资源丰富的名城&#xff0c;拥有超百万常住人口&#xff0c;国内生产总值在2022年成功跨越千亿元大关。然而&#xff0c…

「C系列」C 共用体

文章目录 一、C 共用体1. 定义共用体2. 初始化共用体变量3. 访问共用体成员4. 共用体的用途 二、C 共用体常见问题1. 内存覆盖问题2. 类型混淆3. 初始化问题4. 跨平台兼容性问题5. 逻辑错误 三、相关链接 一、C 共用体 在C语言中&#xff0c;共用体&#xff08;union&#xff…

RocketMQ源码学习笔记:源码启动NameServer,Broker

这是本人学习的总结&#xff0c;主要学习资料如下 马士兵教育rocketMq官方文档 目录 1、Overview2、NameServer2.1、源码启动NameServer 3、Broker启动过程 1、Overview 这篇文章的源码的版本是release-4.9.8。在启动各个模块之前应该先对项目进行打包mvn install -Dmaven.te…

OS复习笔记ch9-1

单处理器调度 调度类型 主要类型 长程调度&#xff1a;决定将哪个进程放入进程池中 中程调度&#xff1a;决定将哪些进程部分或者全部放入内存中 短程调度&#xff1a;决定哪个空闲进程上处理机 I/O调度&#xff1a;决定哪个进程的I/O请求被可用的I/O设备处理 处理器调度和进…

HTML中的<img>标签使用指南

在HTML中&#xff0c;<img>标签用于嵌入图片。它是一个自闭合标签&#xff0c;意味着它没有结束标签。<img>标签的属性可以控制图片的显示方式和来源。以下是<img>标签的使用和属性的详细介绍。 <img>标签的基本用法 基本的<img>标签只需要src…