一、定义
遗传算法就像是在模拟“优胜劣汰”的进化过程,通过选择最优秀的个体,交配产生下一代,并引入一定的变异,逐步优化解决问题。
二、具体步骤
-
初始化种群(Initialization):
假设你要找到一个迷宫的最佳出口路径。首先,你随机生成一群“路径”作为初始种群(就像是一群随机的迷宫探险者)。生成初始种群 P(0),其中 P(0)={x1,x2,…,xN}。每个个体是一个解的候选向量,随机生成。
-
计算适应度(Fitness Calculation):
每条路径都有一个“适应度”,代表了它的好坏。比如,走的距离短、碰到的墙少的路径适应度更高。对种群中的每个个体,计算其适应度值 ,适应度函数 f 用于评估个体的优劣。
-
选择 (Selection):
根据适应度选择一些表现最好的路径。适应度高的路径被选中的概率更大(就像在自然界中适应环境的生物更容易生存)。根据适应度值选择个体,以组建下一代。常用的方法包括轮盘赌选择、排序选择等。假设用轮盘赌选择,每个个体被选择的概率为:
-
交叉(交配)(Crossover):
选择出来的好路径进行“交配”,生成新的路径(下一代)。交配的过程类似于把两条路径的不同部分组合在一起,形成新的路径。从选出的个体中随机配对进行交叉,生成新的子代。假设单点交叉,两个个体 x1 和 x2 在位置 k 进行交叉生成新个体:
-
变异 (Mutation):
在新生成的路径中,随机改变一些部分(变异)。比如,某条路径的某一步骤突然改变方向。这就像是自然界中的基因突变。对新个体进行变异操作,即随机改变个体的某些基因。假设变异在第 j 个位置,对 xi 变异后得到 xi′:
其中 是变异后的值。
-
重复(Iteration):
重复上述过程多次,每次都选择最好的路径进行交配和变异。经过若干代的进化,路径会越来越接近理想的解决方案。重复步骤2到5,直到满足终止条件(如达到最大迭代次数或适应度满足某个阈值)。
三、例子
想象你在一个迷宫里找出口,你和一群朋友决定用遗传算法来找最快的路。
- 第一步:每个人随便走一条路,大家都出发了。
- 第二步:回来后,大家比较谁走的路最短,谁碰到的障碍最少。
- 第三步:选出几个走得最好的朋友,让他们把自己的路线告诉大家。
- 第四步:大家根据好朋友的路线,进行一些组合和调整,再次出发。
- 第五步:有时候,你们会决定“赌一把”,随便改变下路线中的某个部分,希望能找到更好的路。
- 第六步:重复这个过程,经过多次尝试,你们最终找到了迷宫的最佳出口路径。
四、Python示例
举一个简单的例子,我们不妨用遗传算法优化一个一维二次函数 。这个函数在数学上是一个凸函数,其最小值为 0
,出现在 x=0
处。尽管简单,但它展示了遗传算法的基本原理和步骤,包括种群初始化、适应度评估、选择、交叉和变异等。可以直观地理解遗传算法是如何通过迭代逐步逼近最优解的。我已将详细的注释写在了代码中。
import numpy as np
import matplotlib.pyplot as plt# 定义目标函数
# 最小化的函数是 x^2
def fitness(x):return x ** 2# 初始化种群
# 生成一个大小为 size 的种群,每个个体的值在 bounds 范围内。生成的是一个二维数组,每个个体是一个一维数组
def initialize_population(size, bounds):return np.random.uniform(bounds[0], bounds[1], (size, 1))# 选择个体(轮盘赌选择)
# 基于个体的适应度值进行选择。适应度值越低的个体被选择的概率越高(因为我们在最小化函数)
def selection(pop, fitness_values):total_fitness = np.sum(fitness_values) # 所有个体的总适应度值probabilities = fitness_values / total_fitness # 每个个体被选择的概率indices = np.random.choice(len(pop), size=len(pop), p=probabilities.flatten()) # 根据这些概率随机选择个体,生成新的种群return pop[indices]# 交叉操作(单点交叉)
def crossover(pop, crossover_rate=0.7):offspring = []for i in range(0, len(pop), 2): # 以步长为2遍历种群parent1, parent2 = pop[i], pop[i + 1] # 随机选择两个父代if np.random.rand() < crossover_rate and parent1.size > 1: # 如果随机数小于交叉概率且父代长度大于1cross_point = np.random.randint(1, parent1.size) # 选择一个交叉点child1 = np.concatenate([parent1[:cross_point], parent2[cross_point:]]) # 在该点进行单点交叉生成两个子代child2 = np.concatenate([parent2[:cross_point], parent1[cross_point:]])else: # 如果不满足交叉条件,直接复制父代作为子代。child1, child2 = parent1, parent2offspring.append(child1)offspring.append(child2)return np.array(offspring)# 变异操作(简单变异)
def mutation(pop, mutation_rate=0.01, bounds=(-10, 10)):for i in range(len(pop)):if np.random.rand() < mutation_rate: # 如果随机数小于变异概率mut_point = np.random.randint(0, pop[i].size) # 随机选择该个体中的一个基因位置pop[i][mut_point] = np.random.uniform(bounds[0], bounds[1])return pop# 主遗传算法流程
def genetic_algorithm(pop_size, bounds, num_generations, crossover_rate, mutation_rate):# 初始化种群pop = initialize_population(pop_size, bounds)best_solutions = []for gen in range(num_generations):# 计算适应度fitness_values = fitness(pop)# 选择selected_pop = selection(pop, fitness_values)# 交叉offspring = crossover(selected_pop, crossover_rate)# 变异pop = mutation(offspring, mutation_rate, bounds)# 保存当前代的最佳个体best_solutions.append(np.min(fitness_values))return pop, best_solutions# 参数设置
pop_size = 5000 # 种群大小 增大种群规模: 5000->100000
bounds = (-10, 10) # 每个个体的取值范围
num_generations = 200 # 遗传算法运行的代数 增加迭代次数: 100->200
crossover_rate = 0.7 # 交叉概率
mutation_rate = 0.01 # 变异概率 增加变异率以增加多样性: 0.01->0.05# 运行遗传算法
final_pop, best_solutions = genetic_algorithm(pop_size, bounds, num_generations, crossover_rate, mutation_rate)# 绘制结果
plt.plot(best_solutions)
plt.xlabel('Generation')
plt.ylabel('Fitness (Minimized Value of x^2)')
plt.title('Genetic Algorithm Optimization')
plt.show()# 输出最终的最佳解
best_individual = final_pop[np.argmin(fitness(final_pop))]
print("Best solution found:", best_individual)
print("Fitness of the best solution:", fitness(best_individual))
结果如下:
Best solution found: [0.09278514]
Fitness of the best solution: [0.00860908]
该结果已经找到了一个较精确的解,接近全局最优解(即 x=0
)。我们不妨将 pop_size
增大到 10000,以覆盖更大的搜索空间;将 num_generations
增加到 400,让算法有更多时间收敛;将 mutation_rate
增加到 0.05,以增加种群的多样性,经过漫长的等待,会得到一个更加精确的结果。
Best solution found: [-0.01888039]
Fitness of the best solution: [0.00035647]
若要进一步提高算法的表现,我们还可以尝试以下几种改进方法:
- 调整选择策略:使用锦标赛选择等替代选择策略。
- 增加种群多样性:引入精英保留策略,将最优个体直接保留到下一代。
- 检查适应度函数:确保适应度函数正确计算。
- 调整初始化种群范围:可能初始化范围太大导致搜索空间过于分散。