目前已经把之前记录的方法都实现了,目前的主函数可以写的更简单比如
int main(int argc, char* argv[])
{KernelClass::create_kernel();MPI_Init(&argc, &argv);kernel().mpi_manager.init_mpi(argc, argv);//创建种群int group1 = kernel().conn_manger.create(2);int group2 = kernel().conn_manger.create(2);int group3 = kernel().conn_manger.create(1);std::cout << "一共创建了" << kernel().conn_manger.get_neuron_size() << std::endl;//种群之间的连接SynapseParams s;s.delay = 1.5;s.weight = 0.2;kernel().conn_manger.connect(group1, group2, 1.0);kernel().conn_manger.connect(group2, group3, 1.0, s);//进行图分区kernel().conn_manger.partition_network();//所有管理类的参数和变量的初始化kernel().initialize();//神经元和突触的实例化kernel().conn_manger.generateSynapseAndNeuron();//设置仿真的参数double dt = 0.1; //时间戳double sim_time = 20; //仿真时间(ms)int slice = static_cast<int>(sim_time / kernel().conn_manger.get_min_delay());//总共要执行循环数double current_time = 0;Time clock; //模拟时钟,每个切片更新一次int from_step = 0,to_step = kernel().conn_manger.get_min_delay();//开始仿真std::cout << "开始仿真" << std::endl;MPI_Barrier(MPI_COMM_WORLD);for (int timestep = 0; timestep < slice; timestep++){if (kernel().mpi_manager.get_rank() == 0){std::cout << "---------------------------------------" << std::endl;}//更新神经元const std::vector< Neuron* >& local_nodes = kernel().conn_manger.get_local_nodes();for (auto node : local_nodes){(*node).update(clock, from_step, to_step);}//设置目前的时间kernel().sim_manager.set_slice_origin(clock);// 传递脉冲kernel().event_manager.gather_spike_data();//管理时间clock.advance_time(kernel().conn_manger.get_min_delay());//更新双缓冲kernel().event_manager.update_moduli();}std::cout << "结束仿真" << std::endl;MPI_Finalize();kernel().finalize();KernelClass::delete_kernel();
}
运行结果如下
我优化了很多的方面。最大的优化在脉冲传输阶段
我使用了
// key代表神经元的gid,value代表需要通信的进程号
std::unordered_map<int, std::set<int>> comm_proccess;
这样的数据结构,使用set为了避免重复的脉冲发送,使用这个数据结构的好处是,可以不在使用全局的邻接表,减少了内存的占用。而且减少了代码量。目前基本上已经完成了大部分的基础工作,接下来我希望能够在我代码中实现STDP的机制。