bug出现背景
集群产生的日志要求traceId不重复,使用雪花算法生成traceId
报错形式如下
为什么本地无法复现测试环境的bug
因为bug的出现本身就是概率性的事件
代码如下
public static Long workId = Long.parseLong(String.valueOf(NetUtil.getLocalhostStr().hashCode() + new Random().nextInt(99999))) % 31;
这里取hashCode后的数字加上99999数字,可能会越界变成负数,因为这里的workId需要在0到31之间就不被满足
测试复现
public static void main(String[] args) {for (int i = 0; i < 100000; i++) {Long workId = Long.parseLong(String.valueOf(new Random().nextInt(Integer.MAX_VALUE) + new Random().nextInt(99999))) % 31;if (workId < 0) {System.out.println(workId);}}}
如果有人想到用abs做解决方案的话,会有一种极端情况如下
雪花算法的用法
第一种
每次都用工具创建实例,再去生成
return IdUtil.getSnowflake(workId, centerId).nextIdStr();
第二种
用工具创建snowflake单例,id每次用单例中生成
// 静态变量public static Snowflake snowflake = IdUtil.getSnowflake(workId, centerId);return snowflake.nextIdStr();
第一反应,第一种创建的方式是错误的。两个实例对于雪花id的创建是不会有加锁限制的。
源码分析
这里是使用Singleton创建public static Snowflake getSnowflake(long workerId, long datacenterId) {return (Snowflake)Singleton.get(Snowflake.class, new Object[]{workerId, datacenterId});}
使用到这里先去get,如果get到直接返回,没有get到,就反射创建对象public static <T> T get(Class<T> clazz, Object... params) {Assert.notNull(clazz, "Class must be not null !", new Object[0]);String key = buildKey(clazz.getName(), params);return get(key, () -> {return ReflectUtil.newInstance(clazz, params);});}// 存储实例的地方private static final SafeConcurrentHashMap<String, Object> POOL = new SafeConcurrentHashMap();public static <T> T get(String key, Func0<T> supplier) {return POOL.computeIfAbsent(key, (k) -> {return supplier.callWithRuntimeException();});}
也就是说,hutool工具snowflake开发的时候已经考虑到有 水平不怎么高的程序员使用,而进行了代码上的兜底。上面的单例对象也可以借鉴学习
性能上也没有实质性的差距
上面hutool如何保证两个线程都初始创建对象的时候的绝对单例
SafeConcurrentHashMap 这个map是自己封装的
重写了 computeIfAbsent为啥封装一个静态的mapUtilpublic V computeIfAbsent(K key, Function<? super K, ? extends V> mappingFunction) {return MapUtil.computeIfAbsent(this, key, mappingFunction);}
没有找到类似双重检查锁的代码。。。。到这里结束吧