云南昌旅游的网站建设,网站由谁备案,站群管理,wordpress域名访问点击上方“服务端思维”#xff0c;选择“设为星标”回复”669“获取独家整理的精选资料集回复”加群“加入全国服务端高端社群「后端圈」利用唯一请求编号去重你可能会想到的是#xff0c;只要请求有唯一的请求编号#xff0c;那么就能借用Redis做这个去重——只要这个唯一… 点击上方“服务端思维”选择“设为星标”回复”669“获取独家整理的精选资料集回复”加群“加入全国服务端高端社群「后端圈」利用唯一请求编号去重你可能会想到的是只要请求有唯一的请求编号那么就能借用Redis做这个去重——只要这个唯一请求编号在redis存在证明处理过那么就认为是重复的代码大概如下String KEY REQ12343456788;//请求唯一编号 long expireTime 1000;// 1000毫秒过期1000ms内的重复请求会认为重复 long expireAt System.currentTimeMillis() expireTime; String val expireAt expireAt; //redis key还存在的话要就认为请求是重复的 Boolean firstSet stringRedisTemplate.execute((RedisCallback) connection - connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime), RedisStringCommands.SetOption.SET_IF_ABSENT)); final boolean isConsiderDup; if (firstSet ! null firstSet) {// 第一次访问 isConsiderDup false; } else {// redis值已存在认为是重复了 isConsiderDup true; }业务参数去重上面的方案能解决具备唯一请求编号的场景例如每次写请求之前都是服务端返回一个唯一编号给客户端客户端带着这个请求号做请求服务端即可完成去重拦截。但是很多的场景下请求并不会带这样的唯一编号那么我们能否针对请求的参数作为一个请求的标识呢先考虑简单的场景假设请求参数只有一个字段reqParam我们可以利用以下标识去判断这个请求是否重复。用户ID:接口名:请求参数String KEY dedup:UuserId M method P reqParam;那么当同一个用户访问同一个接口带着同样的reqParam过来我们就能定位到他是重复的了。但是问题是我们的接口通常不是这么简单以目前的主流我们的参数通常是一个JSON。那么针对这种场景我们怎么去重呢计算请求参数的摘要作为参数标识假设我们把请求参数(JSON)按KEY做升序排序排序后拼成一个字符串作为KEY值呢但这可能非常的长所以我们可以考虑对这个字符串求一个MD5作为参数的摘要以这个摘要去取代reqParam的位置。String KEY dedup:UuserId M method P reqParamMD5;这样请求的唯一标识就打上了注MD5理论上可能会重复但是去重通常是短时间窗口内的去重(例如一秒)一个短时间内同一个用户同样的接口能拼出不同的参数导致一样的MD5几乎是不可能的。继续优化考虑剔除部分时间因子上面的问题其实已经是一个很不错的解决方案了但是实际投入使用的时候可能发现有些问题某些请求用户短时间内重复的点击了(例如1000毫秒发送了三次请求)但绕过了上面的去重判断(不同的KEY值)。原因是这些请求参数的字段里面是带时间字段的这个字段标记用户请求的时间服务端可以借此丢弃掉一些老的请求(例如5秒前)。如下面的例子请求的其他参数是一样的除了请求时间相差了一秒 //两个请求一样但是请求时间差一秒 String req {\n \requestTime\ :\20190101120001\,\n \requestValue\ :\1000\,\n \requestKey\ :\key\\n }; String req2 {\n \requestTime\ :\20190101120002\,\n \requestValue\ :\1000\,\n \requestKey\ :\key\\n };这种请求我们也很可能需要挡住后面的重复请求。所以求业务参数摘要之前需要剔除这类时间字段。还有类似的字段可能是GPS的经纬度字段(重复请求间可能有极小的差别)。请求去重工具类Java实现public class ReqDedupHelper { /** * * param reqJSON 请求的参数这里通常是JSON * param excludeKeys 请求参数里面要去除哪些字段再求摘要 * return 去除参数的MD5摘要 */ public String dedupParamMD5(final String reqJSON, String... excludeKeys) { String decreptParam reqJSON; TreeMap paramTreeMap JSON.parseObject(decreptParam, TreeMap.class); if (excludeKeys!null) { List dedupExcludeKeys Arrays.asList(excludeKeys); if (!dedupExcludeKeys.isEmpty()) { for (String dedupExcludeKey : dedupExcludeKeys) { paramTreeMap.remove(dedupExcludeKey); } } } String paramTreeMapJSON JSON.toJSONString(paramTreeMap); String md5deDupParam jdkMD5(paramTreeMapJSON); log.debug(md5deDupParam {}, excludeKeys {} {}, md5deDupParam, Arrays.deepToString(excludeKeys), paramTreeMapJSON); return md5deDupParam; } private static String jdkMD5(String src) { String res null; try { MessageDigest messageDigest MessageDigest.getInstance(MD5); byte[] mdBytes messageDigest.digest(src.getBytes()); res DatatypeConverter.printHexBinary(mdBytes); } catch (Exception e) { log.error(,e); } return res; }}下面是一些测试日志 public static void main(String[] args) { //两个请求一样但是请求时间差一秒 String req {\n \requestTime\ :\20190101120001\,\n \requestValue\ :\1000\,\n \requestKey\ :\key\\n }; String req2 {\n \requestTime\ :\20190101120002\,\n \requestValue\ :\1000\,\n \requestKey\ :\key\\n }; //全参数比对所以两个参数MD5不同 String dedupMD5 new ReqDedupHelper().dedupParamMD5(req); String dedupMD52 new ReqDedupHelper().dedupParamMD5(req2); System.out.println(req1MD5 dedupMD5 , req2MD5dedupMD52); //去除时间参数比对MD5相同 String dedupMD53 new ReqDedupHelper().dedupParamMD5(req,requestTime); String dedupMD54 new ReqDedupHelper().dedupParamMD5(req2,requestTime); System.out.println(req1MD5 dedupMD53 , req2MD5dedupMD54);}日志输出req1MD5 9E054D36439EBDD0604C5E65EB5C8267 , req2MD5A2D20BAC78551C4CA09BEF97FE468A3Freq1MD5 C2A36FED15128E9E878583CAAAFEFDE9 , req2MD5C2A36FED15128E9E878583CAAAFEFDE9日志说明一开始两个参数由于requestTime是不同的所以求去重参数摘要的时候可以发现两个值是不一样的第二次调用的时候去除了requestTime再求摘要(第二个参数中传入了”requestTime”)则发现两个摘要是一样的符合预期。总结至此我们可以得到完整的去重解决方案如下String userId 12345678;//用户String method pay;//接口名String dedupMD5 new ReqDedupHelper().dedupParamMD5(req,requestTime);//计算请求参数摘要其中剔除里面请求时间的干扰String KEY dedup:U userId M method P dedupMD5;long expireTime 1000;// 1000毫秒过期1000ms内的重复请求会认为重复long expireAt System.currentTimeMillis() expireTime;String val expireAt expireAt;// NOTE:直接SETNX不支持带过期时间所以设置过期不是原子操作极端情况下可能设置了就不过期了后面相同请求可能会误以为需要去重所以这里使用底层API保证SETNX过期时间是原子操作Boolean firstSet stringRedisTemplate.execute((RedisCallback) connection - connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expireTime), RedisStringCommands.SetOption.SET_IF_ABSENT));final boolean isConsiderDup;if (firstSet ! null firstSet) { isConsiderDup false;} else { isConsiderDup true;}— 本文结束 —● 漫谈设计模式在 Spring 框架中的良好实践● 颠覆微服务认知深入思考微服务的七个主流观点● 人人都是 API 设计者● 一文讲透微服务下如何保证事务的一致性● 要黑盒测试微服务内部服务间调用我该如何实现关注我回复 「加群」 加入各种主题讨论群。对「服务端思维」有期待请在文末点个在看喜欢这篇文章欢迎转发、分享朋友圈在看点这里