API请求定制化防刷数据存储策略
介绍
先在gateway网关中进行限制规则的执行验证功能,关于此功能的详细讲解,可跳转到文档
接着要把进行限制的请求记录下来,然后保存起来方便查看,为了尽可能最小的影响程序的性能,决定把保存数据这个步骤使用kafka来进行异步执行,当在gateway产生数据后,放到kafka中,然后由customize服务来进行消费
kafka的配置
生产者配置
在damai-gateway-service服务模块下
参数配置
spring:
kafka:
bootstrap-servers: 127.0.0.1:9092
producer:
retries: 1
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer
topic: save_api_data
Topic配置
@Data
public class KafkaTopic {
@Value("${spring.kafka.topic:default}")
private String topic;
}
发送者配置
@ConditionalOnProperty(value = "spring.kafka.bootstrap-servers")
public class ProducerConfig {
@Bean
public KafkaTopic kafkaTopic(){
return new KafkaTopic();
}
@Bean
public ApiDataMessageSend apiDataMessageSend(KafkaTemplate<String, String> kafkaTemplate, KafkaTopic kafkaTopic){
return new ApiDataMessageSend(kafkaTemplate, kafkaTopic.getTopic());
}
}
@Slf4j
@AllArgsConstructor
public class ApiDataMessageSend {
private KafkaTemplate<String, String> kafkaTemplate;
private String topic;
public void sendMessage(String message) {
log.info("sendMessage message : {}", message);
kafkaTemplate.send(topic,message);
}
}
付费内容提示
该文档的全部内容仅对「JavaUp项目实战&技术讲解」知识星球用户开放
加入星球后,你可以获得:
- 超级八股文:100万+字的全栈技术知识库,涵盖技术核心、数据库、中间件、分布式等深度剖析的讲解
- 讲解文档:黑马点评Plus、大麦、大麦pro、大麦AI、流量切换、数据中台的从0到1的550+详细文档
- 讲解视频:黑马点评Plus、大麦、大麦pro、大麦AI、流量切换、数据中台的核心业务详细讲解
- 1 对 1 解答:可以对我进行1对1的问题提问,而不仅仅只限于项目
- 针对性服务:有没理解的地方,文档或者视频还没有讲到可以提出,本人会补充
- 面试与简历指导:提供面试回答技巧,项目怎样写才能在简历中具有独特的亮点
- 中间件环境:对于项目中需要使用的中间件,可直接替换成我提供的云环境
- 面试后复盘:小伙伴去面试后,如果哪里被面试官问住了,可以再找我解答
- 远程的解决:如果在启动项目遇到问题,本人可以帮你远程解决
进入星球后,即可享受上述所有服务,保证不会再有其他隐藏费用。
