就是想问一下,我在问一个问题,就是日志采集,实时的,Flume +Kafka+SparkStreaming,然后进行数据可视化,其中,日志数据到Flume这一块,数据进行处理吗,还是源日志数据,还是直接下沉到Kafka 让SparkStreaming进行数据分析处理,然后到 redis 进行数据可视化。
日志采集详细流程是什么样的,就Flume这块,source连接到指定的数据源,在source把数据传到channel时候要先把日志数据通过spark job 进行处理清晰获取到有效数据再给channel