日志采集不知道详细的流程
时间: 2019-03-15来源:博客园
前景提要
日志采集不知道详细的流程
0 悬赏园豆: 200 [待解决问题] 就是想问一下,我在问一个问题,就是日志采集,实时的,Flume +Kafka+SparkStreaming,然后进行数据可视化,其中,日志数据到Flume这一块,数据进行处理吗,还是源日志数据,还是直接下沉到Kafka 让SparkStreaming进行数据分析处理,然后到 redis 进行数据可视化。
日志采集详细流程是什么样的,就Flume这块,source连接到指定的数据源,在source把数据传到channel时候要先把日志数据通过spark job 进行处理清晰获取到有效数据再给channel 日志采集大数据 极海听雷 | 初学一级 | 园豆: 2
提问于:2019-03-15 19:41 显示帮助
使用"Ctrl+Enter"可进行快捷提交,评论支持部分 Markdown 语法:[link](http://example.com) _italic_ **bold** `code`。
< > 分享
分享您的问题
所有回答(1) 0 看下有帮助吗:
https://blog.csdn.net/kwu_ganymede/article/details/50761952
https://www.jianshu.com/p/8d34a9a5fc01
https://bit1129.iteye.com/blog/2185928 三人乐乐 | 园豆:3245 (老鸟四级) | 2019-03-16 11:31 编辑文本 预览 上传图片
Ctrl+Enter键快速提交
清除回答草稿
您需要 登录 以后才能回答,未注册用户请先 注册 。

科技资讯:

科技学院:

科技百科:

科技书籍:

网站大全:

软件大全:

热门排行