Stella981 Stella981
4年前
Kafka consumer poll(long)与poll(Duration)的区别
最近在StackOverflow(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fstackoverflow.com%2Fquestions%2F55858352%2Fkafkaconsumerassignmentreturnsempty)碰到的一个问题,即在consumer.po
Stella981 Stella981
4年前
Apache Kafka、Apache Pulsar和RabbitMQ性能测试对比
ApacheKafka(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fkafka.apache.org%2F)、ApachePulsar(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fpulsar.apache.
Stella981 Stella981
4年前
Spring Cloud Edgware之后版本 Zipkin+Kafka整合
zipkin服务器端1、依赖<!zipkinserver<dependency<groupIdio.zipkin.java</groupId<artifactIdzipkinautoconfigureui</artifactId</dependency
Stella981 Stella981
4年前
Spark Streaming 交互 Kafka的两种方式
一、SparkStreaming连Kafka(重点)方式一:Receiver方式连:走磁盘使用HighLevelAPI(高阶API)实现Offset自动管理,灵活性差,处理数据时,如果某一时刻数据量过大就会磁盘溢写,通过WALS(WriteAheadLogs)进行磁盘写入,0.10版本之后被舍弃,相当于一个人拿着一个水杯去接水,水龙头的
Stella981 Stella981
4年前
Flume sink Kafka Spout Storm Bolt Hbase or Redis (Flume)
Flume可以应用于日志采集.在本次的介绍中,主要用于采集应用系统的日志,将日志输出到kafka,再经过storm进行实施处理.我们会一如既往的光顾一下flume的官网,地址如下:flume官网(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fflume.apache.org%2F
Stella981 Stella981
4年前
Kafka生产者各种启动参数说明
首先是启动一个生产者finalStringkafkazk"localhost:9092";Stringtopic"testAPI";PropertiespropertiesnewProperties(){{put(ProducerConfig.
Stella981 Stella981
4年前
Git本地上传到服务器
1.本机window系统的话先下载安装git 下载后在开始菜单里面找到"GitGitBash"进入命令2.找到要上传的目录,通过命令gitinit把这个目录变成git可以管理的仓库gitinit3、把文件添加到版本库中,使用命令gitadd.添加到暂存区里面去,不要忘记后面的小数点“.”,意为添加文件夹下的所
Wesley13 Wesley13
4年前
10个你可能不曾用过,却很有用的 LINUX 命令
点击关注上方“SQL数据库开发”,设为“置顶或星标”,第一时间送达干货下面可能是你不曾用过后十个Linux的命令。相当的有用。1)pgreppgrep名字前有个p,我们可以猜到这和进程相关,又是grep,当然这是进程相关的grep命令。不过,这个命令主要是用来列举进程ID的。如:
Stella981 Stella981
4年前
Apache Kafka:大数据的实时处理时代
作者|王国璋编辑|小智在过去几年,对于ApacheKafka的使用范畴已经远不仅是分布式的消息系统:我们可以将每一次用户点击,每一个数据库更改,每一条日志的生成,都转化成实时的结构化数据流,更早的存储和分析它们,并从中获得价值。同时,越来越多的企业应用也开始从批处理数据平台向实时的流数据数据平台转移。本演讲将介绍最近ApacheKafka
Stella981 Stella981
4年前
Kafka相关内容总结(概念和原理)
说明主要内容是在网上的一些文章中整理出来;加粗的字体是比较重要的内容,部分是自己的经验和理解;整理的目的主要是为了方便查阅;为什么需要消息系统解耦:在项目启动之初来预测将来项目会碰到什么需求,是极其困难的。消息队列在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实