Easter79 Easter79
4年前
sqlcipher 移植
sqlcipher简介  SQLCipher是一个对sqlite数据库进行aes256加密的开源库,提供透明,安全的256位AES加密的SQLite数据库文件,项目本身不提供加密算法,调用openssl的aes加密算法  SQLCipher的社区版的源代码是一个BSD风格的开源许可下发布,但是官方提供的二进制库需要购买
Easter79 Easter79
4年前
thrift详解
背景thrift最早由facebook开发,后来贡献给了apache。thrift主要解决跨语言调用的问题。thrift和protobuf有啥区别?thrift和protobuf,都解决了一个问题就是夸语言数据结构的定义,json也解决了跨语言的数据结构定义,只不过json都是字符串的,传输的开销和解析的开销可能有些大。那么想传输二
Wesley13 Wesley13
4年前
java多线程加锁的简单处理办法
    当对数据修改时,如果两个线程同时去修改同一条数据,这样产生的结果就不是我们预期的结果。这时候就需要对修改操作进行加锁,让jvm里同一时刻只能有一个线程能够执行修改方法。    下面是一个未加锁的修改方法:   public void update(Entry entry){    dao.update(entry);
Wesley13 Wesley13
4年前
Java程序使用memcached配置与示例
Memcached作为一款很强大的分布式缓存,经常被用到大型的互联网应用中,比如新浪微博等都采用memcached做缓存。Memcached也经常和MySQL组合做数据缓存。具体的介绍请参考官方网站:www.memcached.org这里通过安装配置Memcached,并通过Java客户端来使用memcached进行存储和读取缓存数据。
Stella981 Stella981
4年前
ElasticSearch之安装及基本操作API
!(https://oscimg.oschina.net/oscnet/upb1199a4cc6dafbb796e5cb4ccf76dbde1ab.png)ElasticSearch是目前非常流行的搜索引擎,对海量数据搜索是非常友好,并且在高并发场景下,也能发挥出稳定,快速特点。也是大数据和索搜服务的开发人员所极力追捧的中间件。虽然Elas
Stella981 Stella981
4年前
Spark Streaming 交互 Kafka的两种方式
一、SparkStreaming连Kafka(重点)方式一:Receiver方式连:走磁盘使用HighLevelAPI(高阶API)实现Offset自动管理,灵活性差,处理数据时,如果某一时刻数据量过大就会磁盘溢写,通过WALS(WriteAheadLogs)进行磁盘写入,0.10版本之后被舍弃,相当于一个人拿着一个水杯去接水,水龙头的
Wesley13 Wesley13
4年前
MySQL Index
1、索引创建1)查看表中的索引,showindexfromtable;showindexesfromtable;2)我们一般都不在数据库层面限制外键,因为约束太多数据库压力太大,死锁产生的概率也会变大,但是关联字段肯定是会有的,这些关联字段都必须建立索引,因为外键都是为了关联查询的,连接条件最好有索引可用。3)经常出
Wesley13 Wesley13
4年前
Java开发看的Scala入门
!(https://oscimg.oschina.net/oscnet/04530673d87683895d141f87bf05a4467d9.jpg"每篇一句")每篇一句前言对于Scala语言其实很早有所耳闻,但没有真正进一步了解,只知道这门语言在大数据领域很火。正如前几年大数据开发的兴起,也着实让这门基于JVM的语言火了一
Stella981 Stella981
4年前
BaikalDB技术实现内幕(三)
本系列文章主要介绍HTAP数据库BaikalDB的技术实现细节作者简介:于正泉,百度商业平台研发部高级研发工程师。主要从事分布式存储、分布式数据库等领域的工作,现主要负责BaikalDBSQL性能优化,稳定性相关方向的研发工作。欢迎关注Stargithub.com/baidu/BaikalDB(https://www.
Stella981 Stella981
4年前
Elasticsearch分页解决方案
一、命令的方式做分页1、常见的分页方式:fromsizeelasticsearch默认采用的分页方式是fromsize的形式,但是在深度分页的情况下,这种使用方式的效率是非常低的,比如from5000,size10,es需要在各个分片上匹配排序并得到5000\10条有效数据,然后在结果集中取最后10条数据返回。除了会遇到效率上的问题