Wesley13 Wesley13
4年前
layim的websocket消息撤回功能实现
我的大概思路就是,前端根据选取的内容获得他的cid,我的cid是js生成的uuid,然后:1、通过websocket广播给对应的人去删除localstorage里的缓存,2、ajax异步请求删除数据库里的数据记录3、如果对方此时也打开了聊天面板就要用jquery找到那条消息然后remove。由于目前发现layim3.6版本并没有给自己
Wesley13 Wesley13
4年前
Java 解决Emoji表情过滤问题
Emoji表情从三方数据中获取没有过滤,导致存入DB的时候报错。!(https://oscimg.oschina.net/oscnet/78996c93aca4143fd8a5ea48a805b617745.png)原因:UTF8编码有可能是两个、三个、四个字节。Emoji表情是4个字节,而Mysql的utf8编码最多3个字节,所以数据插不
Easter79 Easter79
4年前
SwiftCommon之Cookie处理
概述在IOS中,cookie数据是由NSHTTPCookieStorage类来管理的,从其类名可以看出,这是一个仓库,一个专门存放Cookie数据的仓库。我们从中获取一个Cookie,得到到的是一个NSHTTPCookie类,它包装了一个完整的Cookie,我们通过这个类可以获取Cookie的各种信息。在默认情况下,当一个网络请求接收到Coo
Wesley13 Wesley13
4年前
JN_0006:MongoDB未授权访问漏洞处理
开启MongoDB服务时不添加任何参数时,默认是没有权限验证的,登录的用户可以通过默认端口无需密码对数据库任意操作而且可以远程访问数据库。2.【修复建议】:临时方案:配置AUTH,做好访问认证。打开MongoDB配置文件(.conf),设置为authtrue;修改访问端口和指定访问ip。使其只监听私有IP(或本地IP),不监听任何公
可莉 可莉
4年前
2019年初,一次Confluence迁移升级历程
AtlassianConfluence从5.7.1升级到6.14.1背景随着时间的推移用户量不断增长数据量也越来越大Confluence最初安装使用的是内存数据库由于这个技术债务所需的资源(尤其是内存)越来越大服务启动所需JVM需求不断增长:4G—8G—12G曾出现因JVM不足导致系统慢或重启失
Stella981 Stella981
4年前
Flask(中间件与全局变量 九)
中间件middlewarerequest当Flask应用处理请求时,它会根据从WSGI服务器收到的环境创建一个Request对象.因为工作者(取决于服务器的线程,进程或者协程)一次只能处理一个请求,所以在该请求期间请求数据可被认为是该工作者的全部数据。Flask对此的术语为本地请求请
Wesley13 Wesley13
4年前
Java面试通关要点汇总Java基础、集合、数据库、spring框架、分布式、微服务(备战秋招)
Java面试通关要点汇总Java基础、集合、数据库、spring框架、分布式、微服务(备战秋招)。这里,结合自己过往的面试经验,整理了一些核心的知识清单,帮助大家更好地回顾与复习Java核心技术。本文分享给需要面试刷题的朋友,也祝愿大家顺利拿到自己想要的offer,这份资料主要包含了Java基础,数据结构,jvm,多线程等等,由于篇
Stella981 Stella981
4年前
Linux iptables命令详解
iptables是Linux防火墙系统的重要组成部分,iptables的主要功能是实现对网络数据包进出设备及转发的控制。当数据包需要进入设备、从设备中流出或者由该设备转发、路由时,都可以使用iptables进行控制。下面良许小编就将从几个方面对于Linuxiptables命令进行详述,希望对大家有所帮助。!Linux命令(htt
Stella981 Stella981
4年前
Hbase FAQ热门问答小集合
这个问答是根据云栖社区上对HBase的FAQ中整理出来的。问:Hbase大量写入很慢,一个列族,每个200多列,一秒写30000条数据,使用mutate添加数据,clientbuffer缓存大小为10M,四台测试机,128G内存,分配60G给Hbase,该怎么优化?答:可以使用bulkload方式写入,通过mr程序生产hfile
Stella981 Stella981
4年前
Kafka到底有几个Offset?——Kafka核心之偏移量机制
!(https://oscimg.oschina.net/oscnet/3ea57a5cd288c6bbc24521607f4e0aae21a.jpg)    Kafka是由LinkIn开源的实时数据处理框架,目前已经更新到2.3版本。不同于一般的消息中间件,Kafka通过数据持久化和磁盘读写获得了极高的吞吐量,并可以不依赖Storm,SparkSt