爱写码 爱写码
3年前
十年磨一剑,匠心打造中国人自己的网络编程架构t-io
中国人拥有了完全自主的高性能网络编程框架tio。通过十多年对低层技术的潜心研究,终于打磨出中国人自己的完全自主的开源网络编程软件tio。1、什么是tiotio是基于java开发的一个开源的网络编程架构,大家都知道现在手机上或者电脑上都装了很多APP,这些APP都不是一个个在手机上或电脑上孤立的使用,而是能访问其他的地方数据或者与其他节点进行实时聊天,故每个A
CuterCorley CuterCorley
3年前
Flask开发 经验技巧总结
Flask作为一个主流的PythonWeb框架之一,有比较广泛的应用,但是有经验的小伙伴可能知道,这里边其实也有很多坑,让你不得不防,在使用的过程中可以积累一些经验。1.Flask中的Referer不是referer做过爬虫的小伙伴都知道,referer是指页面的跳转,即从哪一个页面跳转到当前页,很多网站也通过该属性对爬虫采取了一定的限制。在Flas
捉虫大师 捉虫大师
2年前
我是一个Dubbo数据包...
hello,大家好呀,我是小楼!今天给大家带来一篇关于DubboIO交互的文章,本文是一位同事写的文章,用有趣的文字把枯燥的知识点写出来,通俗易懂,非常有意思,所以迫不及待找作者授权然后分享给大家:一些有趣的问题Dubbo是一个优秀的RPC框架,其中有错综复杂复杂的线程模型,本篇文章笔者从自己浅薄的认知中,来剖析Dubbo的整个IO过程。在开始之前,我们
Stella981 Stella981
3年前
Ask2免费版V3.4BeTa测试版发布
此版本为测试版本,由于框架变更,可以会有少部分问题,如果有问题,请在评论里或者官方群里提问,群主会第一时间解决问题,把产品做的越来越好!1更新到最新UI界面,与官方同步(功能除外)2简化编辑器,编辑器支持后台配置,高级设置编辑器设置里3文章支持每小时发布数限制,并支持用户组是否可以发布文件,具体在用户组管理里设置4支持对某个用户黑
Stella981 Stella981
3年前
Mockito单元测试
Mockito简介Mockito是一个单元测试框架,需要Junit的支持。在我们的项目中,都存在相当多的依赖关系,当我们在测试某一个业务相关的接口或则方法时,绝大多数时候是没有办法或则很难去添加所有的依赖,因为这中间肯定会涉及到别的业务逻辑。而在开发过程中,可能这个模块根本都还没有。那可咋怎啊?这个时候一种叫做mock测试的方式就顺势崛起。通过模拟出依
可莉 可莉
3年前
08 django模型层_配置&单表操作
模型层orm简介  ORM是“对象关系映射”的简称。  MVC或者MTV框架中包括一个重要的部分ORM,它实现了数据模型与数据库的解耦,即数据模型的设计不需要依赖于特定的数据库,通过简单的配置就可以轻松更换数据库,这极大的减轻了开发人员的工作量,不需要面对因数据库变更而导致的无效劳动。  比如,之前的数据库用的是ora
Wesley13 Wesley13
3年前
Java 动态代理机制分析及扩展,第 1 部分
引言Java动态代理机制的出现,使得Java开发人员不用手工编写代理类,只要简单地指定一组接口及委托类对象,便能动态地获得代理类。代理类会负责将所有的方法调用分派到委托对象上反射执行,在分派执行的过程中,开发人员还可以按需调整委托类对象及其功能,这是一套非常灵活有弹性的代理框架。通过阅读本文,读者将会对Java动态代理机制有更加深入的理解
Stella981 Stella981
3年前
Android组件化方案及组件消息总线modular
背景组件化作为Android客户端技术的一个重要分支,近年来一直是业界积极探索和实践的方向。美团内部各个Android开发团队也在尝试和实践不同的组件化方案,并且在组件化通信框架上也有很多高质量的产出。最近,我们团队对美团零售收银和美团轻收银两款AndroidApp进行了组件化改造。本文主要介绍我们的组件化方案,希望对从事Android组件化开发
Stella981 Stella981
3年前
Spring Boot 项目实战(五)集成 Dubbo
一、前言上篇介绍了Redis的集成过程,可用于解决热点数据访问的性能问题。随着业务复杂度的提高,单体应用越来越庞大,就好比一个类的代码行数越来越多,分而治之,切成多个类应该是更好的解决方法,所以一个庞大的单体应用分出多个小应用也更符合这种分治的思想。于是乎微服务化的概念油然而生,微服务化的第一步就是选择适用的分布式服务框架,基于团队成员有使用
可莉 可莉
3年前
10 使用 OpenCV、Kafka 和 Spark 技术进行视频流分析
问题引起基于分布式计算框架Spark的室内防盗预警系统首先用摄像头录一段视频,存在电脑里,下载一个ffmpeg的软件对视频进行处理,处理成一张张图片,然后通过hadoop里边的一个文件系统叫做hdfs进行储存,之后进行分析。用spark将hdfs中存储的图片进行读取,调用opencv的人形识别算法将图片中有人形的图片识别出来,然后就代表屋子里进人了,