Wesley13 Wesley13
4年前
Tomcat 安全配置与性能优化
Tomcat是Apache软件基金会下的一个免费、开源的WEB应用服务器,它可以运行在Linux和Windows等多个平台上,由于其性能稳定、扩展性好、免费等特点深受广大用户喜爱。目前,很多互联网应用和企业应用都部署在Tomcat服务器上,比如我们公司,哈。之前我们tomcat都采用的是默认的配置,因此在安全方面还是有所隐患的。上
Stella981 Stella981
3年前
Spring Cloud微服务开发笔记2——Eureka集群搭建
上一篇博文中,我们介绍了如何搭建一个Eureka服务的架构,但是服务提供者我们只用了一个单例,完全不能体现高并发高可用。本文我们尝试在上一篇文章示例Eureka项目的基础上继续完善,让它可以做到一个集群的部署。Eureka集群架构我们先看一下我们这次示例打算改造成的架构图:!(https://static.oschina
Stella981 Stella981
4年前
Android手机GPU真弱
        因为要为自己的引擎做跨平台准备,第一准备跨的就是Android,特地用OpenGLES2重写了渲染底层,写了个简单的Demo测试了下性能.显示一个左右走动的帧序列动画精灵(2D)(非骨骼动画),再电脑上同屏30000个无压力(取决于显卡),放到我的2013年旗舰机型的Android4.3机型上,同屏300个就降到了30FPS以下,出现卡顿
Stella981 Stella981
4年前
Linux学习笔记之Django项目部署(CentOS)
一、引入  用Django写了一个测试的项目,现在要部署在Linux上,一般这种情况下,只要在项目里面敲一行命令:python manage.py runserver0.0.0.0:8000就行了。但这是在开发项目的时候用这个可以测试项目,在浏览器看到效果。正真部署到服务器上,这样是不行的,因为窗口一关,Django也就关了。当然你也可以一直不关。。。
Wesley13 Wesley13
4年前
Hadoop Streaming 实战: 文件分发与打包
如果程序运行所需要的可执行文件、脚本或者配置文件在Hadoop集群的计算节点上不存在,则首先需要将这些文件分发到集群上才能成功进行计算。Hadoop提供了自动分发文件和压缩包的机制,只需要在启动Streaming作业时配置相应的参数。1\.–file将本地文件分发到计算结点2\.–cacheFile文件已经存放在HDFS中,希望计算时
Stella981 Stella981
4年前
Hadoop技术原理总结
Hadoop技术原理总结1、Hadoop运行原理Hadoop是一个开源的可运行于大规模集群上的分布式并行编程框架,其最核心的设计包括:MapReduce和HDFS。基于Hadoop,你可以轻松地编写可处理海量数据的分布式并行程序,并将其运行于由成百上千个结点组成的大规模计算机集群上。基于MapReduce计算模型编写分布式并行程序相对简单,
Wesley13 Wesley13
4年前
Java多线程并发常用类实例之:Condition
        作为一个示例,假定有一个绑定的缓冲区,它支持 put 和 take 方法。如果试图在空的缓冲区上执行 take 操作,则在某一个项变得可用之前,线程将一直阻塞;如果试图在满的缓冲区上执行 put 操作,则在有空间变得可用之前,线程将一直阻塞。我们喜欢在单独的等待set中保存 put 线程和 take 线程,这样就可
Stella981 Stella981
4年前
Kubernetes 现终于成熟了,不在是大厂的标配
过去几年,以Docker、Kubernetes为代表的容器技术已发展为一项通用技术,BAT、滴滴、京东、头条等大厂,都争相把容器和K8S项目作为技术重心,试图“放长线钓大鱼”。就说阿里吧,目前基本所有业务都跑在云上,其中有一半已迁移到自己定制Kubernetes集群上。据说,今年计划完成100%基于K8S集群的业务部署。而服务网格这块
Stella981 Stella981
4年前
Google发布Objectron数据集
!(https://oscimg.oschina.net/oscnet/3203d016f2494d2e9d559749b49fc8b2.png)正文字数:1708 阅读时长:2分钟仅仅通过在照片上训练模型,机器学习(ML)的最新技术就已经在许多计算机视觉任务中取得了卓越的准确性。在这些成功的基础上,进一步提高对3D对象的理解,这将
GoCoding GoCoding
3年前
TVM 加速模型,优化推断
TVM是一个开源深度学习编译器,可适用于各类CPUs,GPUs及其他专用加速器。它的目标是使得我们能够在任何硬件上优化和运行自己的模型。不同于深度学习框架关注模型生产力,TVM更关注模型在硬件上的性能和效率。本文只简单介绍TVM的编译流程,及如何自动调优自己的模型。更深入了解,可见TVM官方内容:文档:https://tvm.apach