简
4年前
Kubernetes + GitLab 微服务应用自动化部署
KubernetesGitLab微服务应用自动化部署Docker简化了单个服务的部署,Kubernetes通过强大的容器编排能力使得运维人员可以轻松管理成千上万的容器,这些容器归属于多个服务,而这些服务又组合形成了多个应用。从代码到运行中的应用,需要经历构建、打包、测试和部署等阶段,如果每个步骤都手动执行,无疑会消耗研发人员的大量时间。本文讲解
Wesley13 Wesley13
3年前
vivo 云服务海量数据存储架构演进与实践
一、写在开头vivo云服务提供给用户备份手机上的联系人、短信、便签、书签等数据的能力,底层存储采用MySQL数据库进行数据存储。随着vivo云服务业务发展,云服务用户量增长迅速,存储在云端的数据量越来越大,海量数据给后端存储带来了巨大的挑战。云服务业务这几年最大的痛点,就是如何解决用户海量数据的存储问题。二、面临挑战
Stella981 Stella981
3年前
Nginx入门
想必大家都听过大名鼎鼎的nginx了吧那么有没有纳闷这个到底是什么作用呢?nginx简介:Web网络服务是一种被动访问的服务程序,即只有接收到互联网中其他主机发出的请求后才会响应,最终用于提供服务程序的Web服务器会通过HTTP(超文本传输协议)或HTTPS(安全超文本传输协议)把请求的内容传送给用户。目前能够提供Web
Wesley13 Wesley13
3年前
UDP与TCP
一张思维导图搞懂 UTP与TCP!(https://oscimg.oschina.net/oscnet/519a8b002c93c15413aafde97da5d59a2d0.png)1.tcp服务器一般情况下都需要绑定,否则客户端找不到这个服务器2.tcp客户端一般不绑定,因为是主动链接服务器,所以只要确定好服务器的ip、port等信息就
Stella981 Stella981
3年前
Linux中标准输出和标准错误的重导向
如果一个命令需要长时间在服务器上运行,那么很多时候会用到nohup命令,这时即便远程登录ssh中断了与服务器的联系,那么在服务器上运行的命令也不会因此而被迫停止。通常情况下,nohup与&连用,&的意思是将该命令放在后台执行。如下:nohupexample.sh&将exmaple.sh通过&放在服务器后台运行,nohup确保了即便当前
Stella981 Stella981
3年前
Spring Boot + Spring Cloud 实现权限管理系统 配置中心(Config、Bus)
技术背景如今微服务架构盛行,在分布式系统中,项目日益庞大,子项目日益增多,每个项目都散落着各种配置文件,且随着服务的增加而不断增多。此时,往往某一个基础服务信息变更,都会导致一系列服务的更新和重启,运维也是苦不堪言,而且还很容易出错。于是,配置中心便由此应运而生了。目前市面上开源的配置中心有很多,像Spring家族的SpringCloud
Easter79 Easter79
3年前
Tomcat+Nginx+MySQL负载均衡
Javaweb环境搭建1\.初识TomcatTomcat服务器是一个免费的开放源代码的Web应用服务器,属于轻量级应用服务器,在中小型系统和并发访问用户不是很多的场合下被普遍使用,是开发和调试JSP程序的首选。Tomcat是Apache服务器的扩展,但运行时它是独立运行的,所以当你运行tomcat时,它实际上作为一
Stella981 Stella981
3年前
RabbitMQ学习:RabbitMQ的基本概念及RabbitMQ使用场景(二)
1、RabbitMQ的基本概念RabbitMQ是一种消息中间件,用于处理来自客户端的异步消息。服务端将要发送的消息放入到队列池中。接收端可以根据RabbitMQ配置的转发机制接收服务端发来的消息。RabbitMQ依据指定的转发规则进行消息的转发、缓冲和持久化操作,主要用在多服务器间或单服务器的子系统间进行通信,是分布式系统
Stella981 Stella981
3年前
RabbitMQ学习:安装RabbitMQ及RabbitMQ的初步配置(一)
RabbitMQ基础含义RabbitMQ是一种消息中间件,用于处理来自客户端的异步消息。服务端将要发送的消息放入到队列池中。接收端可以根据RabbitMQ配置的转发机制接收服务端发来的消息。RabbitMQ依据指定的转发规则进行消息的转发、缓冲和持久化操作,主要用在多服务器间或单服务器的子系统间进行通信,是分布式系统标准的配置。
芝士年糕 芝士年糕
2年前
使用nginx进行负载均衡
我使用了三台VPS服务器,同一网段的,用来搭建网站,推荐你们也可以使用3A服务器1.nginx负载均衡介绍nginx应用场景之一就是负载均衡。在访问量较多的时候,可以通过负载均衡,将多个请求分摊到多台服务器上,相当于把一台服务器需要承担的负载量交