推荐
专栏
教程
课程
飞鹅
本次共找到10000条
cocoapods使用
相关的信息
helloworld_78018081
•
4年前
全靠这份Android知识点PDF大全,月薪30K
第一阶段:Android基础知识回顾:回顾Android开发编程,深入理解Android系统原理和层次结构,深入分析Handler源码和原理;回顾Java,C/C,Kotlin、dart在Android开发中必用的语言,熟悉一下几种语言混淆后的特性;回顾AndroidIPC和JNI的底层原理和热更新技术回顾Native开发要点,使用C结
Stella981
•
3年前
Prometheus 和 它的监控需求朋友们 ;)
这篇博文的面向群体是还不太了解Prometheus和想要开始使用Prometheus的人群.本文想做的事是想尽力讲清楚Prometheus是如何看待监控这件事情以及Prometheus是如何实现这些需求的.本文中不会出现的内容:跟Prometheus实现细节有太多相关的东西等当想看监控的时候,我们到底想要什么?
Stella981
•
3年前
Linux计划任务 定时任务 Crond 配置详解 crond计划任务调试 sh
一、Crond是什么?(概述)crontab是一款linux系统中的定时任务软件用于实现无人值守或后台定期执行及循环执行任务的脚本程序,在企业中使用的非常广泛. 现在开始学习linux计划任务程序吧。crontab的优势:可以实现24小时或定期执行任务,非常高效实用,几乎是每个企业
Stella981
•
3年前
Netty 启动过程源码分析 (本文超长慎读)(基于4.1.23)
前言作为一个Java程序员,必须知道Java社区最强网络框架Netty,且必须看过源码,才能说是了解这个框架,否则都是无稽之谈。今天楼主不会讲什么理论和概念,而是使用debug的方式,走一遍Netty(服务器)的启动过程。1\.demo源码楼主clone的netty的源码,值得一提
Stella981
•
3年前
EC20 raspberry pi 树莓派 4g上网 发短信
介绍由于项目需求,为了减少宽度,采用了树莓派zero,找了好久的网络模块,最后找到这款ec20宽度与树莓派zero基本相同~。我使用的是EC20(CEFAG)全功能版本,4ggps。硬件连接连接!be9ca9d4de0cb9a75230a357fdc76a8f.md.jpg(https://wx1.s
Wesley13
•
3年前
100 行写一个 go 的协程池 (任务池)
前言go的goroutine提供了一种较线程而言更廉价的方式处理并发场景,go使用二级线程的模式,将goroutine以M:N的形式复用到系统线程上,节省了cpu调度的开销,也避免了用户级线程(协程)进行系统调用时阻塞整个系统线程的问题。【1】但goroutine太多仍会导致调度性能下降、GC
Wesley13
•
3年前
unix-linux 发展历史 linux的基本特性
1、linux就是一套操作系统包括内核(kennel)以及程序调用接口(shell)2、unix、linux发展历史1、bell、MIT、GE的“Multics”系统(1)MIT,开发了分时操作系统(CTSS)允许多台终端使用一台主机,但先进的分时系统只能支持30台左右的终端同时登录。(2)1965年BELL、MIT、GE,发起了Multics系
Stella981
•
3年前
Python在计算内存时应该注意的问题
我之前的一篇文章(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fmp.weixin.qq.com%2Fs%2F8f259oIGCQtY6KFSx4KW6Q),带大家揭晓了Python在给内置对象分配内存时的5个奇怪而有趣的小秘密。文中使用了sys.getsizeof()来计
Stella981
•
3年前
JpGraph折线图功能实现过程
公司最近要求开发网站点击量统计的功能,使用折线图显示出来。通过查阅资料发现jpgraph是很方便、强大的制作图表工具。下载地址:http://jpgraph.net/1、先要保证PHP打开了Gd2的扩展:打开PHP.ini,定位到extensionphp\_gd2.dll,把前面的分号删掉。2、如果出现以下错误:strtotime():
Stella981
•
3年前
Nginx优化防爬虫 限制http请求方法 CDN网页加速 架构优化 监牢模式 控制并发量以及客户端请求速率
Nginx防爬虫优化Robots协议(也称为爬虫协议,机器人协议等)的全称是“网络爬虫排除标准”(RobotsExclusionProtocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。我理解的是robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从
1
•••
836
837
838
•••
1000