blueju blueju
4年前
umi-request 统一异常处理实践
首发于前言本人在工作中用到了umirequest,百度谷歌搜了一遍,感觉都没找到超过3篇合适且含代码的文章,因此只能自行实践总结了。<br/<aname"AeA5o"</aumirequest有点不同umirequest与axios&xhr不太一样,它是基于fetch实现的,因此它只有在网络错误的情况下,才
Python进阶者 Python进阶者
2年前
为啥chrome查看到网页,只有5000多行,应该有1万多行才对
大家好,我是皮皮。一、前言前几天在Python白银交流群【磐奚鸟】问了一个Python网络爬虫处理的问题,这里拿出来给大家分享下。二、实现过程这里【惜君】给了一个指导,可能网站有限制数据量。这里【瑜亮老师】发现了问题所在,如下图所示:数据方面确实存在,顺利
Stella981 Stella981
3年前
Netty 启动流程解析
戳蓝字「TopCoder」关注我们哦!!(https://oscimg.oschina.net/oscnet/79bfb2d6bb5422b4b34085d199fc73e07f0.jpg)编者注:Netty是Java领域有名的开源网络库,特点是高性能和高扩展性,因此很多流行的框架都是基于它来构建的,比如我们熟知的Dubbo、Rocketm
Stella981 Stella981
3年前
Netty 启动过程源码分析 (本文超长慎读)(基于4.1.23)
前言作为一个Java程序员,必须知道Java社区最强网络框架Netty,且必须看过源码,才能说是了解这个框架,否则都是无稽之谈。今天楼主不会讲什么理论和概念,而是使用debug的方式,走一遍Netty(服务器)的启动过程。1\.demo源码楼主clone的netty的源码,值得一提
Stella981 Stella981
3年前
EC20 raspberry pi 树莓派 4g上网 发短信
介绍由于项目需求,为了减少宽度,采用了树莓派zero,找了好久的网络模块,最后找到这款ec20宽度与树莓派zero基本相同~。我使用的是EC20(CEFAG)全功能版本,4ggps。硬件连接连接!be9ca9d4de0cb9a75230a357fdc76a8f.md.jpg(https://wx1.s
Wesley13 Wesley13
3年前
HTTP协议与HTTPS协议区别
HTTPS(SecureHypertextTransferProtocol)安全超文本传输协议:  它是一个安全通信通道,它基于HTTP开发,用于在客户计算机和服务器之间交换信息,它使用安全套接字层(SSL)进行信息交换,简单来说它是HTTP的安全版。它是由Netscape开发并内置于其浏览器中,用于对数据进行压缩和解压操作,并返回网络
Stella981 Stella981
3年前
BraTS18——多模态MR图像脑肿瘤分割挑战赛续4
今天将继续分享从网络结构上进行改进提出SEVNet模型来分割脑肿瘤。为了方便大家学习理解整个分割流程,我将整个流程步骤进行了整理,并给出每个步骤的结果,希望对大家有所帮助。一、SENet模块介绍Momenta胡杰团队从特征通道之间的关系出发,提出了SqueezeandExcitationNetworks(简称SENet),来显式地建
Stella981 Stella981
3年前
Android Volley 发送一个简单的请求
可以通过创建一个RequestQueue并传递Request对象来使用Volley。RequestQueue管理工作线程,这些线程用于运行网络操作、读取和写入缓存和解析响应。Request对原始响应进行解析,并且Volley负责将已解析的响应分派回主线程。本文介绍如何使用Volley.newRequestQueue的便捷方法发送请求,该方法为您这是了一个
Stella981 Stella981
3年前
React Native 简介:用 JavaScript 搭建 iOS 应用(2)
【编者按】本篇文章的作者是JoyceEchessa——渥合数位服务创办人,毕业于台湾大学,近年来专注于协助客户进行App软体以及网站开发。本篇文章中,作者介绍通过ReactNative框架构建一个示例应用的开发过程,使得网络技术和移动开发碰撞出绚丽火花!ReactNative简介:用JavaScript搭建iOS应用
Stella981 Stella981
3年前
Nginx优化防爬虫 限制http请求方法 CDN网页加速 架构优化 监牢模式 控制并发量以及客户端请求速率
Nginx防爬虫优化Robots协议(也称为爬虫协议,机器人协议等)的全称是“网络爬虫排除标准”(RobotsExclusionProtocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。我理解的是robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从