Python进阶者 Python进阶者
2年前
selenium如何添加代理IP?
大家好,我是皮皮。一、前言前几天在Python钻石群有个叫【进击的python】的粉丝问了一个关于Python中selenium如何添加代理IP的问题,这里拿出来给大家分享下,一起学习。二、解决过程这里给出【PI】吴老板大佬的解答,一起来看看吧!直接上图了,如下图所示:他写这个已经是3年前的时候。当年还是个实习生呢,现在是吴老板了。三、总结大家好,我是
Python进阶者 Python进阶者
2年前
多张excel表做连接,就比如1表有A,B,C列,2表有A,B,D列,我想把A,B,C,D合到一张表
大家好,我是皮皮。一、前言前几天在Python铂金群有个叫【水方人子】的粉丝问了一个关于excel处理的问题,这里拿出来给大家分享下,一起学习。能不能把多张excel表做连接,就比如1表有A,B,C列,2表有A,B,D列,我想把A,B,C,D合到一张表上面,可以吗,就跟数据库左连接一样?二、解决过程一开始想到的方法是Excel中的vlookup函数,确实
Python进阶者 Python进阶者
2年前
盘点Pandas中数据删除drop函数的一个细节用法
大家好,我是皮皮。一、前言前几天在Python最强王者群有个叫【Chloe】的粉丝问了一个关于Pandas中的drop函数的问题,这里拿出来给大家分享下,一起学习。二、解决过程下图是粉丝写的代码。index是索引的意思,我感觉这块写在一起了,看上去不太好理解,在里边还多了一层筛选。这里给出【月神】佬的解答,一起来看看吧!直接上图了,如下图所示:下图是官网
捉虫大师 捉虫大师
2年前
我是一个Dubbo数据包...
hello,大家好呀,我是小楼!今天给大家带来一篇关于DubboIO交互的文章,本文是一位同事写的文章,用有趣的文字把枯燥的知识点写出来,通俗易懂,非常有意思,所以迫不及待找作者授权然后分享给大家:一些有趣的问题Dubbo是一个优秀的RPC框架,其中有错综复杂复杂的线程模型,本篇文章笔者从自己浅薄的认知中,来剖析Dubbo的整个IO过程。在开始之前,我们
Wesley13 Wesley13
3年前
Unity2D实现人物三连击
  之前写过一个系列《HTML52D平台游戏开发》,在此过程中发现有很多知识点没有掌握,而且用纯JavaScript来开发一个游戏效率极低,因为调试与地图编辑都没有可视化的工具,开发起来费时费力,加上业余时间有限,我决定暂且中止开发。为了弥补缺少的知识点,我打算先学习和借鉴一下Unity的开发思路,于是把原先的游戏素材移植了过来。首先还是先从人物的动作开始
Easter79 Easter79
3年前
Springboot2.x + ShardingSphere 实现分库分表
之前一篇文章中我们讲了基于Mysql8的读写分离(文末有链接),这次来说说分库分表的实现过程。概念解析垂直分片按照业务拆分的方式称为垂直分片,又称为纵向拆分,它的核心理念是专库专用。在拆分之前,一个数据库由多个数据表构成,每个表对应着不同的业务。而拆分之后,则是按照业务将表进行归类,分布到不同的数据库中,从而将压力分散至不同的
Wesley13 Wesley13
3年前
GB28181国检推流
    GB28181国检有一向内容是实时播放摄像机流,经过一番努力,搞定这个功能,现分享心得:首先需要了解流程,说简答点就是视频流从哪里来到什么地方去,下图描述了视频流推流,转发的基本过程:信令交互成功以后,摄像机(媒体流发送者)推送流到媒体服务器,媒体服务器在指定的端口接收到视频流后,转发给流媒体接收者(例如某台PC的某个空闲端口)。 
Wesley13 Wesley13
3年前
MySQL主备模式的数据一致性解决方案
根据阿里交易型业务的特点,以及在双十一这样业内罕有的需求推动下,我们在官方的MySQL基础上增加了非常多实用的功能、性能补丁。而在使用MySQL的过程中,数据一致性是绕不开的话题之一。本文主要从阿里巴巴“去IOE”的后时代讲起,向大家简单介绍下我们过去几年在MySQL数据一致性上的努力和实践,以及目前的解决方案。一.MySQL单机的数据一致性
Stella981 Stella981
3年前
Linux系统里将Git打造成聊天工具
作为程序员,大家肯定都会跟版本控制软件打交道。Git是一款非常流行的版本控制软件,是由Linux之父Linus亲自开发而成,是软件开发过程中团队协作不可或缺的工具。但是,Git是一个版本控制软件,它怎么会跟聊天工具扯上关系呢?这两者相去甚远,但是就是有脑洞大开的老外,开发了一个工具:\GIC\,硬生生将Git改造成一个聊天工具!有了
Stella981 Stella981
3年前
Selenium使用代理出现弹窗验证如何处理
部分商业网站对爬虫程序限制较多,在数据采集的过程中对爬虫请求进行了多种验证,导致爬虫程序需要深入分析目标网站的反爬策略,定期更新和维护爬虫程序,增加了研发的时间和投入成本。这种情况下,使用无头浏览器例如Selenium,模拟用户的请求进行数据采集是更加方便快捷的方式。同时为了避免目标网站出现IP限制,配合爬虫代理,实现每次请求自动切换IP,能够保证长期稳定