推荐
专栏
教程
课程
飞鹅
本次共找到10000条
数据分析能力
相关的信息
Irene181
•
4年前
数据可视化干货:使用pandas和seaborn制作炫酷图表
吾日三省吾身:为人谋而不忠乎?与朋友交而不信乎?传不习乎?导读:我们介绍过用matplotlib制作图表的一些tips,感兴趣的同学可以戳→。matplotlib是一个相当底层的工具。你可以从其基本组件中组装一个图表:数据显示(即绘图的类型:线、条、框、散点图、轮廓等)、图例、标题、刻度标记和其他注释。在pandas中,我们可能有多个数据列,并且带有行
helloworld_70863843
•
3年前
往届seed大赛(江苏大数据开发与应用)赛题分享
初赛阶段:针对胃癌病理切片,对发生癌症病变的区域进行像素级预测并对癌症类别进行分类。初赛将进行2种胃癌类别的检测任务,具体分为:1、识别出病理图片的癌症类别2、病理图片的病灶分割复赛阶段:与初赛阶段任务相同,但相较于初赛,复赛将进行3种胃癌类别(管状腺癌、粘液腺癌、乳头状腺癌)的检测任务。赛题数据与提交说明数据示例如下,每张小图包含一种胃癌类别。选手需要提
仲远
•
2年前
Navicat Premium for Mac(多连接数据库管理工具)
NavicatPremium16forMac是Mac平台上的一款可以多重连接的数据库管理工具。与旧版本相比,Navicat16带来了许多UI/UX改进。我们致力于提供专业的UX设计,以提高可用性和可访问性。因此,你能够以前所未有的速度完成复杂的工作。
Stella981
•
4年前
Linux系统:Centos7下搭建PostgreSQL关系型数据库
本文源码:GitHub·点这里(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fgithub.com%2Fcicadasmile%2Flinuxsystembase)||GitEE·点这里(https://gitee.com/cicadasmile/linuxsystem
Stella981
•
4年前
Redis缓存和MySQL数据一致性方案(转)
需求起因在高并发的业务场景下,数据库大多数情况都是用户并发访问最薄弱的环节。所以,就需要使用redis做一个缓冲操作,让请求先访问到redis,而不是直接访问MySQL等数据库。!(https://oscimg.oschina.net/oscnet/34e6b909457749e8d213be3b82a76662fc0.png)这个业务场景,主要
Wesley13
•
4年前
ubuntu14.04直接用命令行安装mysql数据库
今天在Ubuntu(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fwww.linuxidc.com%2Ftopicnews.aspx%3Ftid%3D2)14.04下安装MySQL,本来是去官网下载安装包来安装的,可是安装之后却不能用,估计是要配置吧,在网上搜了很多的资料,结果还是失败
Easter79
•
4年前
SpringCloud实现分库分表模式下,数据库实时扩容方案
本文源码:GitHub·点这里(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fgithub.com%2Fcicadasmile%2Fspringcloudbase)||GitEE·点这里(https://gitee.com/cicadasmile/springcloud
Stella981
•
4年前
DRF框架中链表数据通过ModelSerializer深度查询方法汇总
DRF框架中链表数据通过ModelSerializer深度查询方法汇总一.准备测试和理解准备创建类classTest1(models.Model):idmodels.IntegerField(primary_k
Stella981
•
4年前
C#+ExtJS 将后端查询的数据导出到excel(csv)文档
!(https://oscimg.oschina.net/oscnet/up6c4d6e5f7c9af2158a4ccb96ef1f27ddd65.png)前端mgr.js do_exportsv:function(){varwinthis;varfdnew
3A网络
•
3年前
明明加了唯一索引,为什么还是产生了重复数据?
明明加了唯一索引,为什么还是产生了重复数据?前言前段时间我踩过一个坑:在mysql8的一张innodb引擎的表中,加了唯一索引,但最后发现数据竟然还是重复了。到底怎么回事呢?本文通过一次踩坑经历,聊聊唯一索引,一些有意思的知识点。1.还原问题现场前段时间,为了防止商品组产生重复的数据,我专门加了一张防重表。如果大家对防重表,比较感兴趣,可以看看
1
•••
648
649
650
•••
1000