Stella981 Stella981
4年前
Python操作MySQL存储
在Python2中,连接MySQL的库大多是使用MySQLdb,但是此库的官方并不支持Python3,所以这里推荐使用的库是PyMySQL。本节中,我们就来讲解使用PyMySQL操作MySQL数据库的方法。1.准备工作在开始之前,请确保已经安装好了MySQL数据库并保证它能正常运行,而且需要安装好PyMy
Stella981 Stella981
4年前
Apache Flink漏洞复现
简介ApacheFlink是高效和分布式的通用数据处理平台,由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎(简单来说,就是跟spark类似)。Flink具有监控API,可用于查询"正在运行的jobs"和"最近完成的jobs"的状态和统计信息。该监控API被用于Flink自
Easter79 Easter79
4年前
TiDB 最佳实践系列(四)海量 Region 集群调优
作者:张博康在TiDB的架构中,所有的数据按照range划分成一个个Region分布在多个TiKV实例上。随着数据的写入,一个集群中会产生上百万,甚至千万个Region。而量变引起质变,单TiKV实例上过多的Region无疑会带来比较大的负担,进而影响整个集群的性能表现。本文将介绍TiKV核心模块Raftstore的
Wesley13 Wesley13
4年前
Spread for Windows Forms快速入门(16)
Spread支持85种丰富多彩的图表效果。可以在Spread设计器中基于工作表的数据直接生成图表,操作简单。同时,软件人员还可以在VisualStudio设计环境中定制图表的所有元素,包括标题、序列、轴、样式、图例等。这一篇介绍如何用Spread设计器创建和编辑图表。准备图表的数据首先要启动Spread设计器。你可以在VisualStudio
Wesley13 Wesley13
4年前
ThinkPHP扩展,实现Redis的CURD操作。
接下为将以ThinkPHP作为MVC开发框架,详细介绍Redis的CURD操作。需要说明的是,在ThinkPHP中本身并不支持Redis开发环境,只支持使用Redis开发简单的数据缓存功能。所以我们必须要通过扩展功能,实现Redis的编程支持。为了方便读者学习,笔者临时开发了相应的模块扩展及数据库扩展。下载址为http://beautysoft.
Easter79 Easter79
4年前
Stimulsoft Reports和Dashboards 2020.5新版本来啦!
Stimulsoft(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fwww.stimulsoft.cn%2F)仪表工具实现所需的数据可视化和自己的信息图表。该产品能够应用必要的过滤器和排序,汇总数据,执行任何复杂度的计算。该产品的优势在于其多功能性能够为您的业务,财务,销售,行业等任何
Wesley13 Wesley13
4年前
MT
基于微软大规模真实场景数据的阅读理解数据集MSMARCO,美团搜索与NLP中心提出了一种针对该文本检索任务的BERT算法方案DRBERT,该方案是第一个在官方评测指标MRR@10上突破0.4的模型。(https://www.oschina.net/action/GoToLink?urlmailto%3AMARCO%EF%BC%8C%E7%BE%
Stella981 Stella981
4年前
FastCgi与PHP
首先,CGI是干嘛的?CGI是为了保证webserver传递过来的数据是标准格式的,方便CGI程序的编写者。webserver(比如说nginx)只是内容的分发者。比如,如果请求/index.html,那么webserver会去文件系统中找到这个文件,发送给浏览器,这里分发的是静态数据。好了,如果现在请求的是/index.php,根据配
Stella981 Stella981
4年前
Chainlink区块链Oracle网络使用指南
Chainlink是一个去中心化的预言机网络,它可以让区块链中的智能合约安全地访问外部世界的数据。在这个教程中,我们将探索chainlink预言机网络的搭建,并学习如何使用预置或自定义的适配器实现智能合约与外部世界数据的桥接。以太坊教程链接:Dapp入门(https://www.oschina.net/action/GoToLink?urlh
Stella981 Stella981
4年前
Hive性能优化(全面)
1.介绍首先,我们来看看Hadoop的计算框架特性,在此特性下会衍生哪些问题?数据量大不是问题,数据倾斜是个问题。jobs数比较多的作业运行效率相对比较低,比如即使有几百行的表,如果多次关联多次汇总,产生十几个jobs,耗时很长。原因是mapreduce作业初始化的时间是比较长的。sum,