低代码平台飞速创软完成3000万元A+轮融资
疫情形势下,云原生全场景低代码及数字化基础设施提供商珠海飞速创软科技有限公司(以下简称:飞速创软)依然发展迅速,逆势而上。继2021年中获得珠海正菱创投、炼金术资本等机构数千万融资之后,于2022年底,完成了3000万元A轮融资,本轮投资方为中新融创。飞
Stella981 Stella981
4年前
Qt的由来和发展
一、Qt是什么  1、Qt是一个1991年由奇趣科技开发的跨平台C图形用户界面应用程序开发框架。它既可以开发GUI程序,也可用于开发非GUI程序,比如控制台工具和服务器。  2、Qt是面向对象的框架,使用特殊的代码生成扩展(称为元对象编译器(MetaObjectCompiler,moc))以及一些宏,易于扩展,允许组件编程。  3
可莉 可莉
4年前
12天,这本《重学Java设计模式》PDF书籍下载量9k,新增粉丝1400人,Github上全球推荐榜!
持续坚持原创输出,点击蓝字关注我吧!(https://oscimg.oschina.net/oscnet/3c4dac5f05eaed3fdd2a41c09eaee022d53.png)作者:小傅哥博客:https://bugstack.cn❝沉淀、分享、成长,让自己和他人都能有所收获!😜❞目
Stella981 Stella981
4年前
JVM调优总结(七)
点击上面免费订阅本账号!本公众号主要推送javaweb开发相关技术,基础知识点,同时会深入剖析复杂的问题,分享一些优秀的框架,大型项目经验,当今最流行的Javaweb技术,热点科技新闻,招聘信息,生活乐趣等等。点击上方的蓝字,这样您每天可以看到更多的java知识和资讯!完全是免费订阅,请放心关注。以下配置主要针对分代垃圾回收
Stella981 Stella981
4年前
Hey,邀请你加入我们一起玩耍
蚂蚁集团作为一家聚焦金融的科技公司,需要全方位的安全可信能力来保障数据安全和隐私保护。可信平台团队的主要职责是为蚂蚁集团金融级云原生基础设施及之上的各类业务的安全稳定运行保驾护航,重点负责但不限于以下方向:基于Kubernetes的安全产品研发;可信身份体系的设计及研发;可信计算平台的方
Wesley13 Wesley13
4年前
2019比原链全球开发者大会落幕:高举开源旗帜,聚焦区块链应用落地
北京时间8月25日,2019比原链全球开发者大会在美国旧金山FortMasonCowellTheater成功举办。会议吸引了来自美国、俄罗斯、印度、比利时、加拿大、巴西、赞比亚、委内瑞拉等多个国家的技术达人,参赛项目涉及稳定币支付系统、供应链金融、合约开发工具、教育科技等多个领域。最终,基于比原链开发的支付平台Paypaw(贝爪)获得2019比原链全球
Easter79 Easter79
4年前
TiKV Committer 庄天翼:只要能提升 Codebase 质量,就值得提交 PR
2020年2月,TiKV项目迎来了一位新晋Committer——庄天翼(GitHubID:TennyZhuang),他2018年毕业于清华大学,目前在旷视科技担任分布式存储开发工程师,平时爱看动漫,工作之余也喜欢写一些代码,实现自己的想法。前天,我们“正儿八经”地采访了庄天翼同学,在互相努力憋笑中,愉快地掉落了以下文字……传说中的“天
Stella981 Stella981
4年前
Linux Foundation APAC 首批开源布道者官方发布会,诚邀您共同见证!
!(https://oscimg.oschina.net/oscnet/7446fe70dbb24c0aa8ca7e307158412c.png)开源已经被证明是一种高效的创新模式和可行的商业模式,开源运动兴起的10年,正是人类历史上科技创新最蓬勃的10年。开源为社会创造了一个更公平、更多元化、更包容和更开放的创新环境。我们不仅能够在
Wesley13 Wesley13
4年前
AI赋能案例—阿里云身份证OCR识别助力实现“无接触”式政务服务!
 2020年初的这场疫情,是一场对突发性公共卫生事件应急处置的大考,也是对数字政务体系能力的检验。在保证不影响办事效率的情况,如何减少人员的接触是政务场景下的“防疫”关键!日前由一窗(北京)互联网科技研究院结合阿里云视觉智能开放平台(vision.aliyun.com)(https://www.oschina.net/action/GoToLink?ur
Stella981 Stella981
4年前
Nginx优化防爬虫 限制http请求方法 CDN网页加速 架构优化 监牢模式 控制并发量以及客户端请求速率
Nginx防爬虫优化Robots协议(也称为爬虫协议,机器人协议等)的全称是“网络爬虫排除标准”(RobotsExclusionProtocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。我理解的是robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从