推荐
专栏
教程
课程
飞鹅
本次共找到1108条
图像深度
相关的信息
Wesley13
•
4年前
JavPlayer:AI破坏马赛克,大量马赛克破坏版影片流出
这是最近几个月业界讨论比较火的话题,发酵到现在,终于可以给大家总结下最近的马赛克破坏版影片到底是怎么回事?马赛克破坏版,简单讲就是利用AI技术,在打有马赛克影片的马赛克基础上进行修复操作,来实现去除马赛克,还原图像本质,不是大数据匹配模型,而是在原基础修复,详细的原理后面会讲!这样的技术,概念和之前的换脸以及换身体的AI技术很类似。马赛克
helloworld_55440973
•
4年前
浅谈传统企业的大数据平台如何上云
浅谈传统企业的大数据平台如何上云企业业务系统上云的最终目标,出于各种考量(有业务系统高可用的考量,也有不被云厂商绑定即vendorlockin的考量,也有生态系统合作伙伴即经济因素等多种考量),部署架构不会是单一的某个公有云,而是多个公有云和私有云的混合部署形态。1.趋势介绍与阐述:大数据和云计算进一步深度融合,拥抱云计算走向云原生化首先我们来解读下“
Peter20
•
4年前
MySQL InnoDB MVCC机制吐血总结
:谈到MySQL事务,必然离不开InnoDB和MVCC机制,同时,MVCC也是数据库面试中的杀手问题,写这篇总结的目的,就是为了让自己加深映像,这样面试就不会忘记了。在搜索时发现关于MVCC的文章真的是参差不齐(老子真的是零零散散看了三个月都迷迷糊糊),所以这里集合了各家所言之后进行了自我总结,苦苦研究了许久,才得到的比较清晰的认知,这可能也是我目前最有深度
Stella981
•
4年前
MapReduce 社交好友推荐算法
原理如果A和B具有好友关系,B和C具有好友关系,而A和C却不是好友关系,那么我们称A和C这样的关系为:二度好友关系。在生活中,二度好友推荐的运用非常广泛,比如某些主流社交产品中都会有"可能认识的人"这样的功能,一般来说可能认识的人就是通过二度好友关系搜索得到的,在传统的关系型数据库中,可以通过图的广度优先遍历算法实现,而且深度限定为2,然而在
Stella981
•
4年前
JVM技术总结
1.程序计数器:记录正在执行的虚拟机的字节码的指令地址。2.java虚拟机栈:每个Java方法在执行的同时会创建一个栈帧用于存储局部变量表、操作数栈、动态链接、方法出口等信息。每一个方法从调用直至执行完成的过程,就对应着一个栈帧在Java虚拟机栈中入栈和出栈的过程。该区域可能抛出以下异常:1.当线程请求的栈深度超过最大值,会抛出
helloworld_91538976
•
3年前
深入了解神经网络
深入了解神经网络本章将介绍用于解决实际问题的深度学习架构的不同模块。前一章使用PyTorch的低级操作构建了如网络架构、损失函数和优化器这些模块。本章将介绍用于解决真实问题的神经网络的一些重要组件,以及PyTorch如何通过提供大量高级函数来抽象出复杂度。本章还将介绍用于解决真实问题的算法,如回归、二分类、多类别分类等。本章将讨论如下主题:详解神经网络的不
天翼云开发者社区
•
3年前
绿色低碳天翼云,数字经济新引擎!
7月14日,数字经济与清洁能源深度融合发展高峰论坛暨中国电信数字青海绿色大数据中心启动仪式在青海举办。本次活动是通信行业举办的首次“碳中和”大型活动。活动上发布了“中国电信·零碳青海”行动,并发起成立数字经济与清洁能源融合发展产业联盟的倡议,加快推进“东数西算”工程落地,为实现青海省“双碳”目标,打造“双碳”样板,构建以产业“四地”为主体的绿色低碳循环发展经
helloworld_54277843
•
3年前
PyTorch已为我们实现了大多数常用的非线性激活函数
PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子:在上面这个例子中,输入是包含两个正值、两个负值的张量,对其调用ReLU函数,负值将取为0,正值则保持不变。现在我们已经了解了构建神经网络架构的大部分细节,我们来构建一个可用于解决真实问题的深度学习架构。
helloworld_54277843
•
3年前
深入了解神经网络
深入了解神经网络本章将介绍用于解决实际问题的深度学习架构的不同模块。前一章使用PyTorch的低级操作构建了如网络架构、损失函数和优化器这些模块。本章将介绍用于解决真实问题的神经网络的一些重要组件,以及PyTorch如何通过提供大量高级函数来抽象出复杂度。本章还将介绍用于解决真实问题的算法,如回归、二分类、多类别分类等。本章将讨论如下主题:详解神经网络的不
helloworld_91538976
•
3年前
PyTorch已为我们实现了大多数常用的非线性激活函数
PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子:在上面这个例子中,输入是包含两个正值、两个负值的张量,对其调用ReLU函数,负值将取为0,正值则保持不变。现在我们已经了解了构建神经网络架构的大部分细节,我们来构建一个可用于解决真实问题的深度学习架构。
1
•••
106
107
108
•••
111