不是海碗 不是海碗
2年前
APISpace 让你30秒快速体验 ChatGPT3.5-Turbo
最近OpenAI推出了新的模型——ChatGPT3.5Turbo模型,OpenAI声称,对于许多非聊天用例,ChatGPT3.5Turbo是最佳模型。开发ChatGPT3.5Turbo的最初动机可能是为了减少ChatGPT的巨大计算成本,价格是ChatGPT3.5的十分之一,效果也更好。
保姆级教程:用GPU云主机搭建AI大语言模型并用Flask封装成API,实现用户与模型对话
在本文中,我们将以chatglm6b为例详细介绍GPU云主机搭建AI大语言模型的过程,并使用Flask构建前端界面与该模型进行对话。
一文详解扩散模型:DDPM
人工智能生成内容(AIGeneratedContent,AIGC)近年来成为了非常前沿的一个研究方向,生成模型目前有四个流派,分别是生成对抗网络(GenerativeAdversarialModels,GAN),变分自编码器(VarianceAutoEncoder,VAE),标准化流模型(NormalizationFlow,NF)以及这里要介绍的扩散模型(DiffusionModels,DM)
【GPT-4理论篇-1】GPT-4核心技术探秘 | 京东云技术团队
在本文中,我将结合GPT4的技术报告、GPT4相对于GPT3.5/ChatGPT的提升、GPT4和ChatGPT的对比、OpenAI的近期工作,大语言模型(LargeLanguageModel,LLM)模型的科研进展,多模态模型的科研进展等多方面的信息,深入分析GPT4的技术细节。
数字先锋 | “言”之有“力”,大模型背后的算力“推手”!
在算力调度方面,天翼云通过自研的调度系统,协助思必驰DFM2大模型调度GPU、NPU、CPU等异构算力资源,大规模训练上云1个月,可以完成数十亿规模大模型所有阶段训练和效果评估。在训练能力打造方面,天翼云支持多种模型训练方式,不仅可以提升大模型训练平台的数据量,还大幅缩短了训练周期和交付进度。
GoCoding GoCoding
3年前
TVM 加速模型,优化推断
TVM是一个开源深度学习编译器,可适用于各类CPUs,GPUs及其他专用加速器。它的目标是使得我们能够在任何硬件上优化和运行自己的模型。不同于深度学习框架关注模型生产力,TVM更关注模型在硬件上的性能和效率。本文只简单介绍TVM的编译流程,及如何自动调优自己的模型。更深入了解,可见TVM官方内容:文档:https://tvm.apach
小万哥 小万哥
1年前
NumPy 通用函数(ufunc):高性能数组运算的利器
NumPy的通用函数(ufunc)提供高性能的逐元素运算,支持向量化操作和广播机制,能应用于数组的数学、逻辑和比较运算。ufunc可提高计算速度,避免低效的循环,并允许自定义函数以满足特定需求。例如,ufunc实现加法比循环更高效。通过frompyfunc可创建自定义ufunc。判断函数是否为ufunc,可检查其类型是否为numpy.ufunc。ufunc练习包括数组的平方、平方根、元素积及性能对比。
LeeFJ LeeFJ
2年前
Foxnic-SQL (16) ——Foxnic-SQL的模型关联方法
本节我们将用一个简单的例子,来说明对象之间的关联关系,以及FoxnicSQL是如何处理这种关联关系的。首先,我们引入商城下单的简单业务模型,这个模型里面包括了商品、订单、订单明细以及收件人地址,这个模型足够简单,所以很容易分析出他们之间的关联关系。