根据 Windows Central 的报道,微软德国公司 CTO 兼AI部门主管 Andreas Braun 透露,这周 OpenAI 将发布更强大的 GPT-4 多模态大模型,比如说在视频方面,打通认知与感知的连接。多模态模型指的是能够接受多种方式的输入并进行处理和输出,比如说,你能给AI发送一张图,然后让AI看图写话,又或者说反过来,告诉AI自己想要一个什么样的图片或视频,让AI生成一份(这跟当前的AI出图不同,用自然语言即可)。跟现时的 GPT-3.5 相比,这可以说是一个相当巨大的进步,现在的 GPT-3.5 只能接受文字输入,直白一点说就是只能听懂人话。
这消息一出,我是惊讶到我了,GPT3.5 还没捂热乎呢,发展的也太快了吧!虽然我已经迫不及待地想要尝试一下 GPT-4 了,但是说到底还是未知的东西,用好当下已经发布出来的才是硬道理~
为了方便广大国内开发者体验最新的 ChatGPT 的能力,APISpace 通过官方渠道直接接入 OpenAI 的
ChatGPT, ChatGPT 本体 API ChatGPT3.5Turbo 和 Davinci 的 ChatGPT-3.5 都有~
1.注册登录 APISpace,在 响应 API 详情页点击【免费试用】即可获得相应的次数进行体验~
2.进入测试页面,在测试页面可以快速的体验 GPT~