1、这里有个简单的例子,可以看看GStreamer如何编程的。
2、GStreamer GstAppSink的官方Document,翻译了一下它的描述部分,点击这里。
3、GStreamer GstAppSrc的官方Document,翻译了以下它的描述部分,点击这里。
4、GStreamer中的Padscapabilities
Pads 允许信息进入或者离开一个element,这个Capabilities(简称Caps)就是指定哪些信息可以通过Pad来传输。例如:“RGB视频,尺寸为320*200并且每秒30帧”或者“16位的音频采样,5.1声道,每秒采样44.1k” 甚至可以是类似于mp3/h264之类的压缩格式。
Pads支持多重Capabilities(比如,一个视频的sink可以支持RGB输出或者YUV输出),Capabilites可以指定一个范围而不必须是一个特定值(比如,一个音频sink可以支持从1~48000的采样率)。然而,数据从一个pad流向另一个pad的时候,必须是一个双方都能支持的格式。某一种数据形式是两个pad都能支持的,这样pads的Capabilities就固定下来,这个过程就被称为协商。
作为一个应用开发者,我们通常都是用连接一个个element的方法来建立pipeline的,在这里,你需要了解使用的element的Pad的Caps。
5、Pad模板
Pad是由Pad模板创建的,模板里面会列出一个Pad所有可能的Capabilities。模板对于创建几个相似的Pad是很有帮助的,但也会比较早的判断出两个element是否可以连接:如果两个Pad的模板都不具备共同的子集的话,就没有必要进行更深层的协商了。
Pad模板检查是协商流程的第一步。随着流程的逐步深入,Pad会正式初始化,也会确定他们的Capability(除非协商失败)
6、queue
queue element会创建一个新的线程。通常来说,有多于一个sink element时就需要使用多个线程。这是因为在同步时,sink通常是阻塞起来等待其他的sink都准备好,如果仅仅只有一个线程是如法做到这一点的。
7、tee
tee比较特别但很有用,tee有1个输入pad而没有输出pad,需要有申请,tee才会生成。通过这种方法,输入流可以被复制成多份。和Always Pad比起来,Request Pad因为并非一直存在,所以是不能自动连接element的。
例子:
建立一个如上的pipeline的步骤如下:
1)初始化GStreamer;
2)创建上图中的所有element;
3)创建pipeline;
4)配置element;
5)把element放进pipeline中,然后将可以连接起来的原件连接起来;
(1)app source -> tee (2)audio_queue -> audio_convert -> audio_resample -> audio_sink (3)video_queue ->wave_scope->video_convert->video_sink
6) 手工连接tee->audio_queue和tee->video_queue;
7)设置pipeline状态为PLAYING;
8)监测BUS信号即可。
上诉过程的代码可以参考官方文档:https://gstreamer.freedesktop.org/documentation/tutorials/basic/multithreading-and-pad-availability.html
同时也可以参考《GStreamer讲解.pdf》 P56。
关于上面的第6步,两个参考讲解还有一点不一致,官方文档更简单,需要进一步测试才能确定这两种方式是不是都可行。
从GStreamer获取摄像头数据的代码:
1、h文件
1 #ifndef GSTREAMERVIDEOENCODER_H
2 #define GSTREAMERVIDEOENCODER_H
3
4 #include <QObject>
5 #include <QWidget>
6 #include <gst/gst.h>
7 #include <gst/app/gstappsink.h>
8 #include <gst/app/gstappsrc.h>
9 #include <glib.h>
10 #include <iostream>
11 #include <sstream>
12 #include <thread>
13 #include "../IOutputOrignalImage.h"
14 #include "../GlobalData.h"
15
16 class GStreamerCameraExtract
17 {
18 public:
19 GStreamerCameraExtract() {}
20 ~GStreamerCameraExtract() {}
21
22 public:
23 GstBus *bus;
24 GstElement *pipeline;
25 GstMessage *msg;
26 GstElement *v4l2_src;
27 GstAppSink* appsink;
28 GstElement *src_caps_filter;
29 GstCaps *caps_src;
30 GstCaps *caps_sink;
31 GstElement *video_convert;
32 GstElement *h264Encoder;
33 GstAppSinkCallbacks appsink_callbacks;
34 QByteArray cameraBuffer;
35 IOutputOrignalImage *callback;
36
37 public:
38 int CreateCameraExtractPipeline();
39 void ReadLocalCameraImage();
40 void StopPipeline();
41 };
42
43 #endif // GSTREAMERVIDEOENCODER_H
View Code
2、cpp文件
1 #include "GStreamerCameraExtract.h"
2
3 static GstFlowReturn appsink_new_sample_callback(GstAppSink *slt,gpointer user_data)
4 {
5 GStreamerCameraExtract *encoder = (GStreamerCameraExtract *)user_data;
6
7 encoder->ReadLocalCameraImage();
8 }
9
10 void GStreamerCameraExtract::ReadLocalCameraImage()
11 {
12 gint height;
13 gint width;
14
15 GstSample * sample = gst_app_sink_pull_sample(appsink);
16
17 GstBuffer * gstImageBuffer= gst_sample_get_buffer(sample);
18 GstCaps * caps = gst_sample_get_caps(sample);
19 const GstStructure *caps_st = gst_caps_get_structure (caps, 0);
20
21 if ((gst_structure_get_int (caps_st, "width", &width) != 0) && \
22 (gst_structure_get_int (caps_st, "height", &height) != 0) )
23 {
24 cameraBuffer.resize(width*height*3);
25
26 gst_buffer_extract(gstImageBuffer, 0, cameraBuffer.data(), cameraBuffer.size());
27
28 callback->OutputOrignalImage(&cameraBuffer);
29 }
30
31 gst_buffer_unref(gstImageBuffer);
32 //gst_sample_unref(sample); //一定不能添加这一句
33 }
34
35 void GStreamerCameraExtract::StopPipeline()
36 {
37 gst_element_set_state(pipeline,GST_STATE_NULL);
38 g_object_unref(pipeline);
39
40 g_object_unref(bus);
41 }
42
43 int GStreamerCameraExtract::CreateCameraExtractPipeline()
44 {
45 pipeline = gst_pipeline_new("mypipeline");
46 v4l2_src = gst_element_factory_make("v4l2src","src");
47 src_caps_filter = gst_element_factory_make("capsfilter","srccapsfilter");
48 caps_src = gst_caps_new_simple("video/x-raw",
49 "width",G_TYPE_INT,PICTURE_WIDTH,
50 "height",G_TYPE_INT,PICTURE_HEIGHT,
51 "framerate",GST_TYPE_FRACTION,FRAME_PER_SECOND,1,
52 NULL);
53 caps_sink = gst_caps_new_simple("video/x-raw",
54 "format",G_TYPE_STRING,"RGB",
55 "colorimetry",G_TYPE_STRING,"bt709",
56 "width",G_TYPE_INT,PICTURE_WIDTH,
57 "height",G_TYPE_INT,PICTURE_HEIGHT,NULL);
58 video_convert = gst_element_factory_make("videoconvert","videoconv");
59 appsink = (GstAppSink*)gst_element_factory_make("appsink","sink1");
60
61 if(!pipeline || !v4l2_src ||!src_caps_filter \
62 ||!caps_src ||!appsink \
63 ||!caps_sink || !video_convert )
64 {
65 std::cout<<"create element error"<<std::endl;
66 return -1;
67 }
68
69 g_object_set(v4l2_src,"device",CAMERA_DEVICE_NAME,NULL);
70
71 g_object_set(src_caps_filter,"caps",caps_src,NULL);
72 gst_caps_unref(caps_src);
73
74 gst_app_sink_set_caps(appsink,caps_sink);
75 gst_caps_unref(caps_sink);
76
77 gst_bin_add_many(GST_BIN(pipeline),v4l2_src,src_caps_filter,video_convert,appsink,NULL);
78
79 if(gst_element_link_many(v4l2_src,src_caps_filter,video_convert,appsink,NULL) == FALSE)
80 {
81 std::cout<<"link src & appsink error!"<<std::endl;
82 gst_object_unref(pipeline);
83 return -1;
84 }
85
86 gst_app_sink_set_drop(appsink, true);
87 gst_app_sink_set_max_buffers(appsink, 1);
88
89 appsink_callbacks = {NULL,NULL,appsink_new_sample_callback,NULL};
90 gst_app_sink_set_callbacks(appsink,&appsink_callbacks,this,NULL);
91
92 g_signal_connect(pipeline, "deep-notify", G_CALLBACK(gst_object_default_deep_notify), NULL);
93
94 int ret = gst_element_set_state(pipeline,GST_STATE_PLAYING);
95 if(ret == GST_STATE_CHANGE_FAILURE)
96 {
97 std::cout<<"set playing state error!"<<std::endl;
98 }
99
100 bus = gst_element_get_bus(pipeline);
101
102 return 0;
103 }
View Code
使用GStreamer 将摄像头数据采用硬件编码为H264格式数据的代码,暂不贴出了。