live555关于RTSP协议交互流程
live555的核心数据结构值之闭环双向链表
live555 rtsp服务器实战之createNewStreamSource
live555搭建实时播放rtsp服务器
live555 rtsp服务器实战之doGetNextFrame
live555可以说是rtsp的专项库,既可以搭建rtsp服务器,也可以搭建rtsp客户端;由于客户端可以由vlc,potplayer等工具代替;这章主要讲解rtsp服务器的搭建过程;
live555开源库可以说是很照顾用户了,搭建rtsp服务器的流程很精简!不用考虑太多按照流程搭建即可;具体的流程参考live555源码例程:ive555-master/testProgs/testOnDemandRTSPServer.cpp;
当然,和其他开源库源码例程一样,媒体流都是从文件中获取,与实际的项目需求还是有一定差别的;那么该怎么实现网络实时传输的rtsp服务器呢?
首先看一下例程的源码(以h264媒体流为例):
int main(int argc, char** argv) {// Begin by setting up our usage environment(首先设置我们的使用环境)://初始化调度任务的类。它负责管理任务的执行顺序和时间,确保多线程环境中的任务正确执行。TaskScheduler* scheduler = BasicTaskScheduler::createNew();//初始化基本操作环境的类。它封装了各种基本功能,如内存管理、错误处理、日志记录等。//接受一个 TaskScheduler 对象作为参数,并使用这个调度器来初始化环境。这确保了环境对象能够与调度器协同工作,正确地调度和管理任务。env = BasicUsageEnvironment::createNew(*scheduler);UserAuthenticationDatabase* authDB = NULL;// Serve regular RTSP (over a TCP connection)://创建rtsp服务器的类,里面创建了与客户端交互需要的ipv4和ipv6网络套接字,和各信令(OPTION DESCRIBE SETUP PLAY等)的处理函数RTSPServer* rtspServer = RTSPServer::createNew(*env, 8554, authDB);if (rtspServer == NULL) {*env << "Failed to create RTSP server: " << env->getResultMsg() << "\n";exit(1);}char const* descriptionString = "Session streamed by \"testOnDemandRTSPServer\"";char const* streamName = "h264ESVideoTest";char const* inputFileName = "test.264";//将streamName descriptionString等信息保存起来,供交互时使用ServerMediaSession* sms= ServerMediaSession::createNew(*env, streamName, streamName,descriptionString);int datalen = 0;unsigned char *databuf = nullptr;databuf = (unsigned char *)malloc(1024);//将该H264VideoFileServerMediaSubsession媒体子会话加入到会话链表中;咱们就是实现H264VideoFileServerMediaSubsession部分sms->addSubsession(H264VideoFileServerMediaSubsession::createNew(*env, inputFileName, reuseFirstSource));//将该会话添加到哈希表中,key就是streamName,val就是smsrtspServer->addServerMediaSession(sms);//打印rtsp的访问url; test例程自定义的打印接口,不在live555库里,在实际项目中可以不实现;announceStream(rtspServer, sms, streamName, inputFileName);//进入主循环;循环监视双向闭环链表,延时队列的状态,运行响应的处理函数env->taskScheduler().doEventLoop(); // does not returnreturn 0; // only to prevent compiler warning
}
为了方便阅读,代码做了精简!去掉了部分注释和不需要的代码;这样整个服务器的搭建流程就已经很清晰明了了;是不是很简单?
注:
媒体子会话:一个流URL可能链接很多客户端,每个客户端就是一个子会话。
来!来!来!接下来就是重头戏啦!我们怎么获取我们的网络媒体流呢? 首先我们需要实现两个虚函数:createNewStreamSource和doGetNextFrame;这两个函数的作用及在源码的调度流程我的前两篇文章已经介绍过,感兴趣的话点链接看详情;
我们需要创建两个类来实现这两个虚函数:
H264LiveVideoServerMediaSubssion类用于实现createNewStreamSource;因为createNewStreamSource函数被声明在OnDemandServerMediaSubsession类中,所以要继承OnDemandServerMediaSubsession类:
class H264LiveVideoServerMediaSubssion : public OnDemandServerMediaSubsession {public:static H264LiveVideoServerMediaSubssion* createNew(UsageEnvironment& env);protected: // we're a virtual base classH264LiveVideoServerMediaSubssion(UsageEnvironment& env);~H264LiveVideoServerMediaSubssion();protected: // redefined virtual functionsFramedSource* createNewStreamSource(unsigned clientSessionId,unsigned& estBitrate);RTPSink* createNewRTPSink(Groupsock* rtpGroupsock,unsigned char rtpPayloadTypeIfDynamic,FramedSource* inputSource);};
由于createNewRTPSink在OnDemandServerMediaSubsession类中也是纯虚函数,所以也需要在子类中实现;来看下函数实现:
H264LiveVideoServerMediaSubssion* H264LiveVideoServerMediaSubssion::createNew(UsageEnvironment& env, Boolean reuseFirstSource)
{return new H264LiveVideoServerMediaSubssion(env, reuseFirstSource);
}H264LiveVideoServerMediaSubssion::H264LiveVideoServerMediaSubssion(UsageEnvironment& env, Boolean reuseFirstSource)
: OnDemandServerMediaSubsession(env, reuseFirstSource)
{
}H264LiveVideoServerMediaSubssion::~H264LiveVideoServerMediaSubssion()
{
}FramedSource* H264LiveVideoServerMediaSubssion::createNewStreamSource(unsigned clientSessionId, unsigned& estBitrate)
{/* Remain to do : assign estBitrate */estBitrate = 1000; // kbps, estimate//创建视频源H264FramedLiveSource* liveSource = H264FramedLiveSource::createNew(envir());if (liveSource == NULL){return NULL;}// Create a framer for the Video Elementary Stream:return H264VideoStreamFramer::createNew(envir(), liveSource);
}
RTPSink* H264LiveVideoServerMediaSubssion::createNewRTPSink(Groupsock* rtpGroupsock,unsigned char rtpPayloadTypeIfDynamic,FramedSource* /*inputSource*/) {return H264VideoRTPSink::createNew(envir(), rtpGroupsock, rtpPayloadTypeIfDynamic);
}
createNewStreamSource函数是需要我们实现的函数,函数创建了H264FramedLiveSource类对象,这个类对象就是我们实现doGetNextFrame函数的类;createNewRTPSink函数不需要自己实现;之间创建H264VideoRTPSink类即可;
接下来看一下H264FramedLiveSource类;该类的doGetNextFrame指明了怎么获取媒体流;读取媒体流的方法;因为doGetNextFrame是在FramedSource中声明的纯虚函数;因此需要继承FramedSource类;
class H264FramedLiveSource : public FramedSource
{
public:static H264FramedLiveSource* createNew(UsageEnvironment& env);protected:H264FramedLiveSource(UsageEnvironment& env);~H264FramedLiveSource();private:virtual void doGetNextFrame();
};
FramedSource类中只有一个doGetNextFrame纯虚函数,用于获取媒体流,其他不用实现;doGetNextFrame函数的实现如下:
H264FramedLiveSource::H264FramedLiveSource(UsageEnvironment& env)
: FramedSource(env)
{
}H264FramedLiveSource* H264FramedLiveSource::createNew(UsageEnvironment& env)
{H264FramedLiveSource* newSource = new H264FramedLiveSource(env);return newSource;
}H264FramedLiveSource::~H264FramedLiveSource()
{
}void H264FramedLiveSource::doGetNextFrame()
{uint8_t *frameData = nullptr;int frameLen = 0;//获取视频帧,该函数自己实现,可以是接收网络帧,也可以是读取本地数据Get_Video_Frame(&frameData, frameLen);//赋值父类成员变量fFrameSize = frameLen;memcpy(fTo, frameData, fFrameSize);// nextTask() = envir().taskScheduler().scheduleDelayedTask(0,(TaskFunc*)FramedSource::afterGetting, this);//表示延迟0秒后再执行 afterGetting 函数//这个是必须的,原因参考我关于doGetNextFrame的文章afterGetting(this);return;
}
我是以帧的方式获取的视频流,在实际的开发中,不一定非要一次取一帧;也不一定按帧取;可以任意长度的数据;live555内部会进行分帧;
定义好这两个函数之后就可以修改main函数中的媒体流相关代码:
//例程代码sms->addSubsession(H264VideoFileServerMediaSubsession::createNew(*env, inputFileName, reuseFirstSource));
//修改代码sms->addSubsession(H264LiveVideoServerMediaSubssion::createNew(*env, reuseFirstSource));
至此,rtsp服务器搭建完成;其实过程很简单;只不过第一次使用live555开源库有点不知从何下手;当然live555源码的实现技巧,运行流程也是很值得借鉴的;源码分析我已经出了一些文章;关注我了解更多;
live555实现实时流rtsp服务器源码: