Необработанные кадры H264 в контейнере mpegts с использованием libavcodec
Я был бы очень признателен за помощь в следующем вопросе:
у меня есть гаджет с камерой, производящей сжатые видеокадры H264, эти кадры отправляются в мое приложение. Эти фреймы находятся не в контейнере, а в необработанных данных.
Я хочу использовать функции ffmpeg и libav для создания видеофайла, который можно использовать позже.
если я декодирую кадры, а затем кодирую их, все работает нормально, я получаю действительный видеофайл. (декодирование / кодирование шаги-это обычные команды libav, ничего особенного здесь нет, я взял их из всемогущего интернета, они твердые как скала)... Однако я трачу много времени на декодирование и кодирование, поэтому я хотел бы пропустить этот шаг и напрямую поместить кадры в выходной поток. Теперь проблемы приходят.
вот код, который я придумал для создания кодировки:
AVFrame* picture;
avpicture_fill((AVPicture*) picture, (uint8_t*)frameData,
codecContext->pix_fmt, codecContext->width,
codecContext->height);
int outSize = avcodec_encode_video(codecContext, videoOutBuf,
sizeof(videoOutBuf), picture);
if (outSize > 0)
{
AVPacket packet;
av_init_packet(&packet);
packet.pts = av_rescale_q(codecContext->coded_frame->pts,
codecContext->time_base, videoStream->time_base);
if (codecContext->coded_frame->key_frame)
{
packet.flags |= PKT_FLAG_KEY;
}
packet.stream_index = videoStream->index;
packet.data = videoOutBuf;
packet.size = outSize;
av_interleaved_write_frame(context, &packet);
put_flush_packet(context->pb);
}
где переменные как:
frameData
расшифрованные данные по рамки, которые пришли от камеры, он был декодирован на предыдущем шаге и videoOutBuf
- простой буфер uint8_t для хранения данных
Я изменил приложение, чтобы не декодировать кадры, а просто пройти через данные, такие как:
AVPacket packet;
av_init_packet(&packet);
packet.stream_index = videoStream->index;
packet.data = (uint8_t*)frameData;
packet.size = currentFrameSize;
av_interleaved_write_frame(context, &packet);
put_flush_packet(context->pb);
здесь
frameData
является необработанным кадром H264
и currentFrameSize
- это размер необработанного кадра H264, т. е. количество байтов, которое я получаю от гаджета для каждого кадра.
и вдруг приложение больше не работает, в производится видео-игры. Это очевидно, так как я не устанавливал правильный PTS для пакета. То, что я сделал, было следующим (я в отчаянии, вы можете видеть это из этого подхода :))
packet.pts = timestamps[timestamp_counter ++];
здесь timestamps
на самом деле это список PTS, созданный рабочим кодом выше, и записанный в файл (да, вы прочитали его правильно, я зарегистрировал все PTS за 10-минутную сессию и хотел их использовать).
приложение по-прежнему не работает.
теперь здесь я я понятия не имею, что делать, поэтому вот вопрос:
Я хотел бы создать видеопоток "mpegts" с помощью функций libav, вставить в поток уже закодированные видеокадры и создать с ним видеофайл. Как мне это сделать?
спасибо, f.
2 ответов
Я считаю, что если вы установите следующее, Вы увидите воспроизведение видео.
packet.flags |= AV_PKT_FLAG_KEY;
packet.pts = packet.dts = 0;
вы действительно должны установить пакет.флаги в соответствии с заголовками пакетов h264. Вы можете попробовать этот парень стек overflowian's предложение для извлечения непосредственно из потока.
Если вы также добавляете аудио, то pts / dts будет более важным. Я предлагаю вам учиться в этом уроке
редактировать
Я нашел время, чтобы извлечь то, что работает для меня из моего тестового приложения. По какой-то причине значения DTS/pts нуля работают для меня, но значения, отличные от 0 или AV_NOPTS_VALUE, нет. Интересно, если у нас разные версии ffmpeg. У меня последняя от в git://git-репозитории.у VideoLAN.орг/видео.ГИТ.
fftest.cpp
#include <string>
#ifndef INT64_C
#define INT64_C(c) (c ## LL)
#define UINT64_C(c) (c ## ULL)
#endif
//#define _M
#define _M printf( "%s(%d) : MARKER\n", __FILE__, __LINE__ )
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
};
AVFormatContext *fc = 0;
int vi = -1, waitkey = 1;
// < 0 = error
// 0 = I-Frame
// 1 = P-Frame
// 2 = B-Frame
// 3 = S-Frame
int getVopType( const void *p, int len )
{
if ( !p || 6 >= len )
return -1;
unsigned char *b = (unsigned char*)p;
// Verify NAL marker
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
{ b++;
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
return -1;
} // end if
b += 3;
// Verify VOP id
if ( 0xb6 == *b )
{ b++;
return ( *b & 0xc0 ) >> 6;
} // end if
switch( *b )
{ case 0x65 : return 0;
case 0x61 : return 1;
case 0x01 : return 2;
} // end switch
return -1;
}
void write_frame( const void* p, int len )
{
if ( 0 > vi )
return;
AVStream *pst = fc->streams[ vi ];
// Init packet
AVPacket pkt;
av_init_packet( &pkt );
pkt.flags |= ( 0 >= getVopType( p, len ) ) ? AV_PKT_FLAG_KEY : 0;
pkt.stream_index = pst->index;
pkt.data = (uint8_t*)p;
pkt.size = len;
// Wait for key frame
if ( waitkey )
if ( 0 == ( pkt.flags & AV_PKT_FLAG_KEY ) )
return;
else
waitkey = 0;
pkt.dts = AV_NOPTS_VALUE;
pkt.pts = AV_NOPTS_VALUE;
// av_write_frame( fc, &pkt );
av_interleaved_write_frame( fc, &pkt );
}
void destroy()
{
waitkey = 1;
vi = -1;
if ( !fc )
return;
_M; av_write_trailer( fc );
if ( fc->oformat && !( fc->oformat->flags & AVFMT_NOFILE ) && fc->pb )
avio_close( fc->pb );
// Free the stream
_M; av_free( fc );
fc = 0;
_M;
}
int get_nal_type( void *p, int len )
{
if ( !p || 5 >= len )
return -1;
unsigned char *b = (unsigned char*)p;
// Verify NAL marker
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
{ b++;
if ( b[ 0 ] || b[ 1 ] || 0x01 != b[ 2 ] )
return -1;
} // end if
b += 3;
return *b;
}
int create( void *p, int len )
{
if ( 0x67 != get_nal_type( p, len ) )
return -1;
destroy();
const char *file = "test.avi";
CodecID codec_id = CODEC_ID_H264;
// CodecID codec_id = CODEC_ID_MPEG4;
int br = 1000000;
int w = 480;
int h = 354;
int fps = 15;
// Create container
_M; AVOutputFormat *of = av_guess_format( 0, file, 0 );
fc = avformat_alloc_context();
fc->oformat = of;
strcpy( fc->filename, file );
// Add video stream
_M; AVStream *pst = av_new_stream( fc, 0 );
vi = pst->index;
AVCodecContext *pcc = pst->codec;
_M; avcodec_get_context_defaults2( pcc, AVMEDIA_TYPE_VIDEO );
pcc->codec_type = AVMEDIA_TYPE_VIDEO;
pcc->codec_id = codec_id;
pcc->bit_rate = br;
pcc->width = w;
pcc->height = h;
pcc->time_base.num = 1;
pcc->time_base.den = fps;
// Init container
_M; av_set_parameters( fc, 0 );
if ( !( fc->oformat->flags & AVFMT_NOFILE ) )
avio_open( &fc->pb, fc->filename, URL_WRONLY );
_M; av_write_header( fc );
_M; return 1;
}
int main( int argc, char** argv )
{
int f = 0, sz = 0;
char fname[ 256 ] = { 0 };
char buf[ 128 * 1024 ];
av_log_set_level( AV_LOG_ERROR );
av_register_all();
do
{
// Raw frames in v0.raw, v1.raw, v2.raw, ...
// sprintf( fname, "rawvideo/v%lu.raw", f++ );
sprintf( fname, "frames/frame%lu.bin", f++ );
printf( "%s\n", fname );
FILE *fd = fopen( fname, "rb" );
if ( !fd )
sz = 0;
else
{
sz = fread( buf, 1, sizeof( buf ) - FF_INPUT_BUFFER_PADDING_SIZE, fd );
if ( 0 < sz )
{
memset( &buf[ sz ], 0, FF_INPUT_BUFFER_PADDING_SIZE );
if ( !fc )
create( buf, sz );
if ( fc )
write_frame( buf, sz );
} // end if
fclose( fd );
} // end else
} while ( 0 < sz );
destroy();
}
вы можете создать процесс для вызова ffmpeg с консоли.
пример командной строки для обработки файлов, как 000001.000002 формат JPG,.000003 формате JPG,.формат JPG. ,..
ffmpeg-i c:\frames\%06d.jpg -r 16-vcodec mpeg4-an-y c:\video\some_video - ... Ави!--1-->