我为avPlayer社区写的一个libav的中文api

但愿管理员的大婶们能发布啊。
/*
@author :jiaZhengShen,qq群中网名:,qq号:
avPlayer中的libav工程的api的中文介绍,以英文原文为准。
*/


/* 播放器状态. */
typedef enum play_status
{
	inited, playing, paused, completed, stoped
} play_status;


enum sync_type
{
	AV_SYNC_AUDIO_MASTER, /* 默认选择. */
	AV_SYNC_VIDEO_MASTER, /* 同步到视频时间戳. */
	AV_SYNC_EXTERNAL_CLOCK, /* 同步到外部时钟. */
};


/* 用于config_render参数表示所配置的render或source或demux.  */
#define MEDIA_SOURCE			0
#define MEDIA_DEMUX				1
#define AUDIO_RENDER			2
#define VIDEO_RENDER			3


/* 用于标识渲染器类型. */
#define VIDEO_RENDER_D3D		0
#define VIDEO_RENDER_DDRAW		1
#define VIDEO_RENDER_OPENGL		2
#define VIDEO_RENDER_SOFT		3


/* 队列.	*/
typedef struct _av_queue
{
	void *m_first_pkt, *m_last_pkt;
	int m_size; /* 队列大小.	*/
	int m_type; /* 队列类型.	*/
	int abort_request;
	pthread_mutex_t m_mutex;
	pthread_cond_t m_cond;
} av_queue;


/* 数据源结构分配和释放. */
EXPORT_API source_context* alloc_media_source(int type, const char *addition, int addition_len, int64_t size);
EXPORT_API void free_media_source(source_context *ctx);


/* 音频结构分配和释放. */
EXPORT_API ao_context* alloc_audio_render();
EXPORT_API void free_audio_render(ao_context *ctx);


/* 视频渲染结构分配和释放. */
EXPORT_API vo_context* alloc_video_render(void *user_data);
EXPORT_API void free_video_render(vo_context *ctx);


/* 分配视频分离和释放. */
EXPORT_API demux_context* alloc_demux_context();
EXPORT_API void free_demux_context(demux_context *ctx);


/* 计算视频实时帧率和实时码率的时间单元. */
#define MAX_CALC_SEC 5


typedef struct avplay
{
	/* 文件打开指针. */
	AVFormatContext *m_format_ctx;


	/* 音视频队列.	*/
	av_queue m_audio_q;
	av_queue m_video_q;
	av_queue m_audio_dq;
	av_queue m_video_dq;


	/* 各解码渲染线程.	*/
	pthread_t m_audio_dec_thrd;
	pthread_t m_video_dec_thrd;
	pthread_t m_audio_render_thrd;
	pthread_t m_video_render_thrd;
	pthread_t m_read_pkt_thrd;


	/* 重采样音频指针.	*/
	struct SwsContext *m_swsctx;
	struct SwrContext *m_swr_ctx;
	ReSampleContext *m_resample_ctx;


	/* 音频和视频的AVStream、AVCodecContext指针和index.	*/
	AVCodecContext *m_audio_ctx;
	AVCodecContext *m_video_ctx;
	AVStream *m_audio_st;
	AVStream *m_video_st;
	int m_audio_index;
	int m_video_index;


	/* 读取数据包占用缓冲大小.	*/
	long volatile m_pkt_buffer_size;
	pthread_mutex_t m_buf_size_mtx;


	/* 同步类型. */
	int m_av_sync_type;


	/*
	 * 用于计算视频播放时间
	 * 即:  m_video_current_pts_drift = m_video_current_pts - time();
	 *      m_video_current_pts是当前播放帧的pts时间, 所以在pts向前推进
	 *      的同时, time也同样在向前推进, 所以pts_drift基本保存在一个
	 *      time_base范围内浮动.
	 * 播放时间 = m_video_current_pts_drift - time()
	 */
	double m_video_current_pts_drift;
	double m_video_current_pts;


	/* 以下变量用于计算音视频同步.	*/
	double m_frame_timer;
	double m_frame_last_pts;
	double m_frame_last_duration;
	double m_frame_last_delay;
	double m_frame_last_filter_delay;
	double m_frame_last_dropped_pts;
	double m_frame_last_returned_time;
	int64_t m_frame_last_dropped_pos;
	int64_t m_video_current_pos;
	int m_drop_frame_num;


	/* seek实现. */
	int m_read_pause_return;
	int m_seek_req;
	int m_seek_flags;
	int64_t m_seek_pos;
	int64_t m_seek_rel;
	int m_seek_by_bytes;
	int m_seeking;


	/* 最后一个解码帧的pts, 解码帧缓冲大小为2, 也就是当前播放帧的下一帧.	*/
	double m_audio_clock;
	double m_video_clock;
	double m_external_clock;
	double m_external_clock_time;


	/* 当前数据源读取器. */
	source_context *m_source_ctx;
	AVIOContext *m_avio_ctx;
	unsigned char *m_io_buffer;
	/* 用于视频分离的组件. */
	demux_context *m_demux_context;
	/* 当前音频渲染器.	*/
	ao_context *m_ao_ctx;
	/* 当前视频渲染器. */
	vo_context *m_vo_ctx;
	/* 当前音频渲染器是否已经初始化完成, 为1表示完成初始化, 0表示未完成初始化. */
	int m_ao_inited;


	/* 当前音频播放buffer大小.	*/
	uint32_t m_audio_buf_size;


	/* 当前音频已经播放buffer的位置.	*/
	uint32_t m_audio_buf_index;
	int32_t m_audio_write_buf_size;
	double m_audio_current_pts_drift;
	double m_audio_current_pts_last;


	/* 播放状态. */
	play_status m_play_status;
	int m_rendering;


	/* 实时视频输入位率. */
	int m_enable_calc_video_bite;
	int m_real_bit_rate;
	int m_read_bytes[MAX_CALC_SEC]; /* 记录5秒内的字节数. */
	int m_last_vb_time;
	int m_vb_index;


	/* 帧率. */
	int m_enable_calc_frame_rate;
	int m_real_frame_rate;
	int m_frame_num[MAX_CALC_SEC]; /* 记录5秒内的帧数. */
	int m_last_fr_time;
	int m_fr_index;


	/* 正在播放的索引, 只用于BT文件播放. */
	int m_current_play_index;
	double m_start_time;
	double m_buffering;


	/* 停止标志.	*/
	int m_abort;


} avplay;


/*
*作用:	为Player分配上下文(为avplay结构体动态分配内存。)
*输入:	void
*输出:	如果成功返回一个avpaly的结构体指针,
		如果失败返回NULL。
*/
EXPORT_API avplay* alloc_avplay_context();
/*
*作用:	释放由alloc_avplay_context()函数非配的内存,应该与alloc_avplay_context()
		函数成对使用,否则会产生内存泄露。
*输入:	由alloc_avplay_context()函数的返回值的指针。
*输出:	void。
*/
EXPORT_API void free_avplay_context(avplay *ctx);
/*
*作用:	初始化avplay结构。
*输入:	play是有alloc_avplay_context()函数返回的指针。
		sc是“源上下文”,用于读取媒体数据。
*输出:	成功返回0,失败返回AVERROR ,既-1;
*例子:
avplayer *play = alloc_avplay_context();
int ret;
source_context sc = alloc_media_source(MEDIA_TYPE_FILE,"test.mp4",strlen("test.mp4")+1,filesize("test.mp4") );
ret = initialize(play,sc);
if(ret!=0)
	return ret;//出现错误。
*问:在这个函数中都初始化了哪些数据。
*答:1.注册了ffmpeg库中所有的codec,初始化了avformat_network_init();
	2.为avplay结构中的m_format_ctx初始化。
	3.把avplay中的m_source_ctx=sc。找到正确的数据源。分配内存。
	4.得到audio和video在streams中的index.保存音视频用到的AVStream和AVCodecContext指针。
	5.打开媒体文件对应的音视频解码器。
	6.设置同步方式为默认的AV_SYNC_AUDIO_MASTER(同步音频)方式,
	7。初始化打开媒体文件用到的package。
	8.初始化线程。
	9.把avplay结构中的其余数据均置零。
*/
EXPORT_API int initialize(avplay *play, source_context *sc);
/*
*@author:jeanWin:我认为这个函数是没有实现的函数,这个函数没有做任何东西,
建议不用这个函数,而是用initialize()函数。
 * Initialize the player.
 * @param play pointer to user-supplied avplayer (allocated by alloc_avplay_context).
 * @param file_name specifies the source file path or url.
 * @param source_type specifies source type, MEDIA_TYPE_FILE or MEDIA_TYPE_BT、
 *  MEDIA_TYPE_HTTP、 MEDIA_TYPE_RTSP、 MEDIA_TYPE_YK.
 * @param dc pointer to user-supplied demux_context object (allocated by alloc_demux_context).
 * @return 0 on success, a negative AVERROR on failure.
 * example:
 * avplayer* play = alloc_avplay_context();
 * int ret;
 * demux_context *dc = alloc_demux_context();
 * ret = initialize_avplay(play, "test.mp4", MEDIA_TYPE_FILE, dc);
 * if (ret != 0)
 *    return ret; // ERROR!


*/
EXPORT_API int initialize_avplay(avplay *play, const char *file_name, int source_type, demux_context *dc);
/*
*作用:	配置play的渲染器或者数据源。
*输入:	play由alloc_avplay_context()函数的返回值。
		param:音视频渲染器或者数据源。
		type:标志类型可以取的值有 : MEDIA_SOURCE or AUDIO_RENDER、 MEDIA_DEMUX、 VIDEO_RENDER.
*输出	void
*注意	函数没有进行出错处理,由使用者自己来正确的填写类型,例如:如果param为视频渲染器,而type为AUDIO_RENDER,程序将发生运行时错误,而可以编译通过。
*/
EXPORT_API void configure(avplay *play, void *param, int type);


/*
*作用:	play开始运行。
*输入:	play由alloc_avplay_context()函数的返回值。
		fact这里指的是媒体文件播放的开始时间。一般为0.0000
		index正在播放的索引号,仅对bt文件有用。别的文件可以任意写这个参数,
*问:	这个函数内部是如何实现的呢?
*答:	1.开始设置fact和index参数到avplay结构中。
		2.创建了5个线程。作用分别为
			(1)媒体文件解包
			(2)视频解码
			(3)音频解码
			(4)音频渲染
			(5)视频渲染
*/
EXPORT_API int av_start(avplay *play, double fact, int index);
/*
*作用:	空运转等待播放完毕。
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*问:	这个函数可以由其他的空运转函数代替吗?例如while(1){};
*答:	可以,但要保证av_start()函数所在的线程不被kill掉。
*/
EXPORT_API void wait_for_completion(avplay *play);
/*
*作用:	停止播放
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*问:	他是如何实现停止的作用的呢?
*答:	1.通知各个线程退出,
		2.等待各个线程退出
		3.各个线程退出后,释放资源。
*/
EXPORT_API void av_stop(avplay *play);
/*
*作用:	暂停播放。
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*问:	是如何实现的?
*答:	自己看代码、
*/
EXPORT_API void av_pause(avplay *play);
/*
*作用:	恢复播放。
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*问:	是如何实现的?
*答:	play->m_play_status = playing;
*
*/
EXPORT_API void av_resume(avplay *play);
/*
*作用:	跳转到fact
*输入:	play由alloc_avplay_context()函数的返回值。
		fact跳转到的位置最大值1.0,最小值0.0
*输出:	void
*/
EXPORT_API void av_seek(avplay *play, double fact);
/*
*作用:	设置音量。
*输入:	play由alloc_avplay_context()函数的返回值。
		l 左(left)声道
		r 右(right)声道
*输出:	如果成功返回0,失败返回其他值。
*/
EXPORT_API int av_volume(avplay *play, double l, double r);
/*
*作用:	音频设备是否初始化
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	初始化了返回0,否则其他值。
*/
EXPORT_API int audio_is_inited(avplay *play);
/*
*作用:	静音设置。
*输入:	play由alloc_avplay_context()函数的返回值。
		s如果为真静音,为假,则不静音或恢复到原始的音量。
*输出:	void
*/
EXPORT_API void av_mute_set(avplay *play, int s);
/*
*作用:	返回当前的播放时间。最大值为1.0,最小值为0.0百分比
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	返回当前的播放时间。最大值为1.0,最小值为0.0百分比
*/
EXPORT_API double av_curr_play_time(avplay *play);
/*
*作用:	返回当前的播放时间。单位是秒
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	返回当前的播放时间。单位是秒
*/
EXPORT_API double av_duration(avplay *play);
/*
*作用:	调用av_close(),并把play结构体free掉。调用这个函数之后
		不能再调用free_avplay_context()函数。否则会出现重复free的错误。
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*/
EXPORT_API void av_destory(avplay *play);
/*
*作用:	使能计算帧速率。
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*问:	他是如何实现的?
*答:	play->m_enable_calc_frame_rate = 1;
*/
EXPORT_API void enable_calc_frame_rate(avplay *play);
/*
*作用:	使能计算bit速率
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	void
*/
EXPORT_API void enable_calc_bit_rate(avplay *play);


/*
*作用:	得到bit速率
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	bit速率
 */
EXPORT_API int current_bit_rate(avplay *play);


/*
*作用:	得到帧速率
*输入:	play由alloc_avplay_context()函数的返回值。
*输出:	帧速率
 */
EXPORT_API int current_frame_rate(avplay *play);


/*
*这个函数仅用于bt文件。
 * Get buffer progress.
 * @param play pointer to the player.
 * @This function return buffering(percent).
*/
EXPORT_API double buffering(avplay *play);
/*
*作用:	设置下载的文件的保存路径
*输入:	play由alloc_avplay_context()函数的返回值。
		save_path 保存的路径
*输出:	void
*问:	什么文件可以设置路径
*答:	MEDIA_TYPE_BT,MEDIA_TYPE_YK这两种形式的文件可以。
*/
EXPORT_API void set_download_path(avplay *play, const char *save_path);
/*
*作用:	设置优酷视频的类型
*输入:	play由alloc_avplay_context()函数的返回值。
		type可以取下面的值:
		hd2,mp4,3gp,3gphd,flv,m3u8.
        0   1   2   3     4   5
*输出:	void
*/
EXPORT_API void set_youku_type(avplay *play, int type);
/*
*作用:	把日志写到文件中
*输入:	logfile,日志的文件名。
*输出:成功返回0
*/
EXPORT_API int logger_to_file(const char* logfile);
/*
*作用:关闭log文件。
*输入:	void
*输出:成功返回0,失败返回-1;
*/
EXPORT_API int close_logger_file();
/*
*作用:	设置日志的格式
*输入:	format string that contains the text to be written to log.
*/
EXPORT_API int logger(const char *fmt, ...);


/*
 * Blurring algorithm to the input video.
 * @param frame pointer to the frame.
 * @param fw is the width of the video.
 * @param fh is the height of the video.
 * @param dx is the x start coordinates of the target location.
 * @param dy is the y start coordinates of the target location.
 * @param dcx is width of the target range.
 * @param dcx is height of the target range.
 */
EXPORT_API void blurring(AVFrame *frame,
	int fw, int fh, int dx, int dy, int dcx, int dcy);


/*
 * Alpha blend image mixing.
 * @param frame pointer to the frame.
 * @param rgba pointer to the RGBA image.
 * @param fw is the width of the video.
 * @param fh is the height of the video.
 * @param rgba_w is the width of the image.
 * @param rgba_h is the height of the image.
 * @param x is the x start coordinates of the target location.
 * @param y is the y start coordinates of the target location.
 */
EXPORT_API void alpha_blend(AVFrame *frame, uint8_t *rgba,
	int fw, int fh, int rgba_w, int rgba_h, int x, int y);


你可能感兴趣的:(我为avPlayer社区写的一个libav的中文api)