Apple HTTP Live Streaming 中的实时流元数据读取
Posted
技术标签:
【中文标题】Apple HTTP Live Streaming 中的实时流元数据读取【英文标题】:Live stream metadata reading in Apple HTTP Live Streaming 【发布时间】:2012-01-01 12:27:01 【问题描述】:在 Flash 世界中,存在表示实时流连接和流(NetConnection 和 NetStream)的对象的概念。尽管 Flash API 这些对象可用于将文本元数据注入实时流 (NetStream.send())。然后可以在 Flash 查看应用程序的查看端使用 ActionScript 代码中的侦听器侦听此数据。您可以通过 this 通过视频流传递函数调用,并在客户端监听并执行它们。
Apple HTTP Live Streaming 领域中是否存在这个概念?
【问题讨论】:
【参考方案1】:是的,元数据由id3taggenerator
生成到文件中,并使用mediafilesegmenter
嵌入到视频中,两者都包含在HTTP Live Streaming Tools 下载中。示例:
id3taggenerator -o camera1.id3 -text "Dolly camera"
id3taggenerator -o camera2.id3 -text "Tracking camera"
您可以嵌入多种元数据,包括二进制对象。有关详细信息,请参阅手册页。现在我们需要从“元宏文件”中引用生成的文件。这是一个纯文本文件,格式如下:
60 id3 camera1.id3
120 id3 camera2.id3
第一个数字是自要插入通知的视频开始后经过的秒数。 mediafilesegmenter 命令我记不太清了,至少要传递宏文件、索引和视频文件。
生成的视频包含由MPMoviePlayerController
作为通知发布的元数据。详情见本页:http://jmacmullin.wordpress.com/2010/11/03/adding-meta-data-to-video-in-ios/
【讨论】:
啊……好信息。非常有义务。所以有本机应用程序钩子可以做到这一点。纯粹来自浏览器怎么样?我可以从 html5/JS 中检索元数据吗?图片命令观看者屏幕上的项目根据通过视频流发送的命令以某种方式移动或更改。 我不这么认为。如果存在,它应该在 Safari HTML 5 音频和视频指南中。与 HTTP Live Streaming 技术无关,有一个 <track> element 仅支持使用名为 Captionator 的 JS 库。 非常感谢您的信息。我会调查的。以上是关于Apple HTTP Live Streaming 中的实时流元数据读取的主要内容,如果未能解决你的问题,请参考以下文章
iOS_直播类app_HTTP Live Streaming
iOS_直播类app_HTTP Live Streaming
静音播放 Http Live Streaming 视频的 AVPlayer