使用 LFLiveKit 捕获屏幕并流式传输到 rtmp 服务器
Posted
技术标签:
【中文标题】使用 LFLiveKit 捕获屏幕并流式传输到 rtmp 服务器【英文标题】:Capture screen and stream to rtmp server using LFLiveKit 【发布时间】:2017-07-14 11:56:05 【问题描述】:我正在尝试使用LFLiveKit sdk 将 rtmp 流发送到服务器。我试过这样流式传输像素缓冲区,
var Lsession: LFLiveSession =
let audioConfiguration = LFLiveAudioConfiguration.defaultConfiguration(for: LFLiveAudioQuality.high)
let videoConfiguration = LFLiveVideoConfiguration.defaultConfiguration(for: LFLiveVideoQuality.low3)
let session = LFLiveSession(audioConfiguration: audioConfiguration, videoConfiguration: videoConfiguration)
return session!
()
let stream = LFLiveStreamInfo()
stream.url = "rtmp://domain.com:1935/show/testS"
Lsession.pushVideo(frame.capturedImage)
如何使用屏幕截图初始化会话?有什么指点吗?
【问题讨论】:
你是如何截取iphone的屏幕的? 嗨@Pavan K,你能告诉我们你是如何捕获相机视图并将其发送到流 URL 的吗?? 我不确定您所说的相机视图是什么意思 -(frame.capturedImage)
这是来自 arkit 场景视图的相机视图。
如果您想要覆盖 ar 内容的视图,那么您可以使用snapshot()
获取UIImage
,然后将其转换为像素缓冲区并流式传输,我想
通过相机视图,我的意思是用户可以在相机视图中看到的提要。无论相机捕捉到什么并在屏幕上显示。
【参考方案1】:
我必须像这样在会话初始化中设置 captureType,
let session = LFLiveSession(audioConfiguration: audioConfiguration, videoConfiguration: videoConfigurationcaptureType: LFLiveCaptureTypeMask.inputMaskVideo)
【讨论】:
以上是关于使用 LFLiveKit 捕获屏幕并流式传输到 rtmp 服务器的主要内容,如果未能解决你的问题,请参考以下文章
Android - 将视频从摄像头流式传输到另一个Android设备
我可以将 iOS 应用程序视图流式传输到 Chromecast
在 iOS 设备上捕获视频并将其实时流式传输到服务器(或其他移动设备)