使用 LFLiveKit 捕获屏幕并流式传输到 rtmp 服务器

Posted

技术标签:

【中文标题】使用 LFLiveKit 捕获屏幕并流式传输到 rtmp 服务器【英文标题】:Capture screen and stream to rtmp server using LFLiveKit 【发布时间】:2017-07-14 11:56:05 【问题描述】:

我正在尝试使用LFLiveKit sdk 将 rtmp 流发送到服务器。我试过这样流式传输像素缓冲区,

var Lsession: LFLiveSession = 
  let audioConfiguration = LFLiveAudioConfiguration.defaultConfiguration(for: LFLiveAudioQuality.high)
  let videoConfiguration = LFLiveVideoConfiguration.defaultConfiguration(for: LFLiveVideoQuality.low3)
  let session = LFLiveSession(audioConfiguration: audioConfiguration, videoConfiguration: videoConfiguration)
  return session!
()

let stream = LFLiveStreamInfo()
stream.url = "rtmp://domain.com:1935/show/testS"
Lsession.pushVideo(frame.capturedImage)

如何使用屏幕截图初始化会话?有什么指点吗?

【问题讨论】:

你是如何截取iphone的屏幕的? 嗨@Pavan K,你能告诉我们你是如何捕获相机视图并将其发送到流 URL 的吗?? 我不确定您所说的相机视图是什么意思 - (frame.capturedImage) 这是来自 arkit 场景视图的相机视图。 如果您想要覆盖 ar 内容的视图,那么您可以使用snapshot() 获取UIImage,然后将其转换为像素缓冲区并流式传输,我想 通过相机视图,我的意思是用户可以在相机视图中看到的提要。无论相机捕捉到什么并在屏幕上显示。 【参考方案1】:

我必须像这样在会话初始化中设置 captureType,

let session = LFLiveSession(audioConfiguration: audioConfiguration, videoConfiguration: videoConfigurationcaptureType: LFLiveCaptureTypeMask.inputMaskVideo)

【讨论】:

以上是关于使用 LFLiveKit 捕获屏幕并流式传输到 rtmp 服务器的主要内容,如果未能解决你的问题,请参考以下文章

Android - 将视频从摄像头流式传输到另一个Android设备

从 PC 直播到 HoloLens 2 的方法

我可以将 iOS 应用程序视图流式传输到 Chromecast

在 iOS 设备上捕获视频并将其实时流式传输到服务器(或其他移动设备)

使用 Presentation 将屏幕流式传输到 chromecast

将 Android 屏幕流式传输到视频播放器