在 Swift 中从相机中裁剪图像而不移动到另一个 ViewController

Posted

技术标签:

【中文标题】在 Swift 中从相机中裁剪图像而不移动到另一个 ViewController【英文标题】:Crop Image from Camera in Swift without move to another ViewController 【发布时间】:2017-03-18 12:59:51 【问题描述】:

我在 CameraViewController 中有一个图像叠加层:

我想从这个红色方块中获取图像。 我不想移动到另一个视图控制器来设置 CropViewController,裁剪应该在这个控制器内完成。

后面的代码几乎可以工作,问题是从相机生成的图像是 1080x1920,self.cropView.bounds 是 (0,0,185,120),当然它不代表用于拍摄图像的相同比例

extension UIImage 
    func crop(rect: CGRect) -> UIImage 
        var rect = rect
        rect.origin.x*=self.scale
        rect.origin.y*=self.scale
        rect.size.width*=self.scale
        rect.size.height*=self.scale

        let imageRef = self.cgImage!.cropping(to: rect)
        let image = UIImage(cgImage: imageRef!, scale: self.scale, orientation: self.imageOrientation)
        return image
    

【问题讨论】:

如果您知道要裁剪的 CGRect 的坐标,请使用 CIPerspectiveCorrection 过滤器。几分钟后我会扔掉一些代码。 @dfd 我正在尝试了解 CIPerspectiveCorrection 的工作原理,如果您提供任何代码,将会有很大帮助!谢谢 我刚刚添加了它。从正在工作的应用程序复制/粘贴到新项目中,看起来它正在工作 - 它看起来像是颠倒的,这可能是由于某些点 CGPoint 转置。告诉你什么,我会把我的非常测试版的应用放到公共 GitHub 上。 好的,存储库在那里。相当大,因为我有几个测试图像等。它也有一些动画(这意味着在模拟器中运行非常慢)来教我裁剪/缩放。无论如何,它在 [link]github.com/justdfd/thefinedetails。希望这会有所帮助! 找到了。我将其添加到我的解决方案中,因为我想格式化。 【参考方案1】:

您始终可以使用调用 CIPerspectiveCorrection 的核心图像过滤器以可视方式裁剪任何四边形(四边形 - 不一定是矩形)的图像。

假设您有一个 414 宽 x 716 高的 imageView 框架,图像的大小为 1600 宽 x 900 高。 (您正在使用 .aspectFit 的内容模式,对吗?)假设您要裁剪一个 4 边形状,即在 imageView 的 (X,Y) 坐标中的角 - 是 (50,50), (75,75) , (100,300) 和 (25,200)。请注意,我按左上角(TL、右上角 (TR)、右下角 (BR)、左下角 (BL) 的顺序列出了点。另请注意,这不是一个直截了当的矩形。

你需要做的是:

    将 UIImage 转换为 CIImage,其中“extent”是 UIImage 的大小, 将那些 UIImageView 坐标转换为 CIImage 坐标, 将它们和 CIImage 传递到 CIPerspectiveCorrection 过滤器进行裁剪,然后 将 CIImage 输出渲染到 UIImageView。

下面的代码有点粗糙,但希望你能明白这个概念:

class ViewController: UIViewController 

    let uiTL = CGPoint(x: 50, y: 50)
    let uiTR = CGPoint(x: 75, y: 75)
    let uiBL = CGPoint(x: 100, y: 300)
    let uiBR = CGPoint(x: 25, y: 200)

    var ciImage:CIImage!
    var ctx:CIContext!

    @IBOutlet weak var imageView: UIImageView!

    override func viewDidLoad() 
        super.viewDidLoad()
        ctx = CIContext(options: nil)
        ciImage = CIImage(image: imageView.image!)
    

    override func viewWillLayoutSubviews() 
        let ciTL = createVector(createScaledPoint(uiTL))
        let ciTR = createVector(createScaledPoint(uiTR))
        let ciBR = createVector(createScaledPoint(uiBR))
        let ciBL = createVector(createScaledPoint(uiBL))
        imageView.image = doPerspectiveCorrection(CIImage(image: imageView.image!)!,
                                                  context: ctx,
                                                  topLeft: ciTL,
                                                  topRight: ciTR,
                                                  bottomRight: ciBR,
                                                  bottomLeft: ciBL)
    
    func doPerspectiveCorrection(
        _ image:CIImage,
        context:CIContext,
        topLeft:AnyObject,
        topRight:AnyObject,
        bottomRight:AnyObject,
        bottomLeft:AnyObject)
        -> UIImage 
            let filter = CIFilter(name: "CIPerspectiveCorrection")
            filter?.setValue(topLeft, forKey: "inputTopLeft")
            filter?.setValue(topRight, forKey: "inputTopRight")
            filter?.setValue(bottomRight, forKey: "inputBottomRight")
            filter?.setValue(bottomLeft, forKey: "inputBottomLeft")
            filter!.setValue(image, forKey: kCIInputImageKey)
            let cgImage = context.createCGImage((filter?.outputImage)!, from: (filter?.outputImage!.extent)!)
            return UIImage(cgImage: cgImage!)
    

    func createScaledPoint(_ pt:CGPoint) -> CGPoint 
        let x = (pt.x / imageView.frame.width) * ciImage.extent.width
        let y = (pt.y / imageView.frame.height) * ciImage.extent.height
        return CGPoint(x: x, y: y)
    
    func createVector(_ point:CGPoint) -> CIVector 
        return CIVector(x: point.x, y: ciImage.extent.height - point.y)
    
    func createPoint(_ vector:CGPoint) -> CGPoint 
        return CGPoint(x: vector.x, y: ciImage.extent.height - vector.y)
    


编辑:我把它放在这里是为了解释事情。我们两个交换了项目,提问者的代码出现了一个问题,出现了 nil 返回。首先,这里是更正后的代码,应该在cropImage() 函数中:

let ciTL = createVector(createScaledPoint(topLeft, overlay: cameraView, image: image), image: image)
let ciTR = createVector(createScaledPoint(topRight, overlay: cameraView, image: image), image: image)
let ciBR = createVector(createScaledPoint(bottomRight, overlay: cameraView, image: image), image: image)
let ciBL = createVector(createScaledPoint(bottomLeft, overlay: cameraView, image: image), image: image)

问题在于最后两行,它们是通过将bottomLeft 传递到应该是bottomRight 的地方来转置的,反之亦然。 (容易犯错,我也犯过!)

一些解释可以帮助那些使用 CIPerspectiveCorrection(和其他使用 CIVectors 的过滤器)的人。

    CIVector 可以包含从 - 我认为 2 到几乎无限数量的组件。这取决于过滤器。在这种情况下,有两个分量(X,Y)。很简单,但不同的是,4 个 CIVector 描述了 CIImage 范围内的 4 个点,其中原点位于左下角,而不是左上角。

    请注意,我没有说 4 面形状。您实际上可以有一个“图 8”形状,其中“右下”点位于“左下”点的左侧!这将导致两侧相互交叉的形状。

    重要的是所有 4 个点都位于 CIImage 范围内。如果没有,过滤器将返回 nil 作为其输出图像。

对于那些以前没有使用过 CIImage 过滤器的人的最后一点注意 - 在您请求 outputImage 之前,过滤器不会执行。您可以实例化一个,填写参数,链接它们,等等。您甚至可以在过滤器名称(或它们的任何键)中打错字。在您的代码请求 filter.outputImage 之前,什么都没有发生。

【讨论】:

非常感谢您的代码和示例,但我仍然在 context.createCGImage 中得到一个 nil 图像,我还刚刚上传了一个有问题的示例bitbucket.org/marckaraujo/how-much,非常感谢您的帮助 我现在正在查看您的代码并将其缩小到 createScaledPoint()。基本上,您的 CIImage 的范围为 1920x1080,但 CGPoint(307,240) 的转换变成了 (2456,-1080) 的向量。我会看看我能不能想出为什么。这里的 CIVectors 基本上是原点在左下角而不是左上角的坐标。我的例程使用了全局变量,我想知道您为 UIImage(代码中的“rect”)传递的内容是否不是 整个 UIImage 而是其他内容。 非常感谢您的帮助。它现在可以工作,但只是没有自动布局。如果您使用自动布局,则裁剪后的图像不是您选择的内容 有趣。这应该没关系。 如果你想看一下,我刚刚更新了 git,我正试图弄清楚发生了什么。

以上是关于在 Swift 中从相机中裁剪图像而不移动到另一个 ViewController的主要内容,如果未能解决你的问题,请参考以下文章

Swift 中的自定义相机和裁剪图像

如何在 Swift 中从相机或照片库加载图像 [关闭]

在 Swift 中从 HTML 生成带有图像的 PDF 而不显示打印界面

如何使用 swift 在情节提要中从一个视图控制器移动到另一个视图控制器 [重复]

从 Swift 中的自定义相机拍摄后裁剪图像

裁剪图像而不加载到内存中