iOS11 AR场景中关于3D模型的触碰检测

Posted 孤独的救赎

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了iOS11 AR场景中关于3D模型的触碰检测相关的知识,希望对你有一定的参考价值。

      最新 ios11中的AR特别火爆,自己也到网上找了几个Demo把玩了下,核心代码无非以下:

//AR视图:展示3D界面

@property(nonatomic,strong)ARSCNView *arSCNView;

添加模型方法一:

  // Create a new scene

    SCNScene *scene = [SCNScene sceneNamed:@"art.scnassets/ship.scn"];

    

    // Set the scene to the view

    self.arSCNView.scene = scene; 

 

添加模型方法二:

//1.使用场景加载scn文件(scn格式文件是一个基于3D建模的文件,使用3DMax软件可以创建,这里系统有一个默认的3D飞机)--------在右侧我添加了许多3D模型,只需要替换文件名即可

    SCNScene *scene = [SCNScene sceneNamed:@"art.scnassets/ship.scn"];//@"Models.scnassets/chair/chair.scn"];

 

    //2.获取飞机节点(一个场景会有多个节点,此处我们只写,飞机节点则默认是场景子节点的第一个)

    //所有的场景有且只有一个根节点,其他所有节点都是根节点的子节点

    

    SCNNode *shipNode = scene.rootNode.childNodes[0];

    self.planeNode = shipNode;

    

    //飞机比较大,释放缩放一下并且调整位置让其在屏幕中间

    shipNode.scale = SCNVector3Make(0.5, 0.5, 0.5);

    shipNode.position = SCNVector3Make(0, -15,-15);

   ;

    //一个飞机的3D建模不是一气呵成的,可能会有很多个子节点拼接,所以里面的子节点也要一起改,否则上面的修改会无效

    for (SCNNode *node in shipNode.childNodes) {

        node.scale = SCNVector3Make(0.5, 0.5, 0.5);

        node.position = SCNVector3Make(0, -15,-15);

        

    }

     //3.将飞机节点添加到当前屏幕中

    [self.arSCNView.scene.rootNode addChildNode:shipNode];

//环境搭建代码见文后 结尾分割线 下

========================开头分割线====================

  最初想到的当然是通过添加手势看能否凑效,但是如果向ARSCNView添加,有点儿盲目做功,因为ARSCNView上不全是所求的3D模型,不管有没有点击到模型,手势方法都会出发;再观察SCNScene, SCNScene继承自NSObject,观察了API又陷入了死胡同;返回来看ARSCNView有个方法:

/*!

 @method hitTest:options:

 @abstract Returns an array of SCNHitTestResult for each node that contains a specified point.

 @param point A point in the coordinate system of the receiver.

 @param options Optional parameters (see the "Hit test options" group for the available options).

 */

- (NSArray<SCNHitTestResult *> *)hitTest:(CGPoint)point options:(nullable NSDictionary<SCNHitTestOption, id> *)options;

      该方法会返回一个SCNHitTestResult数组,这个数组中每个元素的node都包含了指定的点(CGPoint)

打个比方:ARSCNView就是个多层合成木板,手指的每次点击,都好像一根针穿透模板,该方法会反回由针穿过的所有点(node)组成的一饿数组,每个点其实都包含了你手指点击的位置(CGPoint),这样我们就可以通过便利每个数组中每个SCNHitTestResult的node,看哪个node有父node,并且找到node的name和3D模型的根节点name做对比,可以找到那就是点击到了3D模型;

代码如下:

           SCNNode *vaseNode = scene.rootNode.childNodes[0];

            vaseNode.name = @"Virtual object root node";//很重要,就靠name做对比

            //4.设置花瓶节点的位置为捕捉到的平地的位置,如果不设置,则默认为原点位置,也就是相机位置

            vaseNode.position = SCNVector3Make(planeAnchor.center.x, 0, planeAnchor.center.z);

 

            //5.将花瓶节点添加到当前屏幕中

            //!!!此处一定要注意:花瓶节点是添加到代理捕捉到的节点中,而不是AR试图的根节点。因为捕捉到的平地锚点是一个本地坐标系,而不是世界坐标系

            [node addChildNode:vaseNode];

// 系统方法

- (void)touchesBegan:(NSSet<UITouch *> *)touches withEvent:(UIEvent *)event

{

    if (self.arType == ARTypePlane&&self.rootNode) {

        self.currentTouches = touches;

        UITouch *touch = [self.currentTouches anyObject];

         CGPoint tapPoint  = [touch locationInView:self.arSCNView];//该点就是手指的点击位置

        NSDictionary *hitTestOptions = [NSDictionary dictionaryWithObjectsAndKeys:@(true),SCNHitTestBoundingBoxOnlyKey, nil];

        NSArray<SCNHitTestResult *> * results= [self.arSCNView hitTest:tapPoint options:hitTestOptions];

        for (SCNHitTestResult *res in results) {//遍历所有的返回结果中的node

            if ([self isNodePartOfVirtualObject:res.node]) {

                [self doSomeThing];

                break;

            }

        }

    }   

}

//上溯找寻指定的node

-(BOOL) isNodePartOfVirtualObject:(SCNNode*)node {

    if ([@"Virtual object root node" isEqualToString:node.name]) {

        return true;

    }

    if (node.parentNode != nil) {

        return [self isNodePartOfVirtualObject:node.parentNode];

    }    

    return false;

}

 

===========结尾分割线==============

#pragma mark -搭建ARKit环境

//懒加载会话追踪配置

- (ARSessionConfiguration *)arSessionConfiguration

{

    if (_arSessionConfiguration != nil) {

        return _arSessionConfiguration;

    }

    

    //1.创建世界追踪会话配置(使用ARWorldTrackingSessionConfiguration效果更加好),需要A9芯片支持

    ARWorldTrackingSessionConfiguration *configuration = [[ARWorldTrackingSessionConfiguration alloc] init];

    //2.设置追踪方向(追踪平面,后面会用到)

    configuration.planeDetection = ARPlaneDetectionHorizontal;

    _arSessionConfiguration = configuration;

    //3.自适应灯光(相机从暗到强光快速过渡效果会平缓一些)

    _arSessionConfiguration.lightEstimationEnabled = YES;

    

    return _arSessionConfiguration;

    

}

 

//懒加载拍摄会话

- (ARSession *)arSession

{

    if(_arSession != nil)

    {

        return _arSession;

    }

    //1.创建会话

    _arSession = [[ARSession alloc] init];

    _arSession.delegate = self;

    //2返回会话

    return _arSession;

}

 

//创建AR视图

- (ARSCNView *)arSCNView

{

    if (_arSCNView != nil) {

        return _arSCNView;

    }

    //1.创建AR视图

    _arSCNView = [[ARSCNView alloc] initWithFrame:self.view.bounds];

    

    //2.设置代理  捕捉到平地会在代理回调中返回

    _arSCNView.delegate = self;

    

    //2.设置视图会话

    _arSCNView.session = self.arSession;

    //3.自动刷新灯光(3D游戏用到,此处可忽略)

    _arSCNView.automaticallyUpdatesLighting = YES;

    

    return _arSCNView;

}

- (void)viewDidAppear:(BOOL)animated

{

    [super viewDidAppear:animated];

    

    //1.将AR视图添加到当前视图

    [self.view addSubview:self.arSCNView];

    //2.开启AR会话(此时相机开始工作)

    [self.arSession runWithConfiguration:self.arSessionConfiguration];

}

以上是关于iOS11 AR场景中关于3D模型的触碰检测的主要内容,如果未能解决你的问题,请参考以下文章

iOS-ARKit扫描和检测3D对象-Scanning and Detecting 3D Objects

全球最大 AR 3D 模型平台 Sketchfab 宣布支持 ARKit,或联手腾讯阿里进军中国

AR/VR Toolkit 如何创建活动 3D 视图的场景?

unity3d在安卓手机上开发游戏,如何实现左手手指移动虚拟按钮来控制方向

图像处理中关于Blob的阈值的一些概念

SeTransactionSyncTask:检索帐户时出错 java.lang.IllegalStateException:没有当前的触碰付款帐户