转载Unity3D VR 教程:3.VR中的交互
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了转载Unity3D VR 教程:3.VR中的交互相关的知识,希望对你有一定的参考价值。
原文地址:http://blog.csdn.net/sherlockchang/article/details/51336901
概述
在VR开发中,我们经常需要激活一个用户正在盯着的物体。我们准备了一个示例,一个简单的可扩展的轻量级的系统,让用户和物体交互。这个系统由三个主要的脚本组成,VREyeRaycaster, VRInput, 和VRInteractiveItem - 下面有一些简短的说明和项目的源码。
VREyeRaycaster
这个脚本需要放在主摄像机上,每一次调用脚本的Update()向前发射一条射线, 调用Physics.Raycast来检测是不是击中了任何碰撞盒。这个功能可以设置为排除特定的layer(层),根据场景,可能需要把所有互动的物体移动到另一个层来做显示效果。
如果碰撞盒被射线集中,这个脚本会尝试在目标对象上查找VRInteractiveItem 控件:
通过这个我们可以知道用户是否正在看着某个物体,或者停止查看某个物体,如果用户开始查看或者停止查看某个物体,我们可以做一些响应,例如调用某个方法。
VRInput
VRinput是个简单的类,它用来兼容动作发生的来源,是使用GearVR上触发的 swipes, taps, double-taps事件,还是使用DK2时,专为PC准备的输入事件。
可以在VRInput 中直接注册事件监听:
关于注册事件监听的更多信息,请查看我们的事件教程
VRInteractiveItem
任何想在VR中进行互动的物体都可以添加这个组件。需要物体上有碰撞盒。
这里有6个可以进行监听的事件:
添加一个boolean变量,用来查看现在是不是在Over( 悬停)的状态:
你可以创建自己的脚本来响应这些事件,这里有一个非常简单的例子,用到了这里的一些事件:
要查看这个基础的示例的话,可以看一下VRSampleScenes/Scenes/Examples/ 中的InteractiveItem 场景
SelectionRadial(环形选择区) 和 SelectionSlider(滑块选择区)
(用来确认选项)
VR示例场景中的一些互动示例
现在我们来研究一下VR示例项目中的一些例子。我们会讨论一下每个场景的互动效果和它们的实现方法。
在菜单场景中的互动
每个菜单画面都有几个组件。特别需要了解一下的是MenuButton, VRInteractiveItem, 和Mesh Collider。
MenuButton 组件监听了来自 VRInteractiveItem 组件的 OnOver 和 OnOut 事件, 当准星悬停在菜单画面上的时候, 环形选择块就会出现, 当视线离开menu item(菜单选项)时, 这个环形选择块会消失。当选择圈可见的时候,按下Fire1 键, 这个环形会逐渐填满:
这个类也监听了OnSelectionComplete 事件, 当环形圈填满的时候,HandleSelectionComplete 方法会被调用,它会让显示器淡出然后读取所选择的关卡。
这里有一些关于Selection Radial的示例, 注意截图中央的粉色图形。
只有点状准星的:
空的选择确认圈, 因为现在正在看着menu 场景所以出现:
选择确认圈正在填充(用户正在看着菜单画面, 而且按住了 输入设备的 Fire1 键):
通过在研究示例项目中的进度条和环形试,着掌握这个模式。我们建议你在自己的VR项目上考虑一下这个方法,这样能保证用户体验的一致性,也能帮助他们适应这个新的设备。
Maze Scene 中的交互
迷宫游戏提供了一个桌游模式的交互,在这里你需要用开关(挡板)来引导角色必考炮塔,到达终点。
为角色选择目的地的时候,会出现一个目的地标记,路上会出现一条路线,让角色沿着轨迹前进。在触控板上滑动,或者按下方向键,或者用手柄左摇杆,可以旋转画面。
MazeFloor 对象 有一个MeshCollider 组件和一个VRInteractiveItem 组件, 让它能在VR中进行交互:
MazeCourse 物体 包含有MazeFloor 和MazeWalls ,包含着用作迷宫布局的几何体:
MazeCourse 物体添加了MazeTargetSetting脚本, 有一个VRInteractiveItem 的引用,指向MazeFloor物体上的VRInteractiveItem 组件:
MazeTargetSetting 监听了来自VRInteractiveItem 的 OnDoubleClick 事件, 然后它会发送OnTargetSet 事件。这个事件会把准星的Transform(空间坐标信息)当作变量一起传出:
MazeCharacter 物体上的 Player 组件和 MazeDestinationMarkerGUI 物体上的 DestinationMarker 组件都监听了OnTargetSet这个事件,然后相应的做出了反应。
角色使用了Nav Mesh systems(导航系统)在迷宫中寻路。Player 组件实现了HandleSetTarget方法,在方法中,把导航系统的目标点设置为准星的坐标, 然后更新它对玩家轨迹的渲染:
DestinationMarker (目标点生成器)会把标记移动到准星Transform的位置:
你可以看到准星,目的地制作器,玩家,和轨迹:
迷宫中的开关也是一个在VR中和物体互动的例子。使用了一个Collider(碰撞盒),像VRInteractiveItem 和SelectionSlider 这两个类一样。
像以上演示的和其他物体的互动, SelectionSlider脚本监听了 VRInteractiveItem 和 VRInput 发出的事件:
Flayer 场景中的交互
飞行器场景是一个无限飞行的游戏,玩家需要控制飞船在场景中飞行,使用Fire1 进行射击, 射击小行星,穿过空中的门,都能增加分数。玩法类似飞行俱乐部和星际火狐。
在交互方面,Flyer是一个更简单的案例, FlyerLaserController 监听了 VRInput 的O nDown 事件来发射激光:
Shooter180 和 Shooter360 场景中的交互(Target Gallery/Target Arena)
VR示例实现了两个射击游戏,180度走廊打靶射击游戏,和360度的竞技场射击游戏。
每个在射击游戏里创建的靶子都有 Collider, VRInteractiveItem 和 ShootingTarget 组件。
ShootingTarget 组件监听了VRInteractiveItem发出的OnDown事件,来判断标靶是不是被射击。这个方法适合即时射击,如果要做一个击中数的模式,我们需要另一个方案实现。
现在你可能对 VR交互组件 有了一个大概认识,知道了这些组件是如何在VR 示例项目中使用的。现在我们来讨论一下注视和准星是如何在我们的VR示例中生效的。
注视
在VR中侦测玩家正在查看的方向是很重要的,关系到是否允许用户和物体互动,激活动画,或者对对目标发射子弹等等。我们引用的这个动作,在VR中叫做“gaze”(注视), 而且,接下来我们会在我们的VR文章中,使用这个术语。
由于大多数头戴式显示设备还不支持眼球追踪,我们现在只能估算玩家的注视。因为镜片的扭曲,这意味着玩家基本上是朝前看的,所以有一个简单的解决方案。就像在概述中提到的,我们只需要在摄像机中心朝前发射一条射线,然后查找这条射线所有碰撞的物体。当然,这意味着任何物体能被碰撞(或者通过注视进行互动)的物体都要有碰撞盒。
准星
准星可以帮助指示出玩家的视野中心。准星可以是一个简单的点,或者是个交叉十字线,这要看项目的需求。
在传统的3D游戏中,准星通常被设置为空间中固定的点, 通常是屏幕的中心。 在VR中定位一个准星要更复杂:用户在VR场景中观察环境,视线会聚集到离摄像机比较近的物体上。如果准星有一个固定的位置, 用户会看到两个:可以把手指放在眼前然后看远处的物体来模拟一下这个感觉, 如果你聚焦到你的手指,背景的物体看起来会变成两个, 反之同样。这被叫做voluntary Diplopia(自发性复视)。
要避免用户观察环境时和注视不同距离的物体时看到两个准星,需要把准星放到物体表面正在被观察的点,然后根据摄像机到这个点的距离对它进行缩放。
有一些简单的例子来演示准星如何处理不同距离和尺寸, 来自 Examples/Reticlescene (示例/准星场景)
准星被放置在一个物体上,靠近摄像机:
准星被放置在一个远处的物体上:
准星放置在远处的位置:
由于调整了位置和缩放, 准星在用户看来是一样的大小,也忽略的它到摄像机的距离。
当注视的射线上没有物体的时候,我们简单的把准星放到一个预设的距离上。在一个护腕环境,这个被简单的放在摄像机的最远端裁剪面上,或者在室内场景的话,这个位置会变得更近。
越过其他物体渲染准星
如果准星被放置在了和物体同样的位置, 这个准星可能和其他附近的物体有重叠:
要解决这个问题,我们需要保证准星渲染在所有其他物体之上。VR示例中提供了一个基于 “UI/Unlit/Text”的shader,叫做UIOverlay.shader。给材质选择shader的时候,可以在“UI/Overlay”下面找到它。
这个shader可以用在UI元素和文字,会在其它物体的最上方渲染:
调整准星到场景中的其他物体
最后,如果需要旋转准星来贴合到视线击中的物体上。我们可以用RaycastHit.normal。这里演示如何在准星中设置:
可以在迷宫场景中看到这个动作。
下面是准星如何贴合到墙壁上:
准星贴合到地面:
我们已经引入了一个示例准星脚本。 和 VREyeRaycaster 一起把准星定位到场景中,有选项控制是否贴合到目标物体表面。
以上所有都能在VRSampleScenes/Scenes/Examples/ 文件夹下的 Reticle scene 查看。
VR中头部的旋转和坐标
HMD(头戴式显示设备)旋转和坐标的明显的用途是用来观察环境,但是这两个变量,用来和环境互动也是可以的。
需要使用 VR.InputTracking class 这个类来得到这两个值,然后区分需要进入哪个 VRNode(VR节点)。我们需要使用VRNode.Head来得到头部的旋转。头部,而不是每只眼睛。关于这个的更多信息,可以参考Getting Started with VR Development这篇文章。
把旋转作为一种输入类型的示例,基于头部旋转来精确的旋转一个菜单或者其他物体。可以在这里找到这里示例,VRSampleScenes/Examples/Rotation scene, 以下示例脚本:
可以看到物体会根据玩家查看的方向进行旋转:
在我们的示例Flyer game(飞行器游戏)中,你可以看到FlyerMovementController中,基于头部的旋转调整飞船坐标:
VR 游戏中 与触控板和键盘的交互
Gear VR 在设备侧面有触控板。对于Unity来说,表现为出镖, 可以通过下面的方式调用:
使用Gear VR时,可能也许需要获取触控板的滑动数据。我们引入了一个VRInput 脚本来处理滑动,触屏点击,和触屏双击。也接受键盘输入中的方向键和左Ctrl键(Unity默认输入术语中的Fire1),来触发swipes(滑动)和taps(点击)。
在Unity编辑器中,由于现在没有办法测试Unity到GearVR的内容,可能用DK2来测试GearVR 的内容。由于Gear VR 触控板事件是作为鼠标事件运作的,我们可以简单的使用鼠标来模拟输入。由于使用HMD(头戴式显示设备)时,定位键盘要更简单一点, 为了方便,VRInput也会接受方向键作为滑动事件,然后左Ctrl(Fire1)作为触屏点击事件(taps)。
对于手柄的基础操作,左摇杆的动作会作为华东,然后按下其中一个按钮会作为点击。
在VRSampleScenes/Scenes/Examples/Touchpad中有一个例子监听了swipes(滑动)事件。
一下是ExampleTouchpad 脚本, 按照滑动的方向,对刚体添加扭力,让物体能够旋转起来。
VR示例中的VRInput例子
像上文提到的,所有我们的示例游戏,都用VRInput来处理触控板和鼠标事件。在Maze(迷宫)中的摄像机也响应了滑动事件。
Maze(迷宫)
在这个场景中,摄像机轨道监听了swipes(滑动)事件,能够改变视角:
关于为什么场景的摄像机轨道而不是直接旋转这个迷宫本身,请查看 Movement article 这篇文章。
现在你对VR 示例场景中,基础VR交互的工作原理有了一个更好的认识。有很多方法去完成这个事情,但是这个方法学起来又快又简单。在下一篇文章里,我们会讨论VR中不同类型的用户界面。同时记得,打算向同样研究VR的朋友们提问关于VR的问题的话,你可以跳转到Unity官方论坛VR板块。
在迷宫场景中看到这个动作。
下面是准星如何贴合到墙壁上:
以上是关于转载Unity3D VR 教程:3.VR中的交互的主要内容,如果未能解决你的问题,请参考以下文章
Unity3D 与 objective-c 之间数据交互。iOS SDK接口封装Unity3D接口 .-- 转载
Unity VR开发教程 OpenXR+XR Interaction Toolkit (六)手与物品交互(触摸抓取)