- 详情
- 目录
- 套餐1
- 课件3
1.本课程将介绍如何使用 Unity 开发 Apple Vision Pro 。通过系统化的学习,你将学会:
visionOS 应用形态的具体分类以及对应的开发方式
visionOS 的交互模块,包括眼动结合手势的操作、抓取物体、与 UI 之间的交互、手势识别等常见功能
使用 ARFoundation 开发空间交互,包括平面识别、图像识别、空间锚点、物体识别等功能
在开发测试阶段把程序快速分发到不同用户的设备上安装测试
......(会持续跟进 Apple Vision Pro 的新功能, Apple Vision Pro 的重要功能模块讲解会陆续在教程中推出)
2.专属开发答疑群,添加客服微信(点击网站最下方的微信按钮),
3.此教程会持续更新,可根据会员的热门需求制作相关的内容(随着课程数量的增多,后续课程价格可能会上涨,越早购买,越早享受优惠)
4.可开具发票(普票)
5.免费试看链接:https://www.bilibili.com/video/BV1fM4m1k75Y
https://www.bilibili.com/video/BV1AoCSYcEXs
退款说明:购买后 48 小时内可联系客服退款(不可重复退款)
课程源工程获取方式:购买后 48 小时后可联系客服获取
开发入门
XR Interaction Toolkit 适配 Vision Pro
Vision Pro 手势追踪交互
- 章节源工程说明
- 手部骨骼追踪(1):理论知识 05分钟49秒
- 手部骨骼追踪(2):骨骼节点渲染 + 驱动虚拟手部模型 34分钟26秒
- 手部骨骼追踪(3):虚拟物体绑定手部骨骼关节 34分钟01秒
- 手部骨骼追踪 HandTrackingManager 代码优化
- 另一种获取 HandSubsystem 的方法
- 【思维导图】手部骨骼追踪总结
- 手势识别基础(1):识别原理 29分钟39秒
- 手势识别原理配套文档
- 手势识别基础(2):官方样例场景讲解 21分钟13秒
- 手势识别基础(3):手势配置文件 23分钟12秒
- 手势识别实战(1):蝴蝶停靠掌心 40分钟24秒
- 手势识别实战(2):手势射击 39分钟47秒
- 开发技巧:防止误触系统手势菜单 04分钟35秒
ARFoundation 空间互动
- 空间锚点(1):理论知识 16分钟54秒
- 空间锚点(2):场景与脚本配置 33分钟39秒
- 空间锚点(3):代码讲解【上】 16分钟24秒
- 空间锚点(4):代码讲解【下】 21分钟17秒
- 空间锚点(5):代码与配置优化 20分钟09秒
- 通过图像识别修正虚拟空间(1):图像识别模块介绍 33分钟35秒
- 通过图像识别修正虚拟空间(2):虚拟空间校准原理 28分钟51秒
- 通过图像识别修正虚拟空间(3):代码讲解【上】 38分钟12秒
- 通过图像识别修正虚拟空间(4):代码讲解【下】 25分钟57秒
- 通过图像识别修正虚拟空间(5):优化 03分钟36秒
- 图像识别:如何在没有看向图片时隐藏识别成功后生成的物体
- 虚拟物体与现实物体的遮挡效果:原理 10分钟06秒
- 虚拟物体与现实物体的遮挡效果:PolySpatial 实现 20分钟08秒
- 虚拟物体与现实物体的遮挡效果:Metal 实现 09分钟43秒
实战进阶:模型分离与组装
物体识别
APP 打包、内测、分发、上架
其他常用交互功能
Metal 渲染模式(原 VR 开发模式)
- 1. Metal 渲染优势:解决 Shader、粒子特效、光照、视频播放等渲染特性的不兼容 23分钟34秒
- 2. Vision Pro VR 开发环境配置 32分钟57秒
- Metal打包报错No such module PolySpatialRealitykit的解决方法
- 3. Metal 渲染模式官方样例场景 05分钟53秒
- 4. Metal 渲染模式交互配置(抓取 + UI 交互) 37分钟29秒
- 【总结】Metal 渲染模式环境配置与交互配置重点
- 5. Metal 渲染开启 MR 透视 11分钟41秒
- 【总结】Metal 渲染模式开启 MR 透视
- 6. Metal 渲染模式键鼠模拟调试 19分钟42秒
- 【总结】VR 模拟器调试
- 7. VR 传送功能:玩家物体适配与模拟器环境准备 21分钟39秒
- 8. VR 传送功能:实现原理(上) 15分钟45秒
- 8. VR 传送功能:实现原理(下) 19分钟52秒
- VR 传送课程资源