Sensores LIDAR
Para a maioria dos utilizadores comuns, os sensores LiDAR para detecção de profundidade de precisão continuam a ser o domínio exclusivo dos iPhones e iPads da Apple, porém, o Google está a ajudar os fabricantes de dispositivos Android a fechar a lacuna de profundidade no lado do software por meio do seu kit de ferramentas ARCore.
Depois de apresentar novos recursos de RA para Pesquisa, Mapas e visualizar o alucinante conceito de videoconferência Project Starline 3D durante a sua apresentação de I/O, o Google anunciou sem cerimónia o ARCore 1.24, que traz dois novos recursos de AR, Raw Depth API e Recording e API de reprodução, com a primeira permitindo experiências de RA mais realistas e oclusão mais precisa na ausência de LiDAR.
API Raw Depth
A API Raw Depth baseia-se na API Depth existente, capturando dados de profundidade adicionais para que as APPs possam renderizar experiências de RA realistas por meio de uma câmera de smartphone padrão. No entanto, os dispositivos Android com sensores de tempo de voo para medição de profundidade proporcionarão experiências de maior qualidade.
O resultado dos dados agregados é um reconhecimento de geometria aprimorado, o que significa maior precisão na medição de profundidade e melhor compreensão ambiental para ancorar o conteúdo de RA de forma realista em ambientes físicos.
Aplicações que já utilizam API Raw Depth
Uma das primeiras APPs a tirar proveito da API de profundidade bruta é o TikTok. O efeito Green Screen Projector da APP envolve objetos onde a API Raw Depth tem um alto grau de confiança com fotos do rolo da câmera do usuário.
Outros adotantes iniciais incluem o jogo de máquina virtual Rube Goldberg AR Doodads, a APP de medição AR Connect , a APP de digitalização 3D Live Scanner e o lifeAR do Teamviewer para assistência remota.
Além disso, com a API de gravação e reprodução, o ARCore oferece aos aplicativos a capacidade de capturar unidades de medição inercial (IMU) e dados de profundidade em imagens de vídeo. Para os programadores isso significa que este podem testar aplicativos RA sem se aventurar em campo para vários ambientes do mundo real.
API de gravação e reprodução
A API de gravação e reprodução também cria um novo tipo de experiência de RA para os utilizadores finais, permitindo que estes adicionem conteúdo virtual aos vídeos. Por exemplo, o JumpAR da SK Telecom permite que os utilizadores interajam com vídeos de locais na Coreia do Sul e adicionem conteúdo de RA. Enquanto isso, o VoxPlop! da Nexus Studios oferece aos usuários a capacidade de adicionar personagens 3D aos vídeos e compartilhá-los com outras pessoas, que podem, por sua vez, editá-los com conteúdo RA.
O Google cobrirá esses recursos em maior…ahem…profundidade durante a sessão New Capabilities in ARCore.
Ironicamente, foi o Google que introduziu pela primeira vez os sensores de profundidade por meio de sua plataforma de hardware Tango, mas a adoção foi limitada a apenas dois dispositivos comerciais. A Apple respondeu com o ARKit , no qual a versão 1.0 pode detectar superfícies horizontais através de uma câmera padrão do iPhone. O Google mudou da abordagem de hardware e adaptou o software do Tango ao ARCore.
Agora, a Apple tornou os sensores de profundidade comuns com suas linhas de iPhone Pro e iPad Pro, enquanto o Google está a contar com software para capturar dados de profundidade.
Conclusões
Apesar das iterações contínuas de ARKit e ARCore, a proliferação de aplicações móveis de RA não conquistou o mundo. Em vez disso, as plataformas de RA para Snapchat (que também suporta a API ARCore Depth ) e Facebook/Instagram, com as suas inúmeras experiências de RA pequenas, são as que chamam a atenção de programadores, criadores e marcas.
É claro que as quatro empresas e suas respectivas plataformas móveis são testes beta públicos essenciais para a próxima era da computação móvel – os óculos inteligentes!
Fonte: Augmented Reality News