Desde su lanzamiento en el 2016, el famoso juego Pokemon GO ha estado acumulando imágenes de todo el mundo que, hace apenas unos días, se convirtieron en la más importante base de información para potenciar la industria de los robots, entre otros.
Un artículo reciente del MIT Technology Review, destaca que el juego llegó a ser el primer gran éxito mundial de realidad aumentada y que, sin saberlo, se convirtió en un repositorio de imágenes que hoy están dando un impulso a la visualización del mundo que ayuda a los robots a ser más precisos en ubicarse, sobre todo los que están desplegados como delivery.
Y es que Niantic Spatial está utilizando esa vasta e incomparable cantidad de datos recopilados mediante crowdsourcing —imágenes de lugares emblemáticos urbanos con marcadores de ubicación de gran precisión, tomadas de los teléfonos de cientos de millones de jugadores de Pokémon Go en todo el mundo— para construir una especie de modelo del mundo, una novedosa tecnología que integra la inteligencia de los modelos de localización en entornos reales.
En total, son cerca de 30 mil millones de imágenes de todo el mundo que le están permitiendo a Niantic Spatial crear un modelo que puede determinar la ubicación en un mapa con una precisión de pocos centímetros, basándose en unas pocas instantáneas de los edificios u otros puntos de referencia visibles.
Con ello, la empresa pretende utilizarlo para ayudar a los robots a navegar con mayor precisión en lugares donde el GPS no es fiable.
En la primera gran prueba de su tecnología, Niantic Spatial se ha asociado con Coco Robotics, una startup que despliega robots de reparto de última milla en varias ciudades de Estados Unidos y Europa.
«Todo el mundo pensaba que la realidad aumentada era el futuro, que los lentes de realidad aumentada estaban por llegar», dice McClendon. «Y entonces los robots se convirtieron en el público».
Para las pruebas, Coco Robotics desplegó alrededor de mil robots del tamaño de una maleta de transporte —diseñados para transportar hasta ocho pizzas extragrandes o cuatro bolsas de la compra— en Los Ángeles, Chicago, Jersey City, Miami y Helsinki.
Los robots han realizado más de medio millón de entregas hasta la fecha, recorriendo varios millones de kilómetros en todo tipo de condiciones climáticas, pero para competir con los repartidores humanos, los robots de Coco que se desplazan por las aceras a unos ocho kilómetros por hora, deben ser lo más fiables posible.
«La mejor manera de hacer nuestro trabajo es llegar exactamente a la hora acordada», afirma Rash. Y eso significa no perderse.
El problema al que se enfrentaba Coco es que no podía depender del GPS, que era débil en las ciudades debido a que las señales de radio rebotan en los edificios e interfieren entre sí. «Realizamos entregas en muchas zonas densamente pobladas con rascacielos, pasos subterráneos y autopistas, y esas son las zonas donde el GPS simplemente no funciona bien», afirma Zach Rash, fundado de Coco.
«El centro urbano es el peor lugar del mundo para el GPS», dice McClendon. «Si miras ese punto azul en tu teléfono, a menudo verás que se desplaza 50 metros, lo que te sitúa en otra manzana, en otra dirección y en el lado equivocado de la calle». Ahí es donde entra en juego Niantic Spatial.
Durante los últimos años, Niantic Spatial ha estado utilizando los datos recopilados de los jugadores de Pokémon Go e Ingress (el anterior juego de realidad aumentada para móviles de Niantic, lanzado en 2013) para desarrollar un sistema de posicionamiento visual, una tecnología que te indica dónde te encuentras en función de lo que puedes ver.
“Resulta que lograr que Pikachu corra de forma realista y que el robot de Coco se mueva con seguridad y precisión por el mundo es, en realidad, el mismo problema”, afirma John Hanke, director ejecutivo de Niantic Spatial.
“El posicionamiento visual no es una tecnología muy nueva”, comenta Konrad Wenzel de ESRI, empresa que desarrolla software de cartografía digital y análisis geoespacial. “Pero es evidente que cuantas más cámaras tengamos, mejor será el resultado”.
Niantic Spatial ha entrenado su modelo con 30 mil millones de imágenes capturadas en entornos urbanos. En concreto, las imágenes se agrupan en torno a puntos de interés: lugares que servían como ubicaciones importantes en los juegos de Niantic y que se animaba a los jugadores a visitar, como las arenas de batalla Pokémon. “Teníamos más de un millón de ubicaciones en todo el mundo donde podíamos localizarte con precisión”, explica McClendon. “Sabemos dónde estás parado con una precisión de pocos centímetros y, lo que es más importante, hacia dónde estás mirando”.
En resumen, para cada uno de esos millones de ubicaciones, Niantic Spatial cuenta con miles de imágenes tomadas prácticamente en el mismo lugar, pero desde distintos ángulos, a diferentes horas del día y bajo diferentes condiciones climáticas. Cada imagen incluye metadatos detallados que indican la ubicación exacta del teléfono en el espacio al momento de la captura, incluyendo su orientación, su posición vertical, si se movía, su velocidad y dirección, entre otros datos.
La empresa ha utilizado este conjunto de datos para entrenar un modelo que predice con precisión su ubicación, teniendo en cuenta lo que observa, incluso en lugares distintos a esos millones de puntos de interés, donde las fuentes de datos de imagen y ubicación son más escasas.
Además del GPS, los robots de Coco, equipados con cuatro cámaras, ahora usarán este modelo para determinar su ubicación y dirección. Las cámaras de los robots están a la altura de la cadera y apuntan en todas direcciones simultáneamente, por lo que su perspectiva es ligeramente diferente a la de un jugador de Pokémon Go, pero adaptar los datos fue sencillo, según Rash.
Otras empresas también utilizan sistemas de posicionamiento visual. Por ejemplo, Starship Technologies, una empresa de reparto con robots fundada en Estonia en 2014, afirma que sus robots utilizan sus sensores para crear un mapa 3D de su entorno, trazando los bordes de los edificios y la posición de las farolas.
Sin embargo, Rash apuesta a que la tecnología de Niantic Spatial le dará a Coco una ventaja. Afirma que permitirá a sus robots posicionarse correctamente en los puntos de recogida fuera de los restaurantes, asegurándose de no estorbar a nadie y deteniéndose justo delante de la puerta del cliente en lugar de a unos pasos de distancia, como ocurría antes.
Cuando Niantic Spatial comenzó a trabajar en su sistema de posicionamiento visual, la idea era aplicarlo a la realidad aumentada, explica Hanke. «Si llevas gafas de RA y quieres que el mundo se fije en la dirección en la que miras, necesitas algún método para lograrlo», afirma. «Pero ahora estamos presenciando una explosión cámbrica en la robótica».
Algunos de estos robots podrían tener que compartir espacios con humanos, como obras de construcción y aceras. «Si los robots van a integrarse en ese entorno sin perturbar a los seres humanos, tendrán que tener un nivel similar de comprensión espacial», explica Hanke. «Podemos ayudar a los robots a encontrar su ubicación exacta cuando han sufrido golpes y sacudidas».
La colaboración con Coco Robotics es el comienzo. Según Hanke, lo que Niantic Spatial está implementando son las primeras piezas de lo que él denomina un mapa viviente: una simulación virtual hiperdetallada del mundo que cambia a medida que el mundo cambia. A medida que los robots de Coco y otras empresas se desplacen por el mundo, proporcionarán nuevas fuentes de datos cartográficos, alimentando réplicas digitales cada vez más detalladas del mundo.
Pero, según Hanke y McClendon, los mapas no solo se están volviendo más detallados, sino que las máquinas los utilizan cada vez más. Esto transforma su función. Los mapas se han utilizado tradicionalmente para ayudar a las personas a ubicarse en el mundo. A medida que evolucionaron de 2D a 3D y luego a 4D (pensemos en simulaciones en tiempo real, como los gemelos digitales), el principio básico se mantuvo: los puntos en el mapa corresponden a puntos en el espacio o el tiempo.
Sin embargo, los mapas para máquinas podrían necesitar asemejarse más a guías, repletas de información que los humanos damos por sentada. Empresas como Niantic Spatial y ESRI quieren añadir descripciones que indiquen a las máquinas qué están viendo realmente, etiquetando cada objeto con una lista de sus propiedades. «Esta era se trata de crear descripciones útiles del mundo para que las máquinas las comprendan», afirma Hanke. «Los datos que tenemos son un excelente punto de partida para comprender cómo funciona la estructura del mundo».
Actualmente, los modelos del mundo están en pleno auge, y Niantic Spatial lo sabe. Los expertos en derecho pueden parecer sabelotodos, pero carecen de sentido común a la hora de interpretar e interactuar con entornos cotidianos. Los modelos del mundo buscan solucionar esto. Algunas empresas, como Google DeepMind y World Labs, están desarrollando modelos que generan mundos virtuales de fantasía en tiempo real, los cuales pueden utilizarse como centros de entrenamiento para agentes de IA.
Niantic Spatial afirma abordar el problema desde una perspectiva diferente. Si se lleva la creación de mapas lo suficientemente lejos, se acabará abarcando todo, explica McClendon: «Aún no hemos llegado a ese punto, pero queremos llegar. Estoy muy centrado en intentar recrear el mundo real».
Texto traducido desde MIT Technology Review




Leave a comment