ver el mundo como un humano

La fotografía 3D está llegando a tabletas, teléfonos inteligentes y PC, y esta vez, realmente funciona.

Intel reveló esta semana su cámara RealSense, que utiliza múltiples sensores para agregar profundidad a las imágenes, lo que permite una gran cantidad de aplicaciones, desde ajustar el punto focal de una imagen hasta el reconocimiento de gestos y la realidad aumentada.

El sistema estará disponible primero en la tableta de la serie Dell Venue 8 7000, llegando a más dispositivos a principios del próximo año, dijo el Dr. Achin Bhowmik, CTO de la división de computación perceptual de Intel.

“El enfoque de este programa ha sido agregar sentidos naturales, una sensación casi humana”, dijo a PC Pro en el Intel Developer Forum. “Es más o menos la capacidad de ver y comprender el mundo que nos rodea.

“Si miras todos los dispositivos hoy en día, vienen con una cámara 2D… todo esto es bueno para tomar fotos o hacer una videollamada”, agregó. “Pero hay mucho más que hacemos con nuestro sensor 3D: los ojos hacen mucho más que tomar una imagen 2D”.

La cámara RealSense tiene un sensor CMOS y uno de infrarrojos, además de un dispositivo MEM (microelectromecánico) que proyecta un patrón invisible de luz en una escena para ayudar a medir la profundidad. El sistema también incluye un nuevo chip de Intel: “no es un procesador Atom o Core, es un procesador muy específico que hemos desarrollado para este producto”, dijo.

Cámaras RealSense

Hay dos versiones del hardware: un modelo orientado hacia adelante y un modelo orientado hacia atrás. El primero está diseñado para todo-en-uno y portátiles, para ser utilizado para el reconocimiento de gestos o para videoconferencias: tener la información de profundidad significa que puede omitir el fondo, para que las personas que llaman solo lo vean a usted; bastante útil para cuando está realizando una reunión en casa en lugar de la oficina.

El Dr. Bhowmik mostró esto entrando y saliendo de la escena mientras su colega estaba en una videoconferencia; cuando se paró detrás de la persona que llamaba, era visible, pero cuando retrocedió unos pasos, el sistema lo eliminó.

La versión orientada hacia atrás es lo que el Dr. Bhowmik llama “mirando hacia el mundo”. Se usa más como una cámara estándar, para tomar fotos donde el punto focal se puede editar después del hecho, hacer mediciones o usarse para realidad aumentada. También puede generar imágenes en 3D, por lo que podría usarse para capturar objetos para la impresión en 3D.

Intel señaló que las aplicaciones que ha creado hasta ahora son solo el comienzo. “Cuando agrega sensores similares a los humanos, podemos hacer que los dispositivos comprendan en tiempo real el mundo visual que los rodea”, dijo. “Eso nos permite crear muchas aplicaciones nuevas que nunca se han hecho”.

Cuando agrega sensores similares a los humanos, podemos hacer que los dispositivos comprendan en tiempo real el mundo visual que los rodea.

Aquellos que han usado el controlador Leap Motion pueden burlarse de la idea de usar cámaras para la navegación por gestos a través de Windows, pero el Dr. Bhowmik señala que el sistema solo buscó la punta de sus dedos. Su propio sistema analiza toda la mano y la escena, brindando mayor precisión; dijo que ofrece una precisión del 99 % a una distancia de 4 m, y agregó que “a medida que se acerca, mejora”.

De hecho, admite que las imágenes en 3D no son nuevas. “No hemos inventado los sistemas de imágenes en 3D, pero lo que hemos hecho es tomar estos grandes dispositivos en el mercado, como Microsoft Kinect, y los hemos miniaturizado para incluirlos en más dispositivos”, dijo.

Intel también redujo el precio, diciendo que no se espera que el hardware aumente el precio total de una PC o tableta. “Es barato”, dijo. “Hace tres años, cuando comencé con esto, eran cámaras grandes: grandes, voluminosas y que costaban más de $300. Queríamos hacerlo mucho más barato y mucho más pequeño”.

El procesamiento adicional agotará la batería más que una cámara estándar, pero dijo que solo debería notarse para aplicaciones de uso continuo, como videoconferencias.

¿Que sigue?

Las tabletas y las computadoras portátiles son solo el comienzo, dijo. “¿Qué podría beneficiarse de la visión humana? Cualquier cosa que requiera una visión autónoma. Piense en robots, drones: tendremos muchas cosas emocionantes que mostrar en los próximos meses”.

Como ejemplo, describió un proyecto que usaba drones para monitorear animales en la selva amazónica. La visión de los drones no maneja bien la profundidad, por lo que “se están chocando con ellos”.

“¿Qué pasaría si los drones tuvieran una visión similar a la humana? Eso les permite no chocar con ellos”, dijo el Dr. Bhowmik. “Usamos nuestros ojos para movernos por el mundo, las máquinas también deberían poder hacer eso”.