El Asistente de Google está disponible en 100 millones de dispositivos. La esencia de Google va cambiando. Empezando por su buscador: antes solo requería de texto, y ahora -gracias a los avances en el aprendizaje profundo (deep learning)- es capaz de hacer que imágenes, fotos y videos sean útiles para la gente como nunca antes.
En el evento Google I/O, la empresa presentó Google Lens, que representa «un conjunto de capacidades informáticas basadas en la visión que pueden comprender lo que estás viendo y ayudarte a realizar alguna acción en función a ello».
«En primer lugar, vamos a llevar las capacidades de Google Lens al Asistente y a Google Fotos y próximamente llegará también a otros productos», dijo Sundar Pichai, CEO de Google.
Además, tienen su foco en Google.ai, un proyecto que reúne nuestros avances en Inteligencia Artificial (IA) y que pretende disminuir estas barreras y acelerar la forma en que los investigadores, desarrolladores y empresas trabajan en este campo.
Google.ai ha permitido trabajos en conjunto entre investigadores de Google, científicos y desarrolladores para atender problemas en diversas disciplinas, con resultados prometedores.
«Por ejemplo, usamos el aprendizaje automático para mejorar el algoritmo que detecta la propagación del cáncer de mama a los ganglios linfáticos adyacentes. También, observamos que la IA reduce el tiempo y aumenta la precisión para identificar las propiedades de las moléculas e incluso secuenciar el genoma humano«, contó.









