Google anuncia nuevos avances en IA para crisis, robótica o creación de video

Google anunció este miércoles 2 de noviembre de 2022 varios de sus últimos avances en inteligencia artificial y sus aplicaciones en distintos campos, desde la medicina, la prevención de catástrofes, la robótica, la creación literaria o la de videos.

Uno de ellos trata de la expansión de la iniciativa de previsión de inundaciones, que se había implementado en India y Bangladés, y que ahora se llevará a otros 18 países, quince de ellos en África, dos en Latinoamérica (Brasil y Colombia) y uno más en Asia (Sri Lanka).

En paralelo, Google ha anunciado el lanzamiento global de la herramienta FloodHub, una plataforma que indica cuándo y dónde se pueden producir inundaciones y cuya información Google quiere que pronto pueda ser accesible desde su mapa y su buscador.

La directora de Innovaciones e Investigación, Katherine Chou, aseguró durante la presentación en las oficinas de Google en Nueva York que esta tecnología «tiene el potencial de disminuir las muertes y los daños económicos en entre un 30 % y un 50 %» y que están también desarrollando una herramienta similar para detección de incendios ya disponible en Estados Unidos, Canadá, México y partes de Australia.

ECOGRAFÍAS Y DIAGNÓSTICO

Chou también apuntó que Google está implementando la IA en la toma de ecografías de bajo costo para recoger información de manera sencilla y ayudar a interpretar las imágenes «para ayudar a los trabajadores sanitarios a identificar problemas en las primeras etapas de la gestación».

El diagnóstico médico mediante imágenes de la retina, realizado con tecnología ARDA, es otro de los campos donde Google está intentado avanzar con la aplicación de la inteligencia artificial, y ya se utiliza en la India.

Ahora, el gigante tecnológico quiere ir un paso más allá y está tratando de que esos diagnósticos se puedan hacer de manera individualizada a través de la cámara del teléfono celular.

RECONOCIMIENTO DE IDIOMAS E IA CREADORA

Google no quiere limitar el uso de su tecnología o la venta de sus productos sólo a los usuarios de los idiomas más extendidos, sino que, tal y como ha anunciado hoy, ha lanzado una «investigación ambiciosa para crear un modelo de inteligencia artificial que soporte los mil idiomas más hablados del mundo».

Hoy también han presentado dos nuevos proyectos relacionados con la creación de imágenes a través de instrucciones de texto denominados «Imagen Video» y «Phetaki».

Con estas aplicaciones, la máquina crea imágenes ficticias de una gran resolución en respuesta a órdenes escritas y que, en el caso de la fotografía, parecen muy reales.

Asimismo, mostraron cómo un brazo robótico respondía a cierta información y era capaz de llegar a asociaciones de ideas: así, aparecía una usuaria diciendo por escrito al robot que su taza favorita era la azul y que sus dulces favoritos eran los «emanems», a lo que el robot respondía tomando una pequeña bolsa de «emanems» y colocándola en una taza azul.

También anunciaron que continúan desarrollando herramientas que ayuden en la redacción de textos literarios, para lo que han convocado a un grupo de autores profesionales a los que han pedido que creen textos de ficción empleando la herramienta de Google LaMDA .

SEGURIDAD Y PRIVACIDAD

Conscientes de todas las dudas sobre privacidad y seguridad que genera la creación de textos, vídeos de apariencia real de gran calidad o la reproducción de voces humanas fidedignas, todos los ponentes hicieron hincapié en que Google tiene muy en cuenta todas estas cuestiones y cuenta con estrictos protocolos.

«Obviamente, hay algunos problemas aquí que quiero discutir, sobre toxicidad, desinformación y sesgo» en cuestiones como la utilización de imágenes falsas que podrían emplearse «para facilitar aún más que se difumine la distinción entre lo que es real y lo que no lo es», reconoció el científico jefe de la sección de Investigación de Google, Douglas Eck.

En este sentido, Eck apuntó que Google pretende crear controles sobre la «creación de imágenes y vídeos» con esta tecnología para, por ejemplo, «minimizar la generación de contenido tóxico o violento».

Asimismo, apuntó que han trabajado mucho para asegurarse de que estos productos sintéticos sean detectados en caso de que fueran difundidos a través de las redes.

«Así que vamos a seguir trabajando en estas dos formas de control. En primer lugar, cuando se cree, que se cree de manera responsable, y cuando se difunda, que tengamos formas de protegerlo», subrayó. EFE

CMV

Licenciada en Ciencias de la Información y Comunicación Social y Diplomado en Medio Impresos Experiencia como periodista y editora de suplementos. Es editora digital.

Publicaciones relacionadas

Botón volver arriba