Usted está aquí

La inquietante reimaginación del reino animal por DeepMind

Conozca todo detrás de un proyecto compuesto por un par de sistemas de inteligencia artificial, imágenes de animales y una gran cantidad de potencia informática.

Octubre 30, 2018

Si un proyecto reciente de DeepMind de Google fuera una receta, estaría compuesto por un par de sistemas de inteligencia artificial, imágenes de animales y una gran cantidad de potencia informática. Mezcle todo y obtendrá una serie de animales imaginados soñados por una de las IA (Inteligencias Artificiales). Una mirada a través del documento de investigación sobre el proyecto, o esta carpeta abierta de Google con las imágenes que produjo, probablemente lo llevará a aceptar que los resultados son una mezcla impresionante y absolutamente inquietante.

Pero el factor inquietante no significa que el proyecto no deba considerarse un éxito y un paso adelante para futuros usos de la IA.

De GAN a BigGAN

El equipo detrás del proyecto está conformado por Andrew Brock, estudiante de doctorado en el Centro de Robótica de Edimburgo, y los pasantes e investigadores de DeepMind Jeff Donahue y Karen Simonyan.

Utilizaron una llamada Red Generativa Antagónica (GAN, por sus siglas en inglés) para generar las imágenes. En una GAN, dos sistemas de inteligencia artificial colaboran de forma similar a un juego. Una IA produce imágenes de un objeto o criatura. El equivalente humano sería dibujar, por ejemplo, un perro, sin saber necesariamente qué aspecto tiene exactamente un perro. Esas imágenes se muestran a la segunda IA, que ya ha almacenado imágenes de perros. La segunda IA ​​luego le dice a la primera qué tan lejos estaba de la realidad. La primera utiliza esta información para mejorar sus imágenes. Los dos van y vienen en un proceso iterativo, el objetivo es que la primera IA sea tan buena creando imágenes de perros que la segunda no pueda distinguir la diferencia entre sus creaciones y las imágenes reales de los perros.

El equipo pudo dibujar en las vastas bóvedas de la potencia computacional de Google para crear imágenes de una calidad y naturaleza realistas que estaban más allá de casi cualquier cosa que se haya visto antes. En parte, esto se logró al alimentar el GAN ​​con más imágenes de lo habitual. De acuerdo con IFLScience, el estándar es incluir alrededor de 64 imágenes por tema en la GAN. En este caso, el equipo de investigación introdujo aproximadamente 2000 imágenes por tema en el sistema, lo que llevó a que se lo apodara BigGAN.

Sus resultados mostraron que la alimentación del sistema con más imágenes y el uso de masas de potencia computacional bruta, aumentaron notablemente la precisión y la capacidad de la GAN para crear representaciones realistas de los sujetos para los que estaba capacitada para reproducir.

“La principal necesidad de estos modelos no son las mejoras algorítmicas, sino las computacionales. [...] Cuando aumenta la capacidad del modelo y aumenta la cantidad de imágenes que se muestran en cada paso, se obtiene este doble efecto combinado", dijo Andrew Brock a Fast Company.

El consumo de energía

El equipo utilizó 512 unidades de procesamiento tensorial (TPU, por sus siglas en inglés) enfocadas en la inteligencia artificial de Google para generar imágenes de 512 píxeles. Cada experimento tardó entre 24 y 48 horas en ejecutarse.

Ese tipo de potencia informática necesita mucha electricidad. Como el artista e innovador residente en la Biblioteca del Congreso, Jer Thorp, lo irónicamente puso en Twitter: “La buena noticia es que la IA ahora puede darle una imagen más creíble de un plato de espaguetis. La mala noticia es que utilizó aproximadamente la energía suficiente para alimentar a Cleveland durante la tarde".

Thorp agregó que un cálculo aproximado mostró que los cómputos para producir las imágenes requerirían aproximadamente 27 000 pies cuadrados de paneles solares para tener la energía adecuada.

Las imágenes de BigGAN han sido aclamadas por los investigadores, junto con Oriol Vinyals, científico investigador de DeepMind, quien pregunta retóricamente si estas eran las "mejores muestras de GAN" hasta ahora.

Sin embargo, todavía no son perfectos. El número de patas de una criatura dada es un ejemplo de cómo el BigGAN parecía tener problemas. El sistema era bueno para reconocer que algo así como una araña tiene muchas patas, pero parecía incapaz de determinar cuántas "muchas" se suponía que eran. Lo mismo se aplica a los perros, especialmente si las imágenes debían mostrar dichos perros en movimiento.

Esas imágenes inquietantes se contrastan con otras versiones que muestran cualidades tan realistas que a una mente humana le cuesta identificarlas como falsas. Spaniels con la lengua colgando, paisajes oceánicos y mariposas se renderizaron con lo que parece ser la perfección. Lo mismo ocurre con la imagen de una hamburguesa que fue lo suficientemente buena como para que dejara de escribir porque de repente necesitaba almorzar.

Los casos de uso futuro

Las redes GAN se introdujeron por primera vez en 2014 y dado su relativa juventud, los investigadores y las empresas todavía están ocupados probando posibles casos de uso.

Un uso posible es la corrección de imágenes, lo que podría hacer que las imágenes pixeladas sean más claras. Esto no solo ayuda a sus futuras fotos de sus vacaciones, sino que también podría aplicarse en industrias como la exploración espacial. Un equipo de la Universidad de Michigan y el Instituto Max Planck han desarrollado un método para que las redes GAN creen imágenes a partir de descripciones de texto. En Berkeley, un grupo de investigación ha utilizado GAN para crear una interfaz que permite a los usuarios cambiar la forma, el tamaño y el diseño de los objetos, incluyendo una cartera.

 

 

Para cualquiera que haya visto una película como Wag the Dog o que haya leído 1984, las posibilidades también son absolutamente alarmantes. En otras palabras, las GAN pueden hacer que las noticias falsas parezcan más reales que nunca.

Por ahora, parece que si bien no todas las GAN requieren la potencia computacional y eléctrica de BigGAN, todavía hay alguna manera de alcanzar estos posibles casos de uso. Sin embargo, si hay una lección de la Ley de Moore y la tecnología exponencial, es que el obstáculo técnico de hoy se convierte rápidamente en un problema menor de mañana a medida que avanza la tecnología.

 

Fuente: SingularityHub

Traducción: Andrea Lugo

Boletín de noticias
Registre su correo electrónico para recibir nuestras noticias.
Escrito por
Periodista e investigador independiente que vive en Tokio y escribe sobre todo lo relacionado con la ciencia y la tecnología.
No hay votos aun
Estadísticas: .
Hoguer Alfredo Cruz Bueno
Gran Maestro Premio Compartir 2009
Logré vincular el aula y la comunidad rural a través de expediciones que marchaban tras la huella de la cultura local en tertulias de lectura que se convirtieron en lugares de encuentro entre los padres, los hijos, los textos y la escuela.