Skynet ha llegado… y nos ha salido artista.

Skynet ha llegado… y nos ha salido artista.

He considerado apropiado empezar esta breve reflexión (si es que a esto se le puede llamar reflexión) con un tweet de Alfonso Acedo:

Alfonso daba respuesta a la excitación pública que el aquí presente demostraba en esos momentos. Suelo escribir muy poco en Twitter, pero no pude resistirme tras empezar a trastear con lo que están haciendo en MidJourney, una herramienta basada en inteligencia artificial con la capacidad de crear imágenes a partir de lenguaje natural o prompts. Lo que viene siendo «yo te escribo un texto y tú me haces una imagen».

Quizá Dall·e 2 sea el proyecto más conocido sobre esto de «hacer imágenes sin esfuerzo», mucho más que MidJourney. El acceso estaba muy limitado hasta ahora, momento en el que han asegurado que su paso a open beta permitirá su uso a más de un millón de nuevos usuarios que estaban haciendo cola (entre los que me encuentro).

Empecé a saber sobre este tema de «inteligencias artificiales artistas» gracias a proyectos como Gaugan 2 de Nvidia, a herramientas muy locas como Artbreeder o a las experiencias de Javi López que no se cansa de trastear con mil y un temas diferentes:

De hecho tengo un vídeo guardado de más de tres horas en el que junto a Victoriano Izquierdo y Javier Ideami, le empiezan a sacar jugo a Dalí2 y nos enseñan todo lo que se puede hacer:

Dado que no tenía acceso aparqué el tema hasta que Diego, de Verso Estudio, me mandó un Whatsapp hablándome de MidJourney. Quizá no se trate de la AI más potente, pero lo que parecía ofrecer ya parecía bastante interesante. Lo suficientemente interesante como para que The Economist lo usara en su portada de junio de 2022.

Actualmente la principal diferencia entre Dall·e 2 y MidJourney es la capacidad que ofrece la primera de controlar con mayor grado de detalle el acabado de las imágenes generadas. Sin necesidad de ponerme muy técnico diré que con MidJourney no tenemos la posibilidad de añadir o eliminar elementos concretos de las imágenes sin un riesgo alto de distorsionar el resultado por completo.

Aún así y a pesar de este tipo de limitaciones, no se me va a olvidar la sensación de las primeras horas con MidJourney. No he podido dejar de probar y probar y probar:

Pruebas y más pruebas con Midjourney

Sinceramente hacía años que no estaba tan entusiasmado con algo. No me sentía tan poderoso desde que el Capitán Planeta exclamaba que el poder era nuestro.

Art Made by Dummies

La comunidad en torno a este nuevo fenómeno está creciendo de manera impresionante, compartiendo valiosos recursos como promptoMANIA, una herramienta creada con el objetivo de dar soporte a la creación de buenos textos descriptivos que pasar a la IA, o esta guía de similar objetivo para Dall·e 2.

El hecho además de que puedas ver los textos que emplean otros usuarios, nos permite aprovechar su conocimiento y sus pruebas para nuestros propios conceptos. Me sirve de ejemplo Olaf Blomerus que comparte por Twitter sus pruebas más destacadas junto al texto que ha empleado para generarlas:

En mi caso como amante del arte conceptual y del matte paiting, esto me ha permitido acercarme de una manera nunca vista antes a poder plasmar lo que se me pasa por la cabeza sin el limitante de la capacidad técnica.

Que de golpe y porrazo se reduzca tanto la necesidad de poseer unas determinadas habilidades y destrezas para crear imágenes de este tipo, ya empieza a ser digno de nuestra atención en plan «hey, aquí se está cociendo algo».

No son pocas las veces que he leído o que ya he escuchado comentarios en contra de este tipo de herramientas porque nos van a quitar el trabajo, principalmente aludiendo a la industria relacionada con el diseño, la ilustración y el arte conceptual.

Supongo que es lo mismo que se diría cuando llegaron los bancos de stocks fotográficos, el primer Photoshop o cualquier tipo de solución que presentara un salto cualitativo tan importante como para asustar. También es lo que pienso yo cuando empleo soluciones como LanguageTool o Grammarly y así mejorar mis textos en vez de pedirle a un editor que me lo revise. Sinceramente no sé si estoy en condiciones de poder mantener un debate argumentado ante detractores de cosas así.

La cosa se complica…

Ahora sumémosle a eso el hecho de que estas inteligencias o redes neuronales (no hace falta ser tan específicos en este punto) necesitan ser «entrenadas». ¿Cómo se entrena una IA? Pues en este caso haciendo que estudie miles y miles de imágenes. Lo estoy simplificando muchísimo, pero ese es más o menos el concepto.

Para que Midjourney, Dall·e 2 o cualquier sistema similar nos genere una imagen a partir de un texto del tipo «hazme un botijo al estilo de Miyazaki», primero tendrá que saber lo que es un botijo y luego saber qué o quién es Miyazaki y qué es eso de su estilo.

¿Nuestro botijo tendrá forma de botijo y contará con el estilo de Miyazaki de una manera más o menos fiel? Puede, pero lo que está claro es que la IA habrá sido entrenada, analizando y estudiando imágenes de botijos y también obras creadas por el famoso director de cine de animación.

Aquí es donde parece que empiezan los verdaderos problemas. ¿Es por tanto una obra derivada lo que genera una IA? ¿Solo inspiración? ¿Es arte? ¿Quién está detrás de este tipo de herramientas? ¿Qué pasa con el copyright de las imágenes con las que las IA se han «entrenado»?

Os dejo el siguiente tweet compartido por el señor Kyle Webster al que algunas y algunos de vosotros conoceréis por los pinceles que vienen preinstalados en Photoshop y que son de su autoría.

Show me the money!

Si hilamos un poco más y seguimos la pista al dinero (que al final es lo que creo que mueve gran parte de estas controversias)… ¿Hasta qué punto puedo abrir una tienda en Etsy en pocas horas y llenarla de productos? ¿Vender prints? ¿Entrar en Creative Market y empezar a vender patrones y texturas? Solo he tardado unas 2 horas en llenar Society6 de productos a partir de cuatro imágenes creadas con Midjourney.

Porque otro detalle importante más allá de lo ya comentado es que podemos hacer uso comercial de todas las imágenes generadas a través de la IA. Los términos y condiciones son algo diferentes entre Midjourney y de Dall·e 2, pero en ambos casos queda claro que podemos «hacernos ricos sin esfuerzo». Ya me entendéis.

Recuerdo que tuve mi época de mercadeo artístico intercambiando dibujos por Tazos, pero esto ya es otro nivel. Con una audiencia o una comunidad suficientemente grande que quisiera consumir productos generados por mí, aquí pueden llover billetes. ¿No ocurre algo similar con el fan art? ¿Cuánto dinero podría llegar a generar un creador de contenidos potente como Rubius o Ibai? La cabeza solo me da vueltas y vueltas.

Tampoco penséis que los creadores de Midjourney o Dall·e 2 son hermanitas de la caridad que han venido a hacer del mundo un lugar mejor. Puedes usar sus IA pero de manera limitada. Si necesitas un uso más allá del testeo inicial, tocará pasar por caja.

El futuro…

En Google no iban a ser menos y están dentro del sarao con Imagen y con Parti, pero no están aún disponibles para la gente de a pie. Hay otros proyectos más alejados del tema principal de hoy que me fascinan igualmente como por ejemplo lo que andan tramando en Samsung con MegaPortraits u otras herramientas disponibles desde hace ya tiempo como EbSynth.

Parece que esto solo acaba de empezar.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A continuación:

La falacia del coleccionista

La falacia del coleccionista