DALL-E 2 es un modelo de Inteligencia Artificial que puede construir imágenes a partir de texto en lenguaje natural. Desde que tengo acceso a la versión de prueba de OpenAI he realizado varias comparaciones entre imágenes de portadas de noticias e imágenes generadas con DALL-E 2. El resultado en general me decepcionó un poco pero me quedo sorprendido del potencial que tiene y estoy seguro que mejorará rápidamente.
- La imagen de la izquierda fue tomada de la cuenta de twitter de diario Metro. La imagen de la derecha fue generada con DALL-E ingresando el texto: «A rap singer wearing sun glasses looking interested in something with a filtered background». El resultado es bastante interesante.

2. La imagen de la izquierda fue tomada de la cuenta de twitter de Teleamazonas. La imagen de la derecha fue generada con DALL-E ingresando el texto: «A group Soccer players hugging each other with a filtered background of a stadium». El resultado esta vez fue bastante diferente.

3. La imagen de la izquierda fue tomada de la cuenta de twitter Ecuavisa. La imagen de la derecha fue generada con DALL-E ingresando el texto: «Queen Elizabeth and prince Harry whispering each other».

4. La imagen de la izquierda fue tomada de la cuenta de twitter de diario Metro. La imagen de la derecha fue generada con DALL-E ingresando el texto: «Mona Lisa in a winter background».

En conclusión, no creo que una inteligencia artificial pueda hacer el trabajo de un diseñador, pero si puede ser una herramienta de ayuda interesante que seguramente seguirá mejorando a medida que sea entrenada con más y más datos.
Artículos relacionados:
GitHub Copilot | 7 trucos para sacarle máximo provecho
Azure Cognitive Services | Conversión de voz a texto y análisis de sentimientos