De la referencia abstracta a la imagen real. En segundos.
Plataforma interna de generación de imágenes con Inteligencia Artificial | @Mango · Inicio de proyecto: Jun 2024
Contexto — La apuesta
Junio de 2024. La IA generativa de imágenes era todavía territorio sin mapear. Midjourney existía pero era poco controlable para uso profesional. DALL·E 3 acababa de salir. Los modelos open source requerían setup técnico y daban resultados inconsistentes.
No había ninguna solución lista para integrarse en un flujo de trabajo de moda. Y tampoco había un problema que los usuarios nos estuvieran gritando. Había una hipótesis estratégica: si la tecnología podía generar imágenes realistas de ropa, podíamos cortar horas del proceso creativo antes de que el mercado lo descubriera.
Arrancamos con un equipo de data dispuesto a entrenar modelos propios. Esa fue la primera apuesta.
El problema
Horas buscando la imagen perfecta para explicar una idea.
En el discovery con los equipos de diseño de moda detectamos el cuello de botella: la fase de inspiración. Antes de diseñar cualquier pieza, los diseñadores pasaban horas buscando referencias en competidores, editoriales y redes.
El trabajo era invisible, tedioso y bloqueante. La oportunidad no era reemplazar el diseño final — era acelerar ese primer paso.
Resultados — Los números
Arrancamos con 10 usuarios a los que tuvimos que invitar. Nadie pedía la herramienta porque nadie imaginaba que podía existir. La adopción fue orgánica, impulsada por resultados, y creció más allá del departamento para el que fue diseñada.
Decisiones
El mayor desafío no fue el diseño. Fue tomar decisiones de producto cuando la tecnología era impredecible y el equipo tenía sus propias convicciones técnicas.
El pivote
Escuchar al usuario por encima de la preferencia técnica El feedback era claro: los resultados no justificaban la fricción. La decisión fue dejar de entrenar modelos propios e integrar los mejores modelos existentes del mercado. Nunca íbamos a competir con Google o OpenAI en capacidad de entrenamiento — pero sí podíamos construir la mejor experiencia encima de sus modelos.
La tensión
El equipo de data quería entrenar modelos propios. Era la apuesta técnica más ambiciosa. Pero los resultados no llegaban, y para obtenerlos había que forzar el flujo de usuario de formas que no tenían sentido.
Construir desde el feedback, no desde supuestos
Paleta de colores personalizada, estilos guardados, prompts reutilizables, virtual try-on, eliminación de fondo, inpainting, upscaler. Ninguna de estas herramientas estaba en el roadmap inicial — surgieron de sesiones con usuarios reales usando la plataforma.
Cada funcionalidad salió del discovery
Diseñar para dos tipos de usuario
A medida que crecía la base de usuarios, apareció una tensión nueva: los usuarios expertos querían libertad total, los nuevos querían resultados rápidos sin pensar tanto. La respuesta fue no elegir entre uno y otro.
- **Modo conversacional**: El usuario tiene control total. Describe libremente, itera, ajusta parámetros. Para quienes ya saben lo que quieren y cómo pedirlo.
- **Acciones rápidas**: Flujos guiados paso a paso, con prompts predefinidos y parámetros simples. Para obtener resultados concretos sin fricción ni conocimiento previo de la IA.
Misma plataforma, dos experiencias.
La decisión de diseño más importante del proyecto.
La tensión
El equipo de data quería entrenar modelos propios. Era la apuesta técnica más ambiciosa. Pero los resultados no llegaban, y para obtenerlos había que forzar el flujo de usuario de formas que no tenían sentido.
Cada funcionalidad salió del discovery
Misma plataforma, dos experiencias.
La decisión de diseño más importante del proyecto.
El cierre
El trabajo más valioso de producto no es diseñar interfaces.
Es tomar decisiones cuando no hay información suficiente.