Estás utilizando un navegador obsoleto. Puede que este u otros sitios no se muestren correctamente. Debes actualizarlo o utilizar un navegador alternativo.
Stable Diffusion es un modelo de aprendizaje automático desarrollado por Runway y LMU Múnich[1] para generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural o estímulos (prompts en inglés). El modelo se puede usar para diferentes tareas, como la generación de traducciones de imagen a imagen guiadas por mensajes de texto y la mejora de imágenes.
A diferencia de modelos de la competencia como DALL-E, Stable Diffusion es de código abierto[2] y no limita artificialmente las imágenes que produce.[3] Los críticos han expresado su preocupación por la ética de la IA, afirmando que el modelo se puede utilizar para crear deepfakes.[4] Puede ejecutarse en el hardware del usuario equipado con una tarjeta gráfica (GPU), es completamente gratis, se puede acceder a él en línea y fue elogiado por PC World como "la próxima aplicación revolucionaria para su PC".[5] Desde su lanzamiento inicial, más de 200.000 personas han descargado el código.[6] El modelo original fue liberado a través de la colaboración de las comunidades CompVis LMU, Runway, y Stability AI con el apoyo de EleutherAI y LAION.
Hace unos minutos me sale la publicidad en Youtube...
El siguiente video que presenta el actor colombiano.
Trate de ir al sitio web y no había mayor información.
Los vídeos q están en el canal varios tienen un mes de antigüedad hay uno de hace 5 dias.
Para q sigan mostrándose en la...