Avatar

AI Beats: ChatGPT revienta récords, Runway Gen-4 y edición con IA (04/04/2025)

Ai Beats - Noticias IA y Negocios

Presentado por

Montse Labiaga

¡Vuelve AI Beats! En este episodio semanal repasamos las noticias más potentes de la semana en inteligencia artificial y negocios. Hablamos del nuevo boom de ChatGPT con generación de imágenes realistas, las novedades en Adobe Premiere Pro con IA, y el lanzamiento de Runway Gen-4 que revoluciona el vídeo generativo. También exploramos el impacto de la IA en la educación con los casos del Tecnológico de Monterrey y un estudio sobre tareas prolongadas en IA.

Suscríbete para estar al día de lo último en inteligencia artificial, innovación empresarial y transformación digital

Transcripción

Hola, muy buenas a todos. Bienvenidos a un nuevo episodio de AI-Beats, tu resumen semanal de inteligencia artificial y negocios para gente curiosa. Aquí te cuento cómo la IA está transformando el mundo y cómo tú puedes aplicarla para hacer crecer tu negocio o avanzar en tu carrera. Antes de entrar al meollo de las noticias os quiero contar el parón que me he tomado de dos semanitas me ha sentado de miedo. La verdad es que vengo con las ideas muchísimo más claras. Así que te voy a contar las novedades sobre el podcast. Para empezar, va a ser semanal, ya no va a ser diario, aunque como sé y me habéis dado mucho feedback de que los clips cortos, los vídeos cortos os ayudan y os gustan mucho, voy a dividir lo que es el episodio semanal en los clips cortos también para que tengáis los dos formatos. Quien quiera consumir los viernes El episodio semanal largo que será de todas las noticias relevantes de la semana que tenga que ver con inteligencia artificial y negocios pues estará todo englobado ahí y quien prefiera consumir las píldoras cortas estarán pues de lunes a viernes distribuido pues en mis redes sociales y también en YouTube. Luego, ¿qué más? Por ahora ya no voy a hacer más episodios de Notebook con Notebook LM, que era el podcast que salía generado por IA los viernes. Básicamente tampoco va a haber futuros avatares que me sustituyan, que era una de las cosas que tenía pensado. Y todo esto es porque en realidad no veo que me ahorren tanto tiempo, me cuestan una pasta, no mejoran la calidad y me hacen perder la naturalidad que creo que me distingue. Así que he decidido seguir en este mismo formato. Y luego, por último, por si en algún momento notáis de aquí a mayo, junio, mayo más bien, que de repente desaparezco y no sabéis nada de mí, es que a lo mejor estoy dando a luz a mi segundo hijo y que necesito gestionar eso y luego volveré al podcast. Así que no haré gran parón, pero el mínimo imprescindible que se necesite por las circunstancias. Y dicho esto, vamos a arrancar. Hoy es viernes cuatro de abril, mi nombre es Montse Labiaga y vamos adelante. Hoy vamos a empezar con una noticia. Bueno, imagino que todos os habéis enterado de lo que ha ocurrido con ChatGPT y que han lanzado en el modelo cuatro o la generación, la posibilidad de generar imágenes que podrían haberlo llamado con DALI cuatro, pero no lo han llamado así y lo han metido dentro de ChatGPT y no le han puesto este nombre. Bueno, en fin, ahora se puede hacer unas imágenes bastante buenas, bastante realistas. y sobre todo que entiende muy bien el estilo, puedes hacer ahí una transferencia de estilo bastante decente y también puedes editarlas con lenguaje natural, diciéndole oye, cámbiame cosas específicas de la imagen y te las cambia bastante bien. Entonces, ahora os enseñaré algunas pruebas, algunas imágenes que he estado generando yo esta semana para que veáis diferentes casos de uso. Igualmente, Es curioso porque comentaban, leían una noticia, que el efecto Gimli que ha tenido Sam Allman publicando en su cuenta, tanto en su avatar, que ha puesto una imagen de su persona con el aspecto del estudio Gimli, y en diferentes hilos que ha puesto en Twitter, realmente esto ha tenido un efecto muy fuerte en lo que es la subida de usuarios que ha tenido ChatGPT. Y es que ya el treinta y nueve de marzo, cuando lo lanzaron en dos mil veintidós, si no me equivoco, se llegó a hacer el millón de usuarios en solo cinco días. Pues comenta que ahora añadimos un millón de usuarios en la última hora, con todo el boom este de la generación de imágenes. Me hace mucha gracia cómo ha colapsado todo esto, el lanzamiento que hubo la semana anterior justo a este lanzamiento de Gemini con dos punto cero flash, donde se podría hacer exactamente lo mismo. O sea, es como si hubiese caído en el vacío. Pero bueno, Os quiero enseñar cosas que yo he podido hacer, ¿vale? Aquí, por ejemplo, le he subido una imagen, pues, mía, generada por inteligencia artificial y le voy a decir, oye, te voy a pasar una imagen de mí misma y quiero que me generes una versión más joven, más futurista y que sea de animación, no realista. La voy a utilizar para avatar para un podcast. Me hace esta versión que la verdad es que me gusta bastante y se parece bastante a la imagen original. Sabéis que quien esté viendo esto en vídeo, pues, tiene más apoyo visual y quien esté en podcast, pues, se lo voy contando, ¿vale? Es decir, en audio solo. Luego digo, venga, perfecto, oye, qué chula, vamos a probar con otra imagen, le subo una imagen, una foto real mía y me la vuelve a hacer con el mismo estilo, manteniendo el mismo estilo. Me he encontrado en otros chats que básicamente te dice, no puedo generar fotos realistas, no puedo editar imágenes de personas, pero bueno, sabéis que se pueden puentear un poco los prompts. A mí en este caso, no sé si al decirle a mí misma, que es una imagen mía y que la quería en avatar, me ha dejado, pero luego he hecho otras pruebas y le decía que me la generase realista y también me dejaba, ¿vale? Así que creo que la clave es, en este caso, decirle que soy yo. Luego otra que me ha sorprendido mucho, he cogido un arnés de perro, creo que era de Tienda Limán o de Kiwoco, y he probado a ponérsela a un perro. Entonces le he dicho, oye, ¿puedes ponerle este arnés a un perro en una imagen? Me dice, claro, pásame el perro, digo, géneramelo tú. Y me la ha generado. Yo comparo esta imagen con la del arnés y no tiene fallos. No tiene fallos en cuanto a que no me ha cambiado la estructura, no me ha cambiado el color, no me ha cambiado nada. Y realmente tiene muy buen resultado. No sé si el arnés le quedaría así al perro. Tengo dudas de cómo viste. Si lo está vistiendo bien, pues entonces la imagen es perfecta. Más pruebas, le digo, hazme una imagen de una bebida de frutas que contenga naranja, frutos rojos, envasada en un brick Prisma, que es un modelo de brick muy específico, de un litro. Me lo hace todo bastante bien, excepto lo del Prisma. Así que me busco una foto de internet, digo, vale, pero que tenga este envase que es el de Prisma, ¿no? Y le digo que me cambie el tapón en azul y el fondo que sea blanco. Y me lo hace muy bien. Esto lo he intentado en Frippi, con Misty, con Flux y demás, y no ha habido tutía de que sea tan fácil. He tenido que iterar muchísimo más hasta lograrlo ahí aquí, fijaros. Y luego le digo, venga, genial, pero que tenga un efecto más realista. Y realmente, pues, he acabado con una imagen resultante, pues, como la que veis. Y luego he probado esto mismo en una integración. Oye, ponme este brick en una cocina y realmente me lo ha hecho bastante bien. Me ha cambiado un pelín el tono, el color, pero todo lo demás me voy fijando y es exactamente igual. No me ha cambiado el diseño, no me ha cambiado las letras ni el tapón. Y le digo, venga, pues ahora esta misma imagen la quiero desde un poquito más arriba, con un ángulo un poquito más picada. y no me ha cambiado las letras, me ha cambiado un pelín otra vez el color, y en general está bastante bien, me ha hecho caso, pero la tetera, fijaros aquí está en el fuego y aquí ahora está en la encimera y yo no le he hecho nada, y aquí, digamos, el atrezo, las cucharitas de la cocina, antes había cuchara, pala, etc., pues ahora todo son cucharas, ¿no? Entonces son estos pequeños detalles los que nos hacen que no tengamos el control absoluto, Y que esto, la verdad es que tenga muchísimos usos y sea súper útil, aunque nos faltan tiradores de control, por así decirlo. Pero para muchos usos esto va a ser imprescindible para muchísima gente. Y la verdad es que es una muy buena noticia que esto exista. Más cositas. Han sacado un estudio súper interesante y que están midiendo la habilidad de la inteligencia artificial para completar tareas largas. Y es que podemos ver aquí, también en el hilo de Carlos Santana, que básicamente están midiendo la evolución que están teniendo los sistemas IA por el tiempo ahorrado en tareas que resuelven y en la curva que mide un cincuenta por ciento de éxito se observa un crecimiento exponencial donde cada siete meses la IA duplica lo que se puede hacer. Y en el estudio podemos ver cómo estas en el eje vertical tenemos el tiempo y en el horizontal los años, podemos ver cómo va increchento con ese crecimiento exponencial que decíamos y las tareas que resuelve básicamente son primero toda la parte de, a ver si puedo haceros el gráfico más grande, no me deja, contestación de preguntas es lo primero que resuelve, luego toda la parte de contar palabras, buscar hechos en la web y va mejorando, ¿vale? Y el que más tarda, o sea, el que más optimiza es toda la parte de optimización de código en chips concretos. Y, bueno, pues el estudio está bastante curioso. Vale, más cosas. Os traigo seis casos de uso de éxito en inteligencia artificial de profesores tech. Me los he estado leyendo y básicamente, os resumo un poquito, son seis, ¿vale? Generación automatizada de diseño. Y aquí, pues, hablan los diferentes profesores en diferentes áreas. En este caso, por ejemplo, dice que nos ahorra tiempo en estructurar nuestras ideas y facilita la organización del contenido educativo de acuerdo con los lineamientos del tech. Y básicamente lo que están haciendo es la función de diseño de una actividad evaluable, la cual permitió automatizar la creación de ejercicios alineados con los objetivos de aprendizaje, puesto que ayuda a estructurar y hablar en el idioma TEC, asegurando que las actividades sigan los estándares institucionales. ¿Y qué más? Luego, personalización del aprendizaje con IA. Y aquí uno de los principales beneficios que encontró el profesor fue la posibilidad de generar actividades adaptadas a los estudiantes y optimizar tiempos de diseño. Básicamente, comenta que la IA facilita la estructuración de los retos y la evaluación, proporcionando ejemplos de revisión literaria y diferentes enfoques pedagógicos para las actividades. Como tercer caso, asistentes virtuales para la retroalimentación en tiempo real. Y básicamente explica que la IA puede ser útil para generar instrumentos de evaluación, optimizando el tiempo que los docentes dedican a la creación de rúbricas y cuestionarios. Y así también pueden... montar entornos virtuales para los estudiantes y con ello, pues, proporcionar respuestas personalizadas en tiempo real, lo que obviamente, pues, mejora toda la parte de experiencia y aprendizaje y reduce la carga de trabajo administrativa. El cuarto, la generación automatizada de preguntas en controles de lectura. Lo que hacen es, la I ayuda a generar preguntas de manera rápida y alineada con los objetivos de aprendizaje, optimizando así el proceso de evaluación y reduciendo el tiempo de preparación de los exámenes. Y esto lo que están haciendo es utilizar principalmente la función de creación automática de cuestionarios, lo que permite generar preguntas variadas y adaptadas a los diferentes niveles de complejidad que requiere cada clase. Penúltimo, interpretación asistida de datos estadísticos en estudios de mercado. Y aquí permite que los alumnos comprendan los datos de manera más accesible y aplicada. Y básicamente es transformar los números en insights significativos y hacer un poquito más fácil esa parte de análisis de datos. Y ya por último, la personalización del análisis de reportes de sostenibilidad. Y básicamente hablan de que han utilizado la función de personalización de contenidos que les ha permitido ajustar los casos de estudio y las métricas de evaluación de acuerdo a las necesidades específicas de cada grupo de los estudiantes y que ayuda a dinamizar los análisis de datos y a proporcionar ejemplos más relevantes para los alumnos. ¿Vale? Pues si os da alguna idea. Vale, siguiente noticia. Ya Adobe el año pasado en el evento anual que hicieron, enseñando un poco todas las cosas que iban a venir este dos mil veinticinco, adelantaron que en Premiere iba a haber cositas. Bueno, pues ya están aquí. Y es que en Premiere Pro ya se permite generar, editar y buscar secuencias a gran velocidad, ¿vale? ¿Esto qué significa? En la parte de Premiere, pues ahora ya tenéis la versión beta, donde tenéis la parte de extensión generativa. Y esto es mejor verlo, ¿vale? Para quien no lo esté viendo, lo describo. Básicamente, si tú tienes un clip, tú tienes un trocito de vídeo, que a lo mejor dura dos segundos o dura veinte segundos, pero necesitas que tenga una duración un poquito mayor de otros dos segundos más, tú vas a poder ahora ampliar con generativa ese huequito que te falta del clip de vídeo, lo cual es muy interesante para los cortes musicales o para cierto ritmo de narrativo que muchas veces se quiere que dices, si tuviese un poquito más de clip, esto sería ideal. Bueno, pues ahora se puede hacer con generativa. Vale, luego inteligencia de medios, esto es súper útil porque se tarda muchísimo en buscar los clips que se han grabado para luego poderlos editar y entonces esto lo que permite es entender los clips, entonces con un buscador dices, oye, pues por ejemplo, pues un plano cerrado, un close up de platos de comida, ¿no? Todos los clips que tienes grabados de esa temática, entonces ya te es más fácil arrastrarlo a timeline para poder editar, lo cual simplifica un montón toda la búsqueda y visualización de los clips. Gestión de color, ahora transforma automáticamente el color en la parte de After Effects, teniendo muchísimo más control de este color y te hace esa gestión de color de forma más automática, lo cual es súper cómodo. Y ya por último, una traducción de subtítulos, que hablan de que ya se podrá poner los subtítulos en veintisiete idiomas, que ya os digo, llegan tarde, porque es que esto lo tiene cualquier, casi cualquier editor de vídeo ya los tenía, o sea, que por fin, por fin que esté aquí. Y ya acabamos con vídeo. Esta semana han lanzado Runway Gen IV, que es la versión mejorada, el modelo nuevo mejorado de Runway para toda la parte de generación de vídeo, de texto a vídeo, de imagen a vídeo. Bueno, pues, entonces, la cosa es que tienen nuevas capacidades que son muy útiles. Por ejemplo, hablan de que se puede tener un personaje con consistencia. Entonces, tú lo que haces es subirle diferentes frames. Aquí, por ejemplo, estamos viendo diferentes, seis frames diferentes. Ya sabéis que para controlar el vídeo lo mejor es partir de la imagen. Entonces, aquí en este caso, pues, pones seis imágenes diferentes todo el rato con el mismo carácter. Y le das a generar la escena y entonces te genera imágenes, bueno, vídeos bastante realistas aguantando el personaje. Y entonces ya pues esto para storytelling, para narrativa, para cortos, pelis, producciones audiovisuales, esto ya pues tiene bastante sentido, ¿no? Luego también hablan de que lo mismo lo puedes hacer con la parte de las escenas. Oye, que subes diferentes escenas, diferentes frames y entonces puedes tener al mismo persona en el mismo sitio con diferentes ángulos, plano principal, plano general, desde atrás, desde delante, izquierda, etcétera. y realmente, pues, bueno, con aparentes buenos resultados. Lo podéis probar, se va dando acceso poco a poco a todos los interesados, así que si os interesa, pues ya sabéis dónde ir. Y realmente hablan también de que todo el mundo de la física, el cómo interactúa con el agua, con el viento, el fuego, los líquidos, Toda esta parte que la han mejorado bastante. Por cierto, recomiendo el último vídeo de Carlos Santana que justo habla de las limitaciones y de cómo se están abordando estos problemas que tienen a día de hoy los vídeos generativos con toda la parte de la física, de cómo interactúan las cosas con nuestro mundo, de cómo interactúa un objeto dentro del agua como tal y cómo se está queriendo resolver esto tecnológicamente para que se pueda avanzar en resolver estos problemas. os recomiendo muy mucho su último vídeo en su canal. Y hasta aquí las noticias de hoy. Ya sabes, si te ha gustado, suscríbete para no perderte nuevos episodios. También puedes recomendar a alguien, darle a me gusta, cinco estrellitas, esas cosas ayudan mogollón. Y nada, nos vemos el próximo viernes. Que paséis muy buena semana. Hasta luego.
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

Podcast production costs: what are they?

Creating content comes at a high cost. It requires time, resources, tools, and...Leer más

Master StreamYard: The complete guide to professional live streaming

StreamYard StreamYard is a live streaming platform that works directly from yo...Leer más

Podfade: What it is and how to avoid it

Podcasting is an exciting and rewarding medium, but many creators face a commo...Leer más

How to normalize audio: professional techniques and step-by-step guide

Understanding audio normalization is essential for achieving balanced and prof...Leer más

Podcast SEO: The Ultimate Guide to Boosting Your Podcast’s Growth and Ranking

Navigating the Fundamentals of Podcast SEO Podcast SEO has become essential fo...Leer más

Where to publish a podcast? The definitive guide to maximize your audience

Creating a podcast is an exciting first step, but it's not enough. To ensure y...Leer más