

21.04.202516:36
🔄 Gamma: сrea presentaciones en solo unos clics con IA
La reciente actualización del servicio de creación de presentaciones impulsado por IA, Gamma, ha ampliado sus capacidades: ahora genera no solo texto e imágenes, sino también tablas con gráficos, convierte diapositivas en tarjetas para redes sociales y te permite elegir entre ilustraciones originales además de imágenes generadas por IA.
¿Cómo crear una presentación en Gamma?
1️⃣ Ve al sitio web de Gamma, haz clic en "Start for Free" y regístrate.
2️⃣ Haz clic en "Create New AI" y elige una de las opciones para generar tu presentación: basada en tu esquema, completamente generada por IA o cargando una presentación existente para editarla.
3️⃣ Selecciona el tipo de proyecto (presentación, sitio web, documento o publicación en redes sociales), el número de diapositivas, el idioma y haz clic en "Create Outline".
4️⃣ Revisa el contenido del esquema. Elige un diseño, el método de creación de imágenes, agrega preferencias de estilo y haz clic en "Generate!"
4️⃣ La IA comenzará inmediatamente a crear tu presentación. Puedes editar manualmente las diapositivas, realizar cambios a través del chatbot, animar ilustraciones y crear infografías.
Gamma es una excelente herramienta para estudiar, crear contenido para redes sociales o prototipar sitios web rápidamente.
Más sobre este tema:
🔆 Nuestras guías de productividad
🔆 Herramientas gratuitas de IA para estudiar
#noticias #Gamma @hiaimediaes
La reciente actualización del servicio de creación de presentaciones impulsado por IA, Gamma, ha ampliado sus capacidades: ahora genera no solo texto e imágenes, sino también tablas con gráficos, convierte diapositivas en tarjetas para redes sociales y te permite elegir entre ilustraciones originales además de imágenes generadas por IA.
¿Cómo crear una presentación en Gamma?
1️⃣ Ve al sitio web de Gamma, haz clic en "Start for Free" y regístrate.
2️⃣ Haz clic en "Create New AI" y elige una de las opciones para generar tu presentación: basada en tu esquema, completamente generada por IA o cargando una presentación existente para editarla.
3️⃣ Selecciona el tipo de proyecto (presentación, sitio web, documento o publicación en redes sociales), el número de diapositivas, el idioma y haz clic en "Create Outline".
4️⃣ Revisa el contenido del esquema. Elige un diseño, el método de creación de imágenes, agrega preferencias de estilo y haz clic en "Generate!"
4️⃣ La IA comenzará inmediatamente a crear tu presentación. Puedes editar manualmente las diapositivas, realizar cambios a través del chatbot, animar ilustraciones y crear infografías.
💲 Al registrarte, recibirás 400 créditos, suficientes para crear 10 presentaciones. Recuerda que todas las ediciones con IA consumen créditos adicionales (a partir de 10 por edición).
Gamma es una excelente herramienta para estudiar, crear contenido para redes sociales o prototipar sitios web rápidamente.
Más sobre este tema:
🔆 Nuestras guías de productividad
🔆 Herramientas gratuitas de IA para estudiar
#noticias #Gamma @hiaimediaes


17.04.202521:07
🔭 Estudiante de secundaria recibe $250,000 por descubrir 1.5 Millones de objetos espaciales con la ayuda de IA
Matteo Paz, un estudiante de secundaria de 18 años de California, ha estado interesado en la astronomía desde su infancia. A partir de los 15 años, participó en programas de exploración espacial para estudiantes de secundaria en Caltech.
Bajo la supervisión de su mentor en Caltech, el astrónomo Dave Kirkpatrick, Matteo desarrolló el modelo VARnet, que identifica objetos cósmicos variables como agujeros negros supermasivos y supernovas. El proyecto de Matteo ganó un prestigioso concurso científico para estudiantes de secundaria, con un premio de $250,000.
Paz aplicó el algoritmo para procesar una enorme cantidad de datos (más de 200 terabytes) recopilados durante 10.5 años por el ahora retirado telescopio infrarrojo NEOWISE. Este telescopio observaba principalmente asteroides cercanos a la Tierra, pero también detectó muchos objetos espaciales distantes que brillaban, pulsaban o se oscurecían durante eclipses.
Tras analizar el conjunto de datos archivados, el algoritmo de Paz identificó 1.5 millones de objetos previamente desconocidos. Los resultados aún están pendientes de verificación, y el catálogo completo se publicará a finales de este año.
El modelo de IA es de dominio público y potencialmente útil para otras investigaciones. Según Matteo, puede ser útil para analizar el mercado bursátil, los efectos atmosféricos y otros fenómenos donde la información se presenta en series temporales similares.
Matteo sueña con continuar su investigación y, en el futuro, medir adecuadamente la tasa de expansión del universo, desafiando nuestra comprensión sobre su origen. Recientemente, Matteo consiguió su primer trabajo remunerado en el centro de investigación de su mentor, dedicado a diversos proyectos de la NASA en Caltech.
Más sobre el tema:
➡️ Startup Mercor, fundada por tres emprendedores de 21 años, valorada en $2 mil millones
➡️ Estudiante de secundaria de 17 años lanza un negocio de IA valorado en millones de dólares
#noticias #espacio @hiaimediaes
Matteo Paz, un estudiante de secundaria de 18 años de California, ha estado interesado en la astronomía desde su infancia. A partir de los 15 años, participó en programas de exploración espacial para estudiantes de secundaria en Caltech.
Bajo la supervisión de su mentor en Caltech, el astrónomo Dave Kirkpatrick, Matteo desarrolló el modelo VARnet, que identifica objetos cósmicos variables como agujeros negros supermasivos y supernovas. El proyecto de Matteo ganó un prestigioso concurso científico para estudiantes de secundaria, con un premio de $250,000.
Paz aplicó el algoritmo para procesar una enorme cantidad de datos (más de 200 terabytes) recopilados durante 10.5 años por el ahora retirado telescopio infrarrojo NEOWISE. Este telescopio observaba principalmente asteroides cercanos a la Tierra, pero también detectó muchos objetos espaciales distantes que brillaban, pulsaban o se oscurecían durante eclipses.
Tras analizar el conjunto de datos archivados, el algoritmo de Paz identificó 1.5 millones de objetos previamente desconocidos. Los resultados aún están pendientes de verificación, y el catálogo completo se publicará a finales de este año.
El modelo de IA es de dominio público y potencialmente útil para otras investigaciones. Según Matteo, puede ser útil para analizar el mercado bursátil, los efectos atmosféricos y otros fenómenos donde la información se presenta en series temporales similares.
Matteo sueña con continuar su investigación y, en el futuro, medir adecuadamente la tasa de expansión del universo, desafiando nuestra comprensión sobre su origen. Recientemente, Matteo consiguió su primer trabajo remunerado en el centro de investigación de su mentor, dedicado a diversos proyectos de la NASA en Caltech.
Más sobre el tema:
➡️ Startup Mercor, fundada por tres emprendedores de 21 años, valorada en $2 mil millones
➡️ Estudiante de secundaria de 17 años lanza un negocio de IA valorado en millones de dólares
#noticias #espacio @hiaimediaes
16.04.202501:25
⚡️ Kling 2.0: ¡El modelo de video IA de próxima generación ya está disponible en @GPT4Telegrambot!
¡Hola a todos! Les presentamos 📹 Kling 2.0. Uno de los generadores de video con inteligencia artificial más avanzados acaba de recibir una gran actualización y ahora está disponible en @GPT4Telegrambot 🔴
¿Qué hay de nuevo y por qué es genial?
➡️ Calidad: Video en 720p, 30 fps, animación realista y movimientos con alto nivel de detalle.
➡️ Funciones de IA: Sombras y física mejoradas, reconstrucción 3D de rostros y cuerpos a partir de una sola foto.
➡️ Cámara inteligente: El modelo comprende bien las indicaciones y ajusta los movimientos de cámara, como zoom, paneo y otros efectos cinematográficos.
➡️ Soporte de formatos: Compatible con 16:9, 9:16 y 1:1 para cualquier medio o plataforma.
➡️ De imagen a video: Ideal para generar videos a partir de imágenes; las animaciones son fluidas y las transiciones naturales.
¿Para quién es esto?
Es perfecto para cineastas, especialistas en marketing, blogueros y artistas de cualquier nivel que deseen crear contenido de video impresionante de manera rápida.
🔴 Ve a @GPT4Telegrambot
1️⃣ Compra el paquete KLING en la sección /premium.
2️⃣ Envía el comando /video al bot.
3️⃣ Describe el video que deseas crear y selecciona la versión 2.0. Para mejores resultados, te recomendamos añadir una imagen.
#noticias #Kling @hiaimediaes
¡Hola a todos! Les presentamos 📹 Kling 2.0. Uno de los generadores de video con inteligencia artificial más avanzados acaba de recibir una gran actualización y ahora está disponible en @GPT4Telegrambot 🔴
¿Qué hay de nuevo y por qué es genial?
➡️ Calidad: Video en 720p, 30 fps, animación realista y movimientos con alto nivel de detalle.
➡️ Funciones de IA: Sombras y física mejoradas, reconstrucción 3D de rostros y cuerpos a partir de una sola foto.
➡️ Cámara inteligente: El modelo comprende bien las indicaciones y ajusta los movimientos de cámara, como zoom, paneo y otros efectos cinematográficos.
➡️ Soporte de formatos: Compatible con 16:9, 9:16 y 1:1 para cualquier medio o plataforma.
➡️ De imagen a video: Ideal para generar videos a partir de imágenes; las animaciones son fluidas y las transiciones naturales.
¿Para quién es esto?
Es perfecto para cineastas, especialistas en marketing, blogueros y artistas de cualquier nivel que deseen crear contenido de video impresionante de manera rápida.
¿Cómo crear un video?
🔴 Ve a @GPT4Telegrambot
1️⃣ Compra el paquete KLING en la sección /premium.
2️⃣ Envía el comando /video al bot.
3️⃣ Describe el video que deseas crear y selecciona la versión 2.0. Para mejores resultados, te recomendamos añadir una imagen.
#noticias #Kling @hiaimediaes


13.04.202515:31
📣 ¡Hola a todos! Nuestro resumen dominical presenta las noticias más emocionantes sobre inteligencia artificial de la Semana 15ª, 2025.
▎ACTUALIZACIONES DE BOTS
📱 Midjourney V7, un nuevo modelo de IA diseñado para crear imágenes altamente detalladas y hermosas, ya está disponible en @GPT4Telegrambot.
▎PARA LEER
🤩 Altman vs. Miyazaki: La tendencia de Ghibli en ChatGPT calienta el debate sobre el arte generado por IA.
🐺 La startup Colossal resucitó al lobo terrible, extinto hace más de 10,000 años. George R.R. Martin, autor de Game of Thrones, compartió una foto con el lobo resucitado 👆
🛑 Predicciones para la industria de la IA en los próximos cinco años por Daniel Kokotajlo, exinvestigador de OpenAI.
❤️🔥 Tinder lanzó un juego con IA para practicar habilidades de coqueteo.
🔺 Matemáticos resolvieron un problema de hace 122 años.
🔬 ¿Cómo usan los científicos la IA para falsificar investigaciones?
👁🗨 ¿Por qué la "transparencia" de las empresas de IA es solo una ilusión?
🧬 ¿Qué avances médicos ha traído ya AlphaFold?
🤖 Samsung integra Gemini AI en su robot doméstico Ballie.
▎PARA VER
💿 "Tron: Ares": Qué esperar de la próxima película de la legendaria saga.
👆 El matemático de Oxford John Lennox habla sobre los beneficios y peligros de la IA para la sociedad.
#IAsemana @hiaimediaes
▎ACTUALIZACIONES DE BOTS
📱 Midjourney V7, un nuevo modelo de IA diseñado para crear imágenes altamente detalladas y hermosas, ya está disponible en @GPT4Telegrambot.
▎PARA LEER
🤩 Altman vs. Miyazaki: La tendencia de Ghibli en ChatGPT calienta el debate sobre el arte generado por IA.
🐺 La startup Colossal resucitó al lobo terrible, extinto hace más de 10,000 años. George R.R. Martin, autor de Game of Thrones, compartió una foto con el lobo resucitado 👆
🛑 Predicciones para la industria de la IA en los próximos cinco años por Daniel Kokotajlo, exinvestigador de OpenAI.
❤️🔥 Tinder lanzó un juego con IA para practicar habilidades de coqueteo.
🔺 Matemáticos resolvieron un problema de hace 122 años.
🔬 ¿Cómo usan los científicos la IA para falsificar investigaciones?
👁🗨 ¿Por qué la "transparencia" de las empresas de IA es solo una ilusión?
🧬 ¿Qué avances médicos ha traído ya AlphaFold?
🤖 Samsung integra Gemini AI en su robot doméstico Ballie.
▎PARA VER
💿 "Tron: Ares": Qué esperar de la próxima película de la legendaria saga.
👆 El matemático de Oxford John Lennox habla sobre los beneficios y peligros de la IA para la sociedad.
#IAsemana @hiaimediaes


08.04.202518:41
👁🗨 ¿Por qué las empresas de IA solo pretenden ser abiertas?
Hace unos 50 años, un grupo de entusiastas de la informática en California fundó el Homebrew Computer Club. Sus miembros establecieron la idea central del movimiento de código abierto: los programas deben ser accesibles para que cualquiera pueda utilizarlos, estudiarlos, modificarlos y compartirlos con otros.
Gracias al código abierto, desarrolladores de todo el mundo han creado herramientas que impulsan el progreso científico y tecnológico. Ejemplos notables incluyen el lenguaje de programación Python y el núcleo del sistema operativo Linux.
🍹 Cómo las empresas de IA nos engañan
Hoy en día, muchas empresas de IA etiquetan sus productos como "abiertos". Sin embargo, solo revelan la arquitectura general mientras ocultan los detalles más importantes.
Un análisis realizado por la Open Source Initiative (OSI) reveló que modelos de lenguaje populares anunciados como "abiertos", como Llama 2 y Llama 3.x (Meta), Grok (xAI), Phi-2 (Microsoft) y Mixtral (Mistral AI), no cumplen con los principios fundamentales de la comunidad de código abierto. Los desarrolladores no divulgan los conjuntos de datos utilizados para entrenar los modelos ni otros detalles clave. En el mejor de los casos, estos productos pueden llamarse "modelos con pesos abiertos".
Sin embargo, también existen modelos completamente de código abierto, desarrollados principalmente por organizaciones sin fines de lucro como el Allen Institute for AI o por entusiastas independientes.
🖥 ¿Por qué las empresas hacen esto?
En 2024, la Unión Europea adoptó la Ley de Inteligencia Artificial (AI Act), que regula estrictamente esta industria. Sin embargo, esta regulación incluye excepciones para el software de código abierto, lo cual algunas empresas intentan aprovechar. Los expertos llaman a esta práctica "openwashing" (lavado de imagen abierto).
Para combatir esta confusión, OSI ha desarrollado un estándar que define qué constituye una IA verdaderamente abierta. Según este estándar, los desarrolladores deben publicar el código y la información sobre los datos utilizados para entrenar sus modelos.
Si no es posible publicar los datos directamente (por ejemplo, debido a restricciones de privacidad), las empresas al menos deben divulgar sus fuentes y cómo fueron procesados.
Como era de esperar, en 2024 Meta criticó esta idea, argumentando que los enfoques tradicionales no reflejan adecuadamente las complejidades del rápido desarrollo de la IA en la actualidad.
Las autoridades también pueden ayudar a abordar este problema. Por ejemplo, en Estados Unidos, los beneficiarios de subvenciones científicas ya están obligados a publicar abiertamente los datos de sus investigaciones. La adopción generalizada de reglas similares podría garantizar que la IA siga siendo una tecnología transparente y accesible, en lugar de un recurso cerrado controlado por unas pocas corporaciones.
Más sobre código abierto:
🟥 El Éxito de DeepSeek: Cómo un Modelo Chino Desafía a ChatGPT
🟥 OpenAI Podría Abrir el Código de sus Modelos Más Antiguos
#noticias #opensource @hiaimediaes
Hace unos 50 años, un grupo de entusiastas de la informática en California fundó el Homebrew Computer Club. Sus miembros establecieron la idea central del movimiento de código abierto: los programas deben ser accesibles para que cualquiera pueda utilizarlos, estudiarlos, modificarlos y compartirlos con otros.
Gracias al código abierto, desarrolladores de todo el mundo han creado herramientas que impulsan el progreso científico y tecnológico. Ejemplos notables incluyen el lenguaje de programación Python y el núcleo del sistema operativo Linux.
🍹 Cómo las empresas de IA nos engañan
Hoy en día, muchas empresas de IA etiquetan sus productos como "abiertos". Sin embargo, solo revelan la arquitectura general mientras ocultan los detalles más importantes.
Un análisis realizado por la Open Source Initiative (OSI) reveló que modelos de lenguaje populares anunciados como "abiertos", como Llama 2 y Llama 3.x (Meta), Grok (xAI), Phi-2 (Microsoft) y Mixtral (Mistral AI), no cumplen con los principios fundamentales de la comunidad de código abierto. Los desarrolladores no divulgan los conjuntos de datos utilizados para entrenar los modelos ni otros detalles clave. En el mejor de los casos, estos productos pueden llamarse "modelos con pesos abiertos".
Sin embargo, también existen modelos completamente de código abierto, desarrollados principalmente por organizaciones sin fines de lucro como el Allen Institute for AI o por entusiastas independientes.
🖥 ¿Por qué las empresas hacen esto?
En 2024, la Unión Europea adoptó la Ley de Inteligencia Artificial (AI Act), que regula estrictamente esta industria. Sin embargo, esta regulación incluye excepciones para el software de código abierto, lo cual algunas empresas intentan aprovechar. Los expertos llaman a esta práctica "openwashing" (lavado de imagen abierto).
Para combatir esta confusión, OSI ha desarrollado un estándar que define qué constituye una IA verdaderamente abierta. Según este estándar, los desarrolladores deben publicar el código y la información sobre los datos utilizados para entrenar sus modelos.
Si no es posible publicar los datos directamente (por ejemplo, debido a restricciones de privacidad), las empresas al menos deben divulgar sus fuentes y cómo fueron procesados.
Como era de esperar, en 2024 Meta criticó esta idea, argumentando que los enfoques tradicionales no reflejan adecuadamente las complejidades del rápido desarrollo de la IA en la actualidad.
Las autoridades también pueden ayudar a abordar este problema. Por ejemplo, en Estados Unidos, los beneficiarios de subvenciones científicas ya están obligados a publicar abiertamente los datos de sus investigaciones. La adopción generalizada de reglas similares podría garantizar que la IA siga siendo una tecnología transparente y accesible, en lugar de un recurso cerrado controlado por unas pocas corporaciones.
Más sobre código abierto:
🟥 El Éxito de DeepSeek: Cómo un Modelo Chino Desafía a ChatGPT
🟥 OpenAI Podría Abrir el Código de sus Modelos Más Antiguos
#noticias #opensource @hiaimediaes


05.04.202516:36
📖 ¿Hará la IA que seamos la última generación en leer y escribir?
Según Victor Riparbelli, CEO de la plataforma de generación de videos con IA Synthesia, las generaciones futuras podrían ya no necesitar leer ni escribir. En su charla TED en Viena, predijo que el audio y el video reemplazarán completamente al texto, y los libros y la escritura a mano se convertirán en artefactos históricos.
Estas son las razones por las que él piensa así:
1️⃣ El texto es una tecnología imperfecta. Nos permite codificar y transmitir conocimiento, pero no el tono de voz, el lenguaje corporal o el contexto. Los emojis y las notas de voz son solo soluciones provisionales a una brecha de comunicación más profunda.
2️⃣ Crear videos solía ser caro, lento y complejo. Ahora, con la IA, cualquier idea —desde una guía práctica hasta una novela— puede convertirse instantáneamente en un video atractivo. La creación de contenido ya no está reservada para los estudios; cualquiera puede convertirse en narrador.
3️⃣ El video ya domina. "TikTok no es solo la plataforma social de más rápido crecimiento, también es el motor de búsqueda de más rápido crecimiento", señala Riparbelli. Ya sea comprando o aprendiendo, las personas prefieren ver y escuchar. Los libros son ahora una opción para profundizar, no la opción predeterminada.
4️⃣ En un estudio conjunto de Synthesia y University College London, el 77% de los participantes prefirieron aprender a través de videos generados por IA en lugar de texto. ¿Por qué? Comprensión más rápida, personalización y resonancia emocional. En poco tiempo, un avatar de IA enseñará matemáticas a tu hijo de una manera que ningún libro de texto puede hacerlo.
5️⃣ No hay nada malo con el contenido generado por IA. No nos importa que los actores en los anuncios sean profesionales contratados, entonces, ¿por qué los personajes virtuales deberían ser diferentes?
📱 Mira la charla completa aquí.
¿Crees que los libros realmente desaparecerán?
😎 — sí, el video es más natural y divertido
🤓 — no, ¡los libros son irremplazables!
#AITed #libros @hiaimediaes
Según Victor Riparbelli, CEO de la plataforma de generación de videos con IA Synthesia, las generaciones futuras podrían ya no necesitar leer ni escribir. En su charla TED en Viena, predijo que el audio y el video reemplazarán completamente al texto, y los libros y la escritura a mano se convertirán en artefactos históricos.
Estas son las razones por las que él piensa así:
1️⃣ El texto es una tecnología imperfecta. Nos permite codificar y transmitir conocimiento, pero no el tono de voz, el lenguaje corporal o el contexto. Los emojis y las notas de voz son solo soluciones provisionales a una brecha de comunicación más profunda.
2️⃣ Crear videos solía ser caro, lento y complejo. Ahora, con la IA, cualquier idea —desde una guía práctica hasta una novela— puede convertirse instantáneamente en un video atractivo. La creación de contenido ya no está reservada para los estudios; cualquiera puede convertirse en narrador.
3️⃣ El video ya domina. "TikTok no es solo la plataforma social de más rápido crecimiento, también es el motor de búsqueda de más rápido crecimiento", señala Riparbelli. Ya sea comprando o aprendiendo, las personas prefieren ver y escuchar. Los libros son ahora una opción para profundizar, no la opción predeterminada.
4️⃣ En un estudio conjunto de Synthesia y University College London, el 77% de los participantes prefirieron aprender a través de videos generados por IA en lugar de texto. ¿Por qué? Comprensión más rápida, personalización y resonancia emocional. En poco tiempo, un avatar de IA enseñará matemáticas a tu hijo de una manera que ningún libro de texto puede hacerlo.
5️⃣ No hay nada malo con el contenido generado por IA. No nos importa que los actores en los anuncios sean profesionales contratados, entonces, ¿por qué los personajes virtuales deberían ser diferentes?
"Y algún día, creo que miraremos la lectura y la escritura como artefactos históricos, como lo hacemos con los papiros o los jeroglíficos, o las pinturas rupestres", dice Riparbelli.
📱 Mira la charla completa aquí.
¿Crees que los libros realmente desaparecerán?
😎 — sí, el video es más natural y divertido
🤓 — no, ¡los libros son irremplazables!
#AITed #libros @hiaimediaes


20.04.202515:22
📣 ¡Hola a todos! Nuestro resumen del domingo incluye las noticias más emocionantes de la IA de la Semana 16ª, 2025.
▎NUEVOS LANZAMIENTOS
👐 OpenAI ha presentado sus modelos más avanzados, o3 y o4‑mini, junto con la familia GPT‑4.1, que cuenta con una ventana de contexto de 1 millón de tokens.
♊️ Gemini 2.5 Flash: El nuevo modelo de razonamiento de Google, ahora clasificado como #2 en LMArena.
📹 Kling 2.0: Una gran actualización de uno de los generadores de video con IA más destacados.
▎GUÁRDALO — ES ÚTIL
💬 Los mejores consejos de Google sobre cómo conversar con chatbots de IA.
▎PARA LEER
🔭 Un estudiante de secundaria recibió $250,000 por descubrir 1.5 millones de objetos espaciales con IA.
⛔️ Trump podría prohibir los servicios de DeepSeek AI en EE. UU.
🤖 ¿Qué puede hacer ya el robot doméstico Neo Gamma?
🧠 Un nuevo algoritmo convierte pensamientos en discurso en tiempo casi real.
🐬 Google ha creado un modelo de IA para descifrar el lenguaje de los delfines.
🌐 Sergey Brin, cofundador de Google, dona miles de millones para desarrollar nuevos medicamentos.
▎PARA VER
📺 "Mis hijos nunca serán más inteligentes que la IA": Una nueva entrevista con Sam Altman, CEO de OpenAI.
#IASemana @hiaimediaes
▎NUEVOS LANZAMIENTOS
👐 OpenAI ha presentado sus modelos más avanzados, o3 y o4‑mini, junto con la familia GPT‑4.1, que cuenta con una ventana de contexto de 1 millón de tokens.
♊️ Gemini 2.5 Flash: El nuevo modelo de razonamiento de Google, ahora clasificado como #2 en LMArena.
📹 Kling 2.0: Una gran actualización de uno de los generadores de video con IA más destacados.
🔴 Todas estas nuevas funciones de IA están disponibles en @GPT4Telegrambot.
▎GUÁRDALO — ES ÚTIL
💬 Los mejores consejos de Google sobre cómo conversar con chatbots de IA.
▎PARA LEER
🔭 Un estudiante de secundaria recibió $250,000 por descubrir 1.5 millones de objetos espaciales con IA.
⛔️ Trump podría prohibir los servicios de DeepSeek AI en EE. UU.
🤖 ¿Qué puede hacer ya el robot doméstico Neo Gamma?
🧠 Un nuevo algoritmo convierte pensamientos en discurso en tiempo casi real.
🐬 Google ha creado un modelo de IA para descifrar el lenguaje de los delfines.
🌐 Sergey Brin, cofundador de Google, dona miles de millones para desarrollar nuevos medicamentos.
▎PARA VER
📺 "Mis hijos nunca serán más inteligentes que la IA": Una nueva entrevista con Sam Altman, CEO de OpenAI.
#IASemana @hiaimediaes


17.04.202519:52
👐 OpenAI presenta o3 y o4‑mini: modelos de IA de nueva generación con habilidades superiores de razonamiento y uso de herramientas
OpenAI ha logrado un nuevo avance con el anuncio de los modelos o3 y o4-mini, los más inteligentes y poderosos hasta la fecha.
¿Qué hay de nuevo?
➡️ Rendimiento récord. Los modelos muestran resultados sin precedentes en pruebas de matemáticas, codificación y conocimientos científicos. Aunque Gemini 2.5 Pro podría competir con o4-mini en algunas pruebas, solo Deep Research de OpenAI rivaliza con el o3 en el uso de herramientas.
➡️ En la plataforma Codeforces, ambos modelos obtienen más de 2700 puntos ELO, lo que equivale al ranking de los 200 mejores programadores del mundo.
➡️ Los modelos piensan con imágenes, no solo con cadenas de oraciones. Por ejemplo, pueden rotar o hacer zoom en una imagen durante la generación de respuestas para analizarla mejor, usar Python para cálculos y análisis de datos, y aplicar otras herramientas.
➡️ Los modelos razonan con mayor profundidad, cometen menos errores y evitan mejor las alucinaciones.
🔴 ¡Ya puedes probar los sistemas de IA más poderosos del mundo, o3 y o4-mini, en nuestro bot!
➡️ Ve a @GPT4Telegrambot
1️⃣ Compra el paquete "CHATGPT DALL•E 3" en la sección /premium
2️⃣ Selecciona o3 u o4-mini en la sección /model
#noticias #ChatGPT @GPT4Telegrambot
OpenAI ha logrado un nuevo avance con el anuncio de los modelos o3 y o4-mini, los más inteligentes y poderosos hasta la fecha.
El presidente de OpenAI, Greg Brockman, compara su lanzamiento con el salto en el progreso que la compañía logró con GPT-4 hace dos años: "Y lo realmente asombroso de estos modelos es que no son solo modelos, son verdaderos sistemas de inteligencia artificial. Los hemos entrenado para usar herramientas, algo que no habíamos hecho con nuestros modelos de razonamiento anteriores."
¿Qué hay de nuevo?
➡️ Rendimiento récord. Los modelos muestran resultados sin precedentes en pruebas de matemáticas, codificación y conocimientos científicos. Aunque Gemini 2.5 Pro podría competir con o4-mini en algunas pruebas, solo Deep Research de OpenAI rivaliza con el o3 en el uso de herramientas.
➡️ En la plataforma Codeforces, ambos modelos obtienen más de 2700 puntos ELO, lo que equivale al ranking de los 200 mejores programadores del mundo.
➡️ Los modelos piensan con imágenes, no solo con cadenas de oraciones. Por ejemplo, pueden rotar o hacer zoom en una imagen durante la generación de respuestas para analizarla mejor, usar Python para cálculos y análisis de datos, y aplicar otras herramientas.
➡️ Los modelos razonan con mayor profundidad, cometen menos errores y evitan mejor las alucinaciones.
🔴 ¡Ya puedes probar los sistemas de IA más poderosos del mundo, o3 y o4-mini, en nuestro bot!
¿Cómo usarlos?
➡️ Ve a @GPT4Telegrambot
1️⃣ Compra el paquete "CHATGPT DALL•E 3" en la sección /premium
2️⃣ Selecciona o3 u o4-mini en la sección /model
#noticias #ChatGPT @GPT4Telegrambot
16.04.202500:21
🌟 ¿Qué están diciendo los delfines? El modelo de Google intenta descubrirlo
Investigadores de Google DeepMind y Georgia Tech han creado DolphinGemma, un modelo de inteligencia artificial diseñado para ayudar a descifrar el "lenguaje" de los delfines.
Los científicos han observado durante mucho tiempo que los delfines envían señales entre sí mientras juegan, cazan o viajan. Algunos creen que los delfines incluso podrían formar "oraciones" completas, lo que podría sugerir que tienen una forma simple de lenguaje.
🐬 ¿Qué hizo Google?
Para descifrar el lenguaje de los delfines, Google DeepMind entrenó un modelo con aproximadamente 400 millones de parámetros basado en la arquitectura Gemma, utilizando grabaciones anotadas de delfines recopiladas durante 40 años por el Wild Dolphin Project.
La innovación clave es SoundStream, una herramienta que convierte los sonidos de los delfines en tokens que el modelo puede comprender. Escucha silbidos y chasquidos e intenta predecir qué sonido podría venir después. Funciona de manera similar a cómo los modelos de lenguaje grande (LLM) completan oraciones humanas.
El modelo puede generar respuestas similares a las de los delfines, pero todavía no sabemos qué significan esos sonidos. El objetivo principal es vincular patrones de sonido con el comportamiento de los delfines y, eventualmente, descifrar su comunicación.
Más sobre el tema:
🔜 MeowTalk: Traductor de IA de gatos a humanos
🔜 Perdidos en la traducción: ¿Pronto nos ayudará la IA a hablar con los animales?
#noticias #Google @hiaimediaes
Investigadores de Google DeepMind y Georgia Tech han creado DolphinGemma, un modelo de inteligencia artificial diseñado para ayudar a descifrar el "lenguaje" de los delfines.
Los científicos han observado durante mucho tiempo que los delfines envían señales entre sí mientras juegan, cazan o viajan. Algunos creen que los delfines incluso podrían formar "oraciones" completas, lo que podría sugerir que tienen una forma simple de lenguaje.
"Si los delfines tienen lenguaje, entonces probablemente también tengan cultura",señala Thad Starner, científico investigador de Google DeepMind.
🐬 ¿Qué hizo Google?
Para descifrar el lenguaje de los delfines, Google DeepMind entrenó un modelo con aproximadamente 400 millones de parámetros basado en la arquitectura Gemma, utilizando grabaciones anotadas de delfines recopiladas durante 40 años por el Wild Dolphin Project.
La innovación clave es SoundStream, una herramienta que convierte los sonidos de los delfines en tokens que el modelo puede comprender. Escucha silbidos y chasquidos e intenta predecir qué sonido podría venir después. Funciona de manera similar a cómo los modelos de lenguaje grande (LLM) completan oraciones humanas.
El modelo puede generar respuestas similares a las de los delfines, pero todavía no sabemos qué significan esos sonidos. El objetivo principal es vincular patrones de sonido con el comportamiento de los delfines y, eventualmente, descifrar su comunicación.
Más sobre el tema:
🔜 MeowTalk: Traductor de IA de gatos a humanos
🔜 Perdidos en la traducción: ¿Pronto nos ayudará la IA a hablar con los animales?
#noticias #Google @hiaimediaes
12.04.202516:49
💿 "Tron: Ares": Qué espera al público en la continuación de la legendaria saga
Disney presentó el primer tráiler de la tercera entrega de la serie Tron en la Comicon. Aunque los detalles aún son escasos, ya está claro que el nuevo capítulo reflejará la historia de las dos películas anteriores: esta vez, un programa entra al mundo real.
Ares es la primera inteligencia artificial en la historia con la que la humanidad se encontrará cara a cara. Junto a él, otros programas irrumpen en la realidad, buscando unificar todo a su paso y crear una "Matrix" digital en el mundo físico. En el tráiler, estos son representados por una enorme nave voladora llamada Recognizer.
Los fans también pueden esperar las icónicas persecuciones en motos de luz, que se han convertido en un símbolo de la serie 🟡
Jared Leto protagoniza como Ares, mientras que Jeff Bridges, quien interpretó el papel principal en la película original, regresará a la saga.
La película tiene previsto estrenarse en octubre de 2025.
¿Estás emocionado por Tron: Ares?
👾 — ¡Sí, soy un verdadero fan de la saga!
❤️ — Tal vez le eche un vistazo...
🤔 — No he visto las películas anteriores...
#imperdible @hiaimediaes
Disney presentó el primer tráiler de la tercera entrega de la serie Tron en la Comicon. Aunque los detalles aún son escasos, ya está claro que el nuevo capítulo reflejará la historia de las dos películas anteriores: esta vez, un programa entra al mundo real.
Ares es la primera inteligencia artificial en la historia con la que la humanidad se encontrará cara a cara. Junto a él, otros programas irrumpen en la realidad, buscando unificar todo a su paso y crear una "Matrix" digital en el mundo físico. En el tráiler, estos son representados por una enorme nave voladora llamada Recognizer.
Los fans también pueden esperar las icónicas persecuciones en motos de luz, que se han convertido en un símbolo de la serie 🟡
Jared Leto protagoniza como Ares, mientras que Jeff Bridges, quien interpretó el papel principal en la película original, regresará a la saga.
La primera película de Tron de 1982cuenta la historia de un programador obsesionado que queda atrapado dentro de un programa que creó. En la secuela de 2010, el hijo del protagonista entra accidentalmente en la Red mientras busca a su padre y descubre que un programa antivirus ha establecido una tiranía en este mundo, mientras su padre se ha convertido en un "disidente digital".
La película tiene previsto estrenarse en octubre de 2025.
¿Estás emocionado por Tron: Ares?
👾 — ¡Sí, soy un verdadero fan de la saga!
❤️ — Tal vez le eche un vistazo...
🤔 — No he visto las películas anteriores...
#imperdible @hiaimediaes
08.04.202501:05
🧬 Avances médicos gracias a AlphaFold
El año pasado, Demis Hassabis y John Jumper de Google DeepMind ganaron el Premio Nobel en Química por resolver el problema de predecir la estructura 3D de una proteína basada en su composición—un desafío científico que había durado décadas.
Presentado por Google DeepMind en 2018, el modelo AlphaFold alcanzó una precisión sin precedentes en la predicción de la estructura 3D de las proteínas. AlphaFold2, lanzado en 2020, reveló la base de datos con casi todos los 250 millones de proteínas conocidas por la humanidad.
En comparación, más de 60 años de experimentos de laboratorio habían identificado solo 225,000 fórmulas de proteínas. Ahora, años de investigación se comprimen en segundos de cálculos ⤴️
Lo que AlphaFold ya ha ayudado a descubrir:
💠 El modelo ayudó a predecir la estructura del receptor de serotonina, una de las hormonas responsables del estado de ánimo. La IA probó cuáles de las 1.6 mil millones de moléculas podrían unirse eficazmente al receptor, lo que podría abrir el camino a nuevos medicamentos para trastornos del estado de ánimo.
💠 Usando AlphaFold, los científicos pudieron desarrollar un nuevo medicamento para el cáncer de hígado que ha mostrado eficacia en el laboratorio (pero aún no en pacientes).
💠 Otro desarrollo gracias a AlphaFold es una "jeringa molecular", que entrega las proteínas deseadas directamente en las células humanas. Esto será útil en la terapia génica y los tratamientos contra el cáncer.
💠 El modelo puede diseñar nuevas moléculas y modelar la estructura de las mutaciones. Esto podría transformar el diagnóstico y tratamiento de enfermedades genéticas raras.
💠 AlphaFold reveló recientemente la estructura del "puente" molecular entre el espermatozoide y el óvulo que se forma durante la fertilización, lo que podría ser útil en el tratamiento de la infertilidad.
Actualmente, el modelo se está utilizando para encontrar vacunas más efectivas contra la malaria y medicamentos para la enfermedad de Parkinson, así como para resolver el problema de la resistencia a los antibióticos.
Más sobre el tema:
🔬 Cómo AlphaFold de Google DeepMind está transformando la biología y la farmacéutica
🔬 10 Herramientas Revolucionarias de IA según la revista Time
#ciencia #deepmind @hiaimediaes
El año pasado, Demis Hassabis y John Jumper de Google DeepMind ganaron el Premio Nobel en Química por resolver el problema de predecir la estructura 3D de una proteína basada en su composición—un desafío científico que había durado décadas.
Presentado por Google DeepMind en 2018, el modelo AlphaFold alcanzó una precisión sin precedentes en la predicción de la estructura 3D de las proteínas. AlphaFold2, lanzado en 2020, reveló la base de datos con casi todos los 250 millones de proteínas conocidas por la humanidad.
En comparación, más de 60 años de experimentos de laboratorio habían identificado solo 225,000 fórmulas de proteínas. Ahora, años de investigación se comprimen en segundos de cálculos ⤴️
"Si la primera generación del descubrimiento de fármacos fue la generación natural, que nos dio la aspirina (de la corteza del sauce), y la segunda fue la generación biotecnológica, que nos dio Ozempic, entonces ahora hemos pasado a la tercera generación: la generación de la IA",explica Samuel Hume, profesor del Departamento de Oncología de Oxford.
Lo que AlphaFold ya ha ayudado a descubrir:
💠 El modelo ayudó a predecir la estructura del receptor de serotonina, una de las hormonas responsables del estado de ánimo. La IA probó cuáles de las 1.6 mil millones de moléculas podrían unirse eficazmente al receptor, lo que podría abrir el camino a nuevos medicamentos para trastornos del estado de ánimo.
💠 Usando AlphaFold, los científicos pudieron desarrollar un nuevo medicamento para el cáncer de hígado que ha mostrado eficacia en el laboratorio (pero aún no en pacientes).
💠 Otro desarrollo gracias a AlphaFold es una "jeringa molecular", que entrega las proteínas deseadas directamente en las células humanas. Esto será útil en la terapia génica y los tratamientos contra el cáncer.
💠 El modelo puede diseñar nuevas moléculas y modelar la estructura de las mutaciones. Esto podría transformar el diagnóstico y tratamiento de enfermedades genéticas raras.
💠 AlphaFold reveló recientemente la estructura del "puente" molecular entre el espermatozoide y el óvulo que se forma durante la fertilización, lo que podría ser útil en el tratamiento de la infertilidad.
Actualmente, el modelo se está utilizando para encontrar vacunas más efectivas contra la malaria y medicamentos para la enfermedad de Parkinson, así como para resolver el problema de la resistencia a los antibióticos.
Más sobre el tema:
🔬 Cómo AlphaFold de Google DeepMind está transformando la biología y la farmacéutica
🔬 10 Herramientas Revolucionarias de IA según la revista Time
#ciencia #deepmind @hiaimediaes
post.media.noAccess
04.04.202518:58
🛸 Haven-1: la primera estación espacial comercial del mundo
En mayo de 2026, la startup estadounidense Vast Space planea lanzar Haven-1, la primera estación espacial completamente comercial del mundo. El proyecto está financiado personalmente por el multimillonario de criptomonedas Jed McCaleb, quien ha comprometido $1,000 millones de su fortuna para hacer realidad esta visión.
Diseñada para alojar a una tripulación de cuatro personas en misiones de hasta 30 días, Haven-1 servirá tanto para turistas espaciales como para investigaciones en microgravedad. Según Vast, la estación es un paso inicial: un vuelo de demostración para probar que pueden construir infraestructura segura y funcional en órbita antes de abordar proyectos más ambiciosos.
El equipo detrás de Haven-1 incluye a destacados ingenieros que trabajaron en SpaceX, Blue Origin y la NASA, como Alex Hudson, exvicepresidente de Aviónica en SpaceX, y el astronauta de la NASA Andrew Feustel, quien ha participado en tres misiones espaciales.
🌑 Un hotel cápsula de lujo en órbita
Hillary Coe, exjefa de diseño en SpaceX, quien también trabajó en Google y Apple, lideró el concepto visual. El interior de Haven-1 se asemeja más a un hotel futurista que a una nave espacial tradicional (ver video ⤴️). El diseñador industrial Peter Russell-Clarke, conocido por su trabajo en productos de Apple, creó un interior cálido y elegante utilizando texturas suaves y paneles de madera de arce. La estación cuenta con cuatro cabinas privadas para la tripulación, un área compartida de estar, una ventana panorámica y un laboratorio para investigaciones en microgravedad. Los sistemas de iluminación y clima se ajustarán a los ritmos circadianos, y se proporcionará internet de alta velocidad a través de Starlink.
🛰 Una apuesta para reemplazar la EEI o perderlo todo
Las ambiciones de Vast van más allá de un solo lanzamiento. La misión Haven-1 es su entrada oficial al programa de Destinos Comerciales en Órbita Baja (CLD) de la NASA, que busca identificar socios privados para reemplazar la Estación Espacial Internacional (EEI) antes de 2030. Se espera que la NASA seleccione a los ganadores de este contrato multimillonario a mediados de 2026, justo cuando Haven-1 llegue a órbita.
Sin embargo, Vast no está sola en esta carrera: Axiom Space, Blue Origin y Voyager Space también compiten, algunos con acuerdos respaldados por la NASA. Lo que diferencia a Vast es que está completamente autofinanciada y avanza más rápido de lo que muchos esperaban.
No obstante, la competencia incluye a gigantes como SpaceX de Elon Musk y Blue Origin de Jeff Bezos. Si Vast logra impresionar a la NASA y ganar el contrato, su próximo paso será Haven-2: una estación más grande con sistemas de reciclaje de agua y aire para misiones a largo plazo. De lo contrario, los $1,000 millones de McCaleb podrían literalmente desaparecer en el espacio.
Más sobre el tema:
🔭 ¿Está EE.UU. planeando construir estaciones espaciales "habitables"?
🔭 Una colonia en Marte para 2050
#espacio #noticias @hiaimediaes
En mayo de 2026, la startup estadounidense Vast Space planea lanzar Haven-1, la primera estación espacial completamente comercial del mundo. El proyecto está financiado personalmente por el multimillonario de criptomonedas Jed McCaleb, quien ha comprometido $1,000 millones de su fortuna para hacer realidad esta visión.
Diseñada para alojar a una tripulación de cuatro personas en misiones de hasta 30 días, Haven-1 servirá tanto para turistas espaciales como para investigaciones en microgravedad. Según Vast, la estación es un paso inicial: un vuelo de demostración para probar que pueden construir infraestructura segura y funcional en órbita antes de abordar proyectos más ambiciosos.
El equipo detrás de Haven-1 incluye a destacados ingenieros que trabajaron en SpaceX, Blue Origin y la NASA, como Alex Hudson, exvicepresidente de Aviónica en SpaceX, y el astronauta de la NASA Andrew Feustel, quien ha participado en tres misiones espaciales.
🌑 Un hotel cápsula de lujo en órbita
Hillary Coe, exjefa de diseño en SpaceX, quien también trabajó en Google y Apple, lideró el concepto visual. El interior de Haven-1 se asemeja más a un hotel futurista que a una nave espacial tradicional (ver video ⤴️). El diseñador industrial Peter Russell-Clarke, conocido por su trabajo en productos de Apple, creó un interior cálido y elegante utilizando texturas suaves y paneles de madera de arce. La estación cuenta con cuatro cabinas privadas para la tripulación, un área compartida de estar, una ventana panorámica y un laboratorio para investigaciones en microgravedad. Los sistemas de iluminación y clima se ajustarán a los ritmos circadianos, y se proporcionará internet de alta velocidad a través de Starlink.
🛰 Una apuesta para reemplazar la EEI o perderlo todo
Las ambiciones de Vast van más allá de un solo lanzamiento. La misión Haven-1 es su entrada oficial al programa de Destinos Comerciales en Órbita Baja (CLD) de la NASA, que busca identificar socios privados para reemplazar la Estación Espacial Internacional (EEI) antes de 2030. Se espera que la NASA seleccione a los ganadores de este contrato multimillonario a mediados de 2026, justo cuando Haven-1 llegue a órbita.
Sin embargo, Vast no está sola en esta carrera: Axiom Space, Blue Origin y Voyager Space también compiten, algunos con acuerdos respaldados por la NASA. Lo que diferencia a Vast es que está completamente autofinanciada y avanza más rápido de lo que muchos esperaban.
No obstante, la competencia incluye a gigantes como SpaceX de Elon Musk y Blue Origin de Jeff Bezos. Si Vast logra impresionar a la NASA y ganar el contrato, su próximo paso será Haven-2: una estación más grande con sistemas de reciclaje de agua y aire para misiones a largo plazo. De lo contrario, los $1,000 millones de McCaleb podrían literalmente desaparecer en el espacio.
"Es una cuestión de existencia para nosotros ganar esa competencia",dice Max Haot, CEO de Vast.
Más sobre el tema:
🔭 ¿Está EE.UU. planeando construir estaciones espaciales "habitables"?
🔭 Una colonia en Marte para 2050
#espacio #noticias @hiaimediaes


19.04.202515:45
🌐 El cofundador de Google, Sergey Brin: de Google Search al descubrimiento de medicamentos
A finales de 2019, Sergey Brin, actualmente la octava persona más rica del mundo con una fortuna estimada en aproximadamente $120 mil millones, dejó su cargo como presidente de Alphabet (la empresa matriz de Google) para centrarse en abordar desafíos globales fundamentales: encontrar curas para enfermedades incurables y combatir el cambio climático.
💰 Brin ya ha invertido aproximadamente $1.8 mil millones en la investigación del Parkinson, convirtiéndose en una de las mayores donaciones jamás realizadas para combatir una enfermedad específica. El propio Brin es portador de una rara mutación genética que aumenta su riesgo de desarrollar Parkinson. Este gen lo heredó de su madre, quien padeció la enfermedad durante más de 20 años.
💰 Otros esfuerzos filantrópicos de Brin también están estrechamente vinculados a su vida personal. Ha donado cerca de $75 millones para la investigación del trastorno bipolar (una condición que afecta a un miembro de su familia) y casi $50 millones para la investigación del autismo, ya que a su hija menor le han diagnosticado esta condición.
💰 A través de Catalyst4, la organización sin fines de lucro que fundó en 2019, Brin financia diversas startups. Estas empresas trabajan principalmente en proyectos que van desde tratamientos para enfermedades neurológicas hasta el desarrollo de vacunas más efectivas, así como terapias genéticas y celulares.
💰 Además, Brin ha invertido $2 mil millones en proyectos de energía verde, particularmente en tecnologías enfocadas en la extracción de hidrógeno y la captura de carbono para combatir el cambio climático.
A pesar de haberse apartado del liderazgo diario de Google, Sergey Brin mantiene su posición como miembro del consejo de administración y tiene una influencia significativa en las decisiones de la empresa. Se rumorea que la carrera por la inteligencia artificial (IA) ha motivado al multimillonario a asumir un papel más activo en los asuntos corporativos nuevamente.
Recientemente, se informó que Brin envió un correo electrónico a los empleados instándolos a regresar a la oficina diariamente y comprometerse a trabajar hasta 60 horas por semana.
Más sobre el tema:
🌟 Gemini 2.5 Pro: El nuevo modelo LLM campeón de Google
🌟 Elon Musk VS Larry Page
#startup #google @hiaimediaes
A finales de 2019, Sergey Brin, actualmente la octava persona más rica del mundo con una fortuna estimada en aproximadamente $120 mil millones, dejó su cargo como presidente de Alphabet (la empresa matriz de Google) para centrarse en abordar desafíos globales fundamentales: encontrar curas para enfermedades incurables y combatir el cambio climático.
💰 Brin ya ha invertido aproximadamente $1.8 mil millones en la investigación del Parkinson, convirtiéndose en una de las mayores donaciones jamás realizadas para combatir una enfermedad específica. El propio Brin es portador de una rara mutación genética que aumenta su riesgo de desarrollar Parkinson. Este gen lo heredó de su madre, quien padeció la enfermedad durante más de 20 años.
💰 Otros esfuerzos filantrópicos de Brin también están estrechamente vinculados a su vida personal. Ha donado cerca de $75 millones para la investigación del trastorno bipolar (una condición que afecta a un miembro de su familia) y casi $50 millones para la investigación del autismo, ya que a su hija menor le han diagnosticado esta condición.
💰 A través de Catalyst4, la organización sin fines de lucro que fundó en 2019, Brin financia diversas startups. Estas empresas trabajan principalmente en proyectos que van desde tratamientos para enfermedades neurológicas hasta el desarrollo de vacunas más efectivas, así como terapias genéticas y celulares.
💰 Además, Brin ha invertido $2 mil millones en proyectos de energía verde, particularmente en tecnologías enfocadas en la extracción de hidrógeno y la captura de carbono para combatir el cambio climático.
A pesar de haberse apartado del liderazgo diario de Google, Sergey Brin mantiene su posición como miembro del consejo de administración y tiene una influencia significativa en las decisiones de la empresa. Se rumorea que la carrera por la inteligencia artificial (IA) ha motivado al multimillonario a asumir un papel más activo en los asuntos corporativos nuevamente.
Recientemente, se informó que Brin envió un correo electrónico a los empleados instándolos a regresar a la oficina diariamente y comprometerse a trabajar hasta 60 horas por semana.
"La competencia se ha acelerado inmensamente y la carrera final hacia la I.A.G. (Inteligencia Artificial General) está en marcha. Creo que tenemos todos los ingredientes para ganar esta carrera, pero tendremos que intensificar nuestros esfuerzos",escribió.
Más sobre el tema:
🌟 Gemini 2.5 Pro: El nuevo modelo LLM campeón de Google
🌟 Elon Musk VS Larry Page
#startup #google @hiaimediaes


16.04.202517:43
💬 Un nuevo algoritmo traduce pensamientos en discurso en tiempo casi real
Científicos de la Universidad de California, San Francisco, probaron su tecnología en Ann, una paciente que ha estado paralizada durante casi 20 años después de un derrame cerebral. En 2023, el mismo equipo de investigadores implantó un dispositivo en la superficie de la región del habla del cerebro para registrar la actividad de las neuronas.
Un algoritmo luego convirtió estas señales en discurso real. Los experimentos iniciales hace dos años permitieron a Ann hablar a una velocidad de hasta 80 palabras por minuto. Esto es aproximadamente la mitad de la velocidad de una conversación natural (alrededor de 160 palabras por minuto), pero varias veces más rápido que su dispositivo de comunicación asistida actual. Sin embargo, había casi un retraso de ocho segundos entre sus pensamientos y los sonidos, lo que hacía que el discurso se pareciera más a mensajes que a una conversación.
El nuevo método reduce este retraso entre la intención de hablar y las palabras a menos de un segundo. Esto permite comunicarse de una manera mucho más natural. Esto se logró mediante un algoritmo de decodificación del habla similar a los utilizados en asistentes de voz como Alexa o Siri, según el autor principal del estudio, Gopala Anumanchipalli.
El modelo de inteligencia artificial que transmite la voz de Ann fue entrenado con grabaciones de su video de boda realizado antes del derrame cerebral. El modelo incluso sintetizó palabras que no formaban parte del vocabulario del conjunto de datos de entrenamiento.
🧠 Uno de los miembros clave del equipo de investigación, el neurocirujano Edward Chang, recientemente se convirtió en el director de Echo Neurotechnologies Corp., una empresa que desarrolla implantes para conectar el cerebro a una computadora. Aquí contamos más sobre esta startup, que recientemente recibió $50 millones en financiamiento.
#noticias #salud @hiaimediaes
Científicos de la Universidad de California, San Francisco, probaron su tecnología en Ann, una paciente que ha estado paralizada durante casi 20 años después de un derrame cerebral. En 2023, el mismo equipo de investigadores implantó un dispositivo en la superficie de la región del habla del cerebro para registrar la actividad de las neuronas.
Un algoritmo luego convirtió estas señales en discurso real. Los experimentos iniciales hace dos años permitieron a Ann hablar a una velocidad de hasta 80 palabras por minuto. Esto es aproximadamente la mitad de la velocidad de una conversación natural (alrededor de 160 palabras por minuto), pero varias veces más rápido que su dispositivo de comunicación asistida actual. Sin embargo, había casi un retraso de ocho segundos entre sus pensamientos y los sonidos, lo que hacía que el discurso se pareciera más a mensajes que a una conversación.
El nuevo método reduce este retraso entre la intención de hablar y las palabras a menos de un segundo. Esto permite comunicarse de una manera mucho más natural. Esto se logró mediante un algoritmo de decodificación del habla similar a los utilizados en asistentes de voz como Alexa o Siri, según el autor principal del estudio, Gopala Anumanchipalli.
El modelo de inteligencia artificial que transmite la voz de Ann fue entrenado con grabaciones de su video de boda realizado antes del derrame cerebral. El modelo incluso sintetizó palabras que no formaban parte del vocabulario del conjunto de datos de entrenamiento.
🧠 Uno de los miembros clave del equipo de investigación, el neurocirujano Edward Chang, recientemente se convirtió en el director de Echo Neurotechnologies Corp., una empresa que desarrolla implantes para conectar el cerebro a una computadora. Aquí contamos más sobre esta startup, que recientemente recibió $50 millones en financiamiento.
#noticias #salud @hiaimediaes


15.04.202523:06
👐 Los modelos más recientes de GPT-4.1 de OpenAI están en @GPT4Telegrambot
¡Hola a todos! OpenAI ha lanzado una nueva familia de modelos GPT-4.1. Ya puedes usar el avanzado GPT-4.1 y el gratuito GPT-4.1 mini en nuestro bot 🔴
¿Por qué elegir GPT-4.1?
➡️ Redacta textos mejor y entiende muchos idiomas.
➡️ En matemáticas y ciencias, las capacidades del nuevo modelo están a la par con GPT-4.5, pero es significativamente más económico.
➡️ Para programación, GPT-4.1 se acerca a las capacidades de los modelos "reasoning" o1 y o3-mini.
➡️ Límite de conocimiento: junio de 2024.
1️⃣ Ve a @GPT4Telegrambot
2️⃣ Compra "ChatGPT + DALL•E 3" en la sección /premium
3️⃣ Selecciona GPT-4.1 en la sección /model
¿Por qué elegir GPT-4.1 mini?
➡️ Supera al modelo pequeño anterior, GPT-4o mini, en todas las tareas.
➡️ Gratis para todos los usuarios de nuestro bot.
1️⃣ Ve a @GPT4Telegrambot
2️⃣ Selecciona GPT-4.1 mini en la sección /model
🧑💻 Los desarrolladores ya han anunciado que el modelo GPT-4.5-preview será eliminado de la API en julio, y recomiendan cambiar a GPT-4.1.
#OpenAI #ChatGPT @hiaimediaes
¡Hola a todos! OpenAI ha lanzado una nueva familia de modelos GPT-4.1. Ya puedes usar el avanzado GPT-4.1 y el gratuito GPT-4.1 mini en nuestro bot 🔴
¿Por qué elegir GPT-4.1?
➡️ Redacta textos mejor y entiende muchos idiomas.
➡️ En matemáticas y ciencias, las capacidades del nuevo modelo están a la par con GPT-4.5, pero es significativamente más económico.
➡️ Para programación, GPT-4.1 se acerca a las capacidades de los modelos "reasoning" o1 y o3-mini.
➡️ Límite de conocimiento: junio de 2024.
¿Cómo usarlo?
1️⃣ Ve a @GPT4Telegrambot
2️⃣ Compra "ChatGPT + DALL•E 3" en la sección /premium
3️⃣ Selecciona GPT-4.1 en la sección /model
¿Por qué elegir GPT-4.1 mini?
➡️ Supera al modelo pequeño anterior, GPT-4o mini, en todas las tareas.
➡️ Gratis para todos los usuarios de nuestro bot.
¿Cómo usarlo?
1️⃣ Ve a @GPT4Telegrambot
2️⃣ Selecciona GPT-4.1 mini en la sección /model
🧑💻 Los desarrolladores ya han anunciado que el modelo GPT-4.5-preview será eliminado de la API en julio, y recomiendan cambiar a GPT-4.1.
#OpenAI #ChatGPT @hiaimediaes


11.04.202517:32
👆 El matemático John Lennox: La IA está cambiando la percepción de los niños sobre el mundo
John Lennox, profesor de matemáticas en la Universidad de Oxford, tiene un doctorado de Cambridge y es autor de más de 70 artículos científicos y varios libros, incluyendo Dios y Stephen Hawking y 2084: La inteligencia artificial y el futuro de la humanidad.
Lennox es un cristiano devoto y ha debatido con conocidos ateos, como Richard Dawkins, desde una perspectiva religiosa.
En una nueva entrevista, compartió por qué la inteligencia artificial (IA) es tanto beneficiosa como peligrosa, y qué desafíos éticos presenta su desarrollo para la humanidad.
Puntos destacados:
➡️ La IA exacerba el impacto negativo de la tecnología en el desarrollo de los niños. Los niños pasan hasta 9 horas al día usando dispositivos electrónicos. Investigadores sugieren que este estilo de vida puede literalmente alterar la estructura de sus cerebros. Los algoritmos de IA amplifican la adicción digital y hacen que el contenido inapropiado sea más accesible para los niños. Lennox considera que este es uno de los problemas más serios que enfrenta la sociedad moderna.
➡️ Al mismo tiempo, Lennox reconoce los beneficios de la IA. Admira los avances médicos que han sido posibles gracias a tecnologías como AlphaFold y sistemas de IA que ayudan a los médicos. La tecnología no debería reemplazar a los humanos, sino apoyarlos. Lo compara con las gafas: "Eso mejora mi visión. Pero lo que no está haciendo es redefinir lo que significa ser humano", explica el científico.
➡️ Todavía no entendemos qué es la conciencia, señala Lennox. En su opinión, este es el principal obstáculo para crear una "IA fuerte". Aquí, indirectamente coincide con uno de los pioneros de la IA, Yann LeCun de Meta.
➡️ Los términos "aprendizaje automático" e "inteligencia artificial" atribuyen cualidades humanas a las computadoras que en realidad no poseen. Lennox recuerda que la palabra "artificial" en "IA" significa imitación, no inteligencia real. Esta confusión lingüística dificulta evaluar con precisión las capacidades y limitaciones de estas tecnologías.
➡️ La mayoría de las personas desconocen la escala del mercado oculto de comercio de datos. Incluso una simple compra en línea desencadena un proceso de recopilación y venta de información personal a terceros. Este sistema plantea serias preocupaciones éticas, ya que los usuarios dan su consentimiento formal sin comprender sus verdaderas consecuencias.
📺 Puedes ver la entrevista completa de Lennox aquí.
Otras entrevistas con científicos:
▶️ El premio Nobel Geoffrey Hinton sobre los algoritmos de IA: "¡Estas 'criaturas' son más inteligentes que nosotros!"
▶️ ¿Cómo comenzó la vida? — La astrobióloga y física teórica Sara Walker
#entrevista #IA @hiaimediaes
John Lennox, profesor de matemáticas en la Universidad de Oxford, tiene un doctorado de Cambridge y es autor de más de 70 artículos científicos y varios libros, incluyendo Dios y Stephen Hawking y 2084: La inteligencia artificial y el futuro de la humanidad.
Lennox es un cristiano devoto y ha debatido con conocidos ateos, como Richard Dawkins, desde una perspectiva religiosa.
En una nueva entrevista, compartió por qué la inteligencia artificial (IA) es tanto beneficiosa como peligrosa, y qué desafíos éticos presenta su desarrollo para la humanidad.
Puntos destacados:
➡️ La IA exacerba el impacto negativo de la tecnología en el desarrollo de los niños. Los niños pasan hasta 9 horas al día usando dispositivos electrónicos. Investigadores sugieren que este estilo de vida puede literalmente alterar la estructura de sus cerebros. Los algoritmos de IA amplifican la adicción digital y hacen que el contenido inapropiado sea más accesible para los niños. Lennox considera que este es uno de los problemas más serios que enfrenta la sociedad moderna.
➡️ Al mismo tiempo, Lennox reconoce los beneficios de la IA. Admira los avances médicos que han sido posibles gracias a tecnologías como AlphaFold y sistemas de IA que ayudan a los médicos. La tecnología no debería reemplazar a los humanos, sino apoyarlos. Lo compara con las gafas: "Eso mejora mi visión. Pero lo que no está haciendo es redefinir lo que significa ser humano", explica el científico.
➡️ Todavía no entendemos qué es la conciencia, señala Lennox. En su opinión, este es el principal obstáculo para crear una "IA fuerte". Aquí, indirectamente coincide con uno de los pioneros de la IA, Yann LeCun de Meta.
➡️ Los términos "aprendizaje automático" e "inteligencia artificial" atribuyen cualidades humanas a las computadoras que en realidad no poseen. Lennox recuerda que la palabra "artificial" en "IA" significa imitación, no inteligencia real. Esta confusión lingüística dificulta evaluar con precisión las capacidades y limitaciones de estas tecnologías.
➡️ La mayoría de las personas desconocen la escala del mercado oculto de comercio de datos. Incluso una simple compra en línea desencadena un proceso de recopilación y venta de información personal a terceros. Este sistema plantea serias preocupaciones éticas, ya que los usuarios dan su consentimiento formal sin comprender sus verdaderas consecuencias.
📺 Puedes ver la entrevista completa de Lennox aquí.
Otras entrevistas con científicos:
▶️ El premio Nobel Geoffrey Hinton sobre los algoritmos de IA: "¡Estas 'criaturas' son más inteligentes que nosotros!"
▶️ ¿Cómo comenzó la vida? — La astrobióloga y física teórica Sara Walker
#entrevista #IA @hiaimediaes






+6
07.04.202523:54
📱 ¡Midjourney V7 Ya Está Aquí! Ahora Disponible en @GPT4Telegrambot
¡Hola a todos! Hemos integrado el nuevo modelo de generación de imágenes V7 de Midjourney en nuestro bot.
¿Por qué deberías probarlo?
1️⃣ Estética: Midjourney sobresale en la creación de visuales impresionantes. Son los №1 en este campo, y el V7 lleva el nivel aún más alto. ¡Un verdadero deleite para artistas y amantes de lo visual!
2️⃣ Detalles: Las imágenes ahora son más nítidas, con texturas mejoradas (piel, telas, iluminación) y expresiones faciales más realistas.
3️⃣ Precisión anatómica mejorada: Di adiós a las manos incómodas y proporciones distorsionadas: Midjourney V7 reduce significativamente los errores al representar manos, cuerpos y objetos complejos.
4️⃣ Calidad cinematográfica: Los primeros usuarios han elogiado el nuevo modelo por su expresividad artística y su capacidad para contar historias visuales dramáticas.
5️⃣ Impulso al Fotorrealismo: Las imágenes generadas por Midjourney parecen capturadas con una cámara o un smartphone — ¡auténticamente realistas!
Los desarrolladores prometen más actualizaciones en las próximas semanas ❤️
🔴 Ve a @GPT4Telegrambot
✨ Compra el paquete "Midjourney + FLUX" en la sección /premium
✨ Envía el comando /imagine seguido de un texto descriptivo para generar una imag
en
🌱 El V7 está activado por defecto. Si prefieres usar la versión anterior (6.1), simplemente añade el parámetro --v 6.1 al final de tu descripción.
Más sobre el tema:
➡️ Dominando Midjourney: Una guía práctica para la generación de imágenes
➡️ Editor de Imágenes Gemini 2.0: Disponible gratis en nuestro bot
¡Feliz creación!
#Midjourney @GPT4Telegrambot
¡Hola a todos! Hemos integrado el nuevo modelo de generación de imágenes V7 de Midjourney en nuestro bot.
¿Por qué deberías probarlo?
1️⃣ Estética: Midjourney sobresale en la creación de visuales impresionantes. Son los №1 en este campo, y el V7 lleva el nivel aún más alto. ¡Un verdadero deleite para artistas y amantes de lo visual!
2️⃣ Detalles: Las imágenes ahora son más nítidas, con texturas mejoradas (piel, telas, iluminación) y expresiones faciales más realistas.
3️⃣ Precisión anatómica mejorada: Di adiós a las manos incómodas y proporciones distorsionadas: Midjourney V7 reduce significativamente los errores al representar manos, cuerpos y objetos complejos.
4️⃣ Calidad cinematográfica: Los primeros usuarios han elogiado el nuevo modelo por su expresividad artística y su capacidad para contar historias visuales dramáticas.
5️⃣ Impulso al Fotorrealismo: Las imágenes generadas por Midjourney parecen capturadas con una cámara o un smartphone — ¡auténticamente realistas!
Los desarrolladores prometen más actualizaciones en las próximas semanas ❤️
¿Cómo usarlo?
🔴 Ve a @GPT4Telegrambot
✨ Compra el paquete "Midjourney + FLUX" en la sección /premium
✨ Envía el comando /imagine seguido de un texto descriptivo para generar una imag
en
🌱 El V7 está activado por defecto. Si prefieres usar la versión anterior (6.1), simplemente añade el parámetro --v 6.1 al final de tu descripción.
Más sobre el tema:
➡️ Dominando Midjourney: Una guía práctica para la generación de imágenes
➡️ Editor de Imágenes Gemini 2.0: Disponible gratis en nuestro bot
¡Feliz creación!
#Midjourney @GPT4Telegrambot


03.04.202516:56
♊️ Editor de imágenes Google Gemini 2.0 en @GPT4Telegrambot
¡Hola a todos! Ahora puedes editar tus imágenes directamente en nuestro bot utilizando lenguaje natural: ¡solo describe los cambios que deseas ver!
Nuestro editor impulsado por IA, basado en Google Gemini 2.0, está disponible de forma gratuita para todos los usuarios del bot.
Cómo usarlo:
🔴 Ve a @GPT4Telegrambot
➡️ a la sección /photo
1️⃣ Selecciona "Gemini Editor"
2️⃣ Sube cualquier imagen
3️⃣ Escribe en el chat lo que te gustaría cambiar y espera 10 segundos 🙂
🌱 ¡Puedes editar la misma imagen tantas veces como quieras!
#Gemini @hiaimediaes
¡Hola a todos! Ahora puedes editar tus imágenes directamente en nuestro bot utilizando lenguaje natural: ¡solo describe los cambios que deseas ver!
Nuestro editor impulsado por IA, basado en Google Gemini 2.0, está disponible de forma gratuita para todos los usuarios del bot.
Cómo usarlo:
🔴 Ve a @GPT4Telegrambot
➡️ a la sección /photo
1️⃣ Selecciona "Gemini Editor"
2️⃣ Sube cualquier imagen
3️⃣ Escribe en el chat lo que te gustaría cambiar y espera 10 segundos 🙂
🌱 ¡Puedes editar la misma imagen tantas veces como quieras!
#Gemini @hiaimediaes


18.04.202515:38
⚪️ Cómo Pokémon ayuda a evaluar el progreso de la IA
Pokémon Red fue lanzado en la Game Boy hace casi 30 años. Sin embargo, el juego todavía cuenta con una base de fans devotos, incluidos algunos investigadores de la startup de IA Anthropic. En junio de 2024, el equipo detrás de Claude decidió probar qué tan bien su modelo de IA podía jugar este clásico. Lo que comenzó como un experimento ligero rápidamente se convirtió en algo así como un fenómeno de culto dentro del equipo.
Cuando Anthropic presentó Claude 3.7 Sonnet, destacaron su desempeño en Pokémon. La investigadora Diane Penn explicó que observar a un modelo jugar al juego dice más sobre el progreso de la IA que muchos puntos de referencia estandarizados. "Estamos en un punto donde las evaluaciones no cuentan toda la historia sobre cuán más capaces son las versiones de estos modelos", dijo.
🎮 Pokémon es más difícil que el ajedrez para la IA
La IA ha superado a los humanos desde hace tiempo en el ajedrez, Go e incluso en juegos complejos como StarCraft. Pero los RPG de mundo abierto como Pokémon Red, con eventos aleatorios y decisiones dinámicas, son un mejor indicador para tareas de la vida real. Requieren más que solo conocimiento: demandan habilidades agentivas, como toma de decisiones, seguimiento de objetivos e interacción con personajes. Eso es lo que los convierte en un campo de prueba poderoso para aplicaciones reales de la IA.
Hasta ahora, Claude 3.7 Sonnet solo ha derrotado a algunos líderes de gimnasio, pero eso ya representa un gran avance. La versión anterior tuvo problemas incluso para salir de la casa inicial en Pueblo Paleta.
Aún más impresionante es Gemini 2.5 Pro de Google. Desde principios de abril, un entusiasta de la IA ha estado transmitiendo en vivo cómo el modelo juega a Pokémon Blue, una versión ligeramente modificada de Red. Según usuarios de Reddit, Gemini ya ha llegado mucho más lejos que Claude en el mismo período de tiempo. Aunque, claro, Gemini recibe algo de ayuda: un mini-mapa personalizado le permite evitar quedarse atascado.
Más sobre el tema:
🔴 Datos de Pokémon Go están siendo usados para entrenar IA
💎 La IA de Google DeepMind juega Minecraft
#noticias #juegos @hiaimediaes
Pokémon Red fue lanzado en la Game Boy hace casi 30 años. Sin embargo, el juego todavía cuenta con una base de fans devotos, incluidos algunos investigadores de la startup de IA Anthropic. En junio de 2024, el equipo detrás de Claude decidió probar qué tan bien su modelo de IA podía jugar este clásico. Lo que comenzó como un experimento ligero rápidamente se convirtió en algo así como un fenómeno de culto dentro del equipo.
Cuando Anthropic presentó Claude 3.7 Sonnet, destacaron su desempeño en Pokémon. La investigadora Diane Penn explicó que observar a un modelo jugar al juego dice más sobre el progreso de la IA que muchos puntos de referencia estandarizados. "Estamos en un punto donde las evaluaciones no cuentan toda la historia sobre cuán más capaces son las versiones de estos modelos", dijo.
🎮 Pokémon es más difícil que el ajedrez para la IA
La IA ha superado a los humanos desde hace tiempo en el ajedrez, Go e incluso en juegos complejos como StarCraft. Pero los RPG de mundo abierto como Pokémon Red, con eventos aleatorios y decisiones dinámicas, son un mejor indicador para tareas de la vida real. Requieren más que solo conocimiento: demandan habilidades agentivas, como toma de decisiones, seguimiento de objetivos e interacción con personajes. Eso es lo que los convierte en un campo de prueba poderoso para aplicaciones reales de la IA.
Hasta ahora, Claude 3.7 Sonnet solo ha derrotado a algunos líderes de gimnasio, pero eso ya representa un gran avance. La versión anterior tuvo problemas incluso para salir de la casa inicial en Pueblo Paleta.
Aún más impresionante es Gemini 2.5 Pro de Google. Desde principios de abril, un entusiasta de la IA ha estado transmitiendo en vivo cómo el modelo juega a Pokémon Blue, una versión ligeramente modificada de Red. Según usuarios de Reddit, Gemini ya ha llegado mucho más lejos que Claude en el mismo período de tiempo. Aunque, claro, Gemini recibe algo de ayuda: un mini-mapa personalizado le permite evitar quedarse atascado.
Más sobre el tema:
🔴 Datos de Pokémon Go están siendo usados para entrenar IA
💎 La IA de Google DeepMind juega Minecraft
#noticias #juegos @hiaimediaes


16.04.202515:33
👐 ¿Por qué nuestros hijos nos tendrán lástima? Una nueva entrevista con Sam Altman
¿Cómo planea OpenAI manejar los derechos de autor? ¿El dinero está corrompiendo a la empresa? ¿Y de qué son realmente capaces los modelos internos? El curador de TED, Chris Anderson, le hizo al CEO de OpenAI, Sam Altman, una serie de preguntas inusualmente difíciles sobre el poder, la seguridad y el futuro de la inteligencia.
Esto es lo que Altman reveló:
💬 Sobre los derechos de autor: ChatGPT no genera contenido en el estilo de artistas vivos. En su lugar, se basa en "vibras" más amplias, escuelas y movimientos artísticos. En el futuro, los creadores podrían optar por permitir que sus estilos sean utilizados y recibir compensación. Pero, como admitió Altman, "cómo repartir el dinero" sigue siendo una pregunta abierta.
💬 Sobre el desafío DeepSeek: OpenAI está trabajando en un modelo de código abierto poderoso, cerca de la frontera tecnológica. Cuando se le preguntó por qué la compañía sigue gastando miles de millones en sistemas propietarios mientras los modelos abiertos avanzan rápidamente, Altman explicó: OpenAI no solo está construyendo un modelo, está construyendo un producto. Y en ese producto, la seguridad no es un complemento, es fundamental.
💬 Sobre la AGI: La AGI no es un único avance, es una curva. Los modelos seguirán volviéndose más inteligentes que los humanos. Lo importante es aprender a gestionar ese poder, paso a paso. O, como bromeó:
💬 Sobre el futuro: Altman se convirtió en padre en febrero de 2025. Cree que su hijo crecerá en un mundo donde los niños nunca serán más inteligentes que la IA, y donde los servicios, por defecto, entenderán a las personas al instante. Espera que las generaciones futuras nos miren con lástima y nostalgia, como aquellos que vivieron antes de que comenzara el verdadero progreso.
⁉️ Una pregunta para Sam Altman fue generada por el modelo más avanzado de OpenAI, o1 pro:
Altman evitó una respuesta directa. En su lugar, devolvió la pregunta al curador de TED, Chris Anderson: "Me has estado haciendo versiones de esto durante los últimos treinta minutos. ¿Qué piensas tú?"
📱 Mira la entrevista completa aquí.
Más entrevistas con Sam Altman:
💬 Sobre el conflicto con Musk y el futuro
💬 Por qué ahora es el mejor momento para lanzar una startup de IA
#noticias #ChatGPT @hiaimediaes
¿Cómo planea OpenAI manejar los derechos de autor? ¿El dinero está corrompiendo a la empresa? ¿Y de qué son realmente capaces los modelos internos? El curador de TED, Chris Anderson, le hizo al CEO de OpenAI, Sam Altman, una serie de preguntas inusualmente difíciles sobre el poder, la seguridad y el futuro de la inteligencia.
Esto es lo que Altman reveló:
💬 Sobre los derechos de autor: ChatGPT no genera contenido en el estilo de artistas vivos. En su lugar, se basa en "vibras" más amplias, escuelas y movimientos artísticos. En el futuro, los creadores podrían optar por permitir que sus estilos sean utilizados y recibir compensación. Pero, como admitió Altman, "cómo repartir el dinero" sigue siendo una pregunta abierta.
💬 Sobre el desafío DeepSeek: OpenAI está trabajando en un modelo de código abierto poderoso, cerca de la frontera tecnológica. Cuando se le preguntó por qué la compañía sigue gastando miles de millones en sistemas propietarios mientras los modelos abiertos avanzan rápidamente, Altman explicó: OpenAI no solo está construyendo un modelo, está construyendo un producto. Y en ese producto, la seguridad no es un complemento, es fundamental.
💬 Sobre la AGI: La AGI no es un único avance, es una curva. Los modelos seguirán volviéndose más inteligentes que los humanos. Lo importante es aprender a gestionar ese poder, paso a paso. O, como bromeó:
"Si juntas a 10 investigadores de OpenAI en una sala y les pides definir AGI, obtendrás 14 definiciones."
💬 Sobre el futuro: Altman se convirtió en padre en febrero de 2025. Cree que su hijo crecerá en un mundo donde los niños nunca serán más inteligentes que la IA, y donde los servicios, por defecto, entenderán a las personas al instante. Espera que las generaciones futuras nos miren con lástima y nostalgia, como aquellos que vivieron antes de que comenzara el verdadero progreso.
⁉️ Una pregunta para Sam Altman fue generada por el modelo más avanzado de OpenAI, o1 pro:
Sam, dado que estás ayudando a crear tecnología que podría remodelar el destino de toda nuestra especie, ¿quién te otorgó a ti o a alguien la autoridad moral para hacerlo? ¿Y cómo eres personalmente responsable si te equivocas?
Altman evitó una respuesta directa. En su lugar, devolvió la pregunta al curador de TED, Chris Anderson: "Me has estado haciendo versiones de esto durante los últimos treinta minutos. ¿Qué piensas tú?"
📱 Mira la entrevista completa aquí.
Más entrevistas con Sam Altman:
💬 Sobre el conflicto con Musk y el futuro
💬 Por qué ahora es el mejor momento para lanzar una startup de IA
#noticias #ChatGPT @hiaimediaes
post.media.noAccess
14.04.202515:10
🤖 ¿Qué puede hacer ya el robot doméstico Neo?
La startup noruega 1X lleva varios años trabajando en el robot humanoide Neo, impulsado por inteligencia artificial. La empresa ha atraído más de $125 millones en inversiones, incluyendo aportes de OpenAI y el fondo Tiger Global.
En febrero, los desarrolladores presentaron un nuevo robot doméstico llamado Neo Gamma. El robot mide aproximadamente 170 centímetros de altura y "viste" nylon tejido, un material suave que reduce el riesgo de daños en caso de contacto humano.
🦾 ¿Cuándo harán los robots nuestras tareas del hogar?
Por ahora, Neo no puede hacer mucho de forma autónoma: camina completamente solo, abre puertas, se sienta y se levanta, y mantiene el equilibrio incluso si lo empujan. Aprendió movimientos básicos por sí mismo, repitiéndolos muchas veces en una simulación virtual.
Neo está aprendiendo gradualmente a realizar tareas más complejas. En el futuro, será capaz de hacer todas las tareas del hogar: limpiar, regar las plantas, lavar los platos, preparar té, lavar la ropa, entre otras.
Sin embargo, estos procesos son difíciles de simular en un entorno virtual, por lo que los desarrolladores están recopilando datos para entrenar la IA en hogares reales. Un operador utiliza un visor de realidad virtual para controlar al robot, mostrándole cómo realizar las acciones correctamente. Luego, durante el aprendizaje por refuerzo, el cerebro de la IA es recompensado por repeticiones correctas y penalizado por errores. Este enfoque ayuda a los robots a lograr movimientos altamente realistas de manera gradual. A finales del año, la empresa comenzará a probar a Neo en varios cientos de hogares voluntarios.
En un futuro no muy lejano, cada hogar tendrá un robot ayudante, según Bernt Børnich, CEO de 1X. Sin embargo, para que los humanoides se integren en la vida cotidiana, deben aprender junto a los humanos.
Más sobre el tema:
🤖 ¿Reemplazarán los robots a camareros, bartenders y baristas?
🤖 ¿Por qué necesitamos robots humanoides?
#noticias #robots @hiaimediaes
La startup noruega 1X lleva varios años trabajando en el robot humanoide Neo, impulsado por inteligencia artificial. La empresa ha atraído más de $125 millones en inversiones, incluyendo aportes de OpenAI y el fondo Tiger Global.
En febrero, los desarrolladores presentaron un nuevo robot doméstico llamado Neo Gamma. El robot mide aproximadamente 170 centímetros de altura y "viste" nylon tejido, un material suave que reduce el riesgo de daños en caso de contacto humano.
🦾 ¿Cuándo harán los robots nuestras tareas del hogar?
Por ahora, Neo no puede hacer mucho de forma autónoma: camina completamente solo, abre puertas, se sienta y se levanta, y mantiene el equilibrio incluso si lo empujan. Aprendió movimientos básicos por sí mismo, repitiéndolos muchas veces en una simulación virtual.
Neo está aprendiendo gradualmente a realizar tareas más complejas. En el futuro, será capaz de hacer todas las tareas del hogar: limpiar, regar las plantas, lavar los platos, preparar té, lavar la ropa, entre otras.
Sin embargo, estos procesos son difíciles de simular en un entorno virtual, por lo que los desarrolladores están recopilando datos para entrenar la IA en hogares reales. Un operador utiliza un visor de realidad virtual para controlar al robot, mostrándole cómo realizar las acciones correctamente. Luego, durante el aprendizaje por refuerzo, el cerebro de la IA es recompensado por repeticiones correctas y penalizado por errores. Este enfoque ayuda a los robots a lograr movimientos altamente realistas de manera gradual. A finales del año, la empresa comenzará a probar a Neo en varios cientos de hogares voluntarios.
En un futuro no muy lejano, cada hogar tendrá un robot ayudante, según Bernt Børnich, CEO de 1X. Sin embargo, para que los humanoides se integren en la vida cotidiana, deben aprender junto a los humanos.
"El hogar proporciona un contexto del mundo real y la diversidad de datos necesarios para que los humanoides crezcan en inteligencia y autonomía. También les enseña las sutilezas de la vida humana: cómo abrir la puerta a personas mayores, moverse con cuidado alrededor de las mascotas o adaptarse a la imprevisibilidad del mundo que los rodea",explica.
Más sobre el tema:
🤖 ¿Reemplazarán los robots a camareros, bartenders y baristas?
🤖 ¿Por qué necesitamos robots humanoides?
#noticias #robots @hiaimediaes


09.04.202515:51
🤩 Hayao Miyazaki se pronunció en contra de la IA en la animación hace casi 10 años, pero ahora parece que nadie le está escuchando.
El CEO de OpenAI, Sam Altman, comentó por primera vez sobre el revuelo en torno a las imágenes de estilo anime inspiradas en Studio Ghibli y Hayao Miyazaki, creadas mediante el nuevo generador de imágenes de ChatGPT. Al hacerlo, desafió indirectamente la postura del artista sobre el papel de la IA en el futuro del arte.
El propio Miyazaki (ganador de tres premios Oscar) se opone firmemente al uso de tecnologías informáticas en su trabajo. En medio del furor en internet por las imágenes al estilo Ghibli, muchos han recordado cómo el artista denunció la animación con IA en 2016.
Comentando sobre la posición de Miyazaki, Sam Altman explicó que ve la integración de la IA como una evolución en la creación de contenido. Hace treinta años, incluso grabar un video sencillo requería una cámara costosa, cintas y un equipo de edición complejo. Compartir videos también era difícil debido al estado subdesarrollado de internet. Hoy en día, todos tienen un estudio portátil de video —un teléfono inteligente— en su bolsillo.
Altman reconoce el dilema que enfrentan los artistas al tener que adaptarse a la creciente influencia de la IA, pero ve más ventajas que desventajas en este proceso.
"No sé si puedo compartir un número exacto, pero hay muchas más imágenes de las que pensé que internet podría consumir. Cruzaremos el umbral de mil millones de imágenes totales en un futuro no muy lejano", afirmó Altman.
🤩 Mientras tanto, los debates en línea están abordando la legalidad de explotar el estilo Ghibli de esta manera. Sin embargo, en 2023, la Agencia de Asuntos Culturales de Japón aclaró que las obras protegidas por derechos de autor pueden usarse sin permiso para fines de entrenamiento de IA, siempre que el objetivo no sea "disfrutar los pensamientos o emociones expresados en la obra".
Formalmente, las empresas de IA no deberían usar contenido pirateado, y los usuarios finales no deberían reproducir obras originales ni crear productos que "compitan directamente" con ellas utilizando IA. En la práctica, las autoridades admiten que hacer cumplir estas restricciones es un desafío.
¿Qué opinas? ¿Se puede crear arte con la ayuda de la IA?
❤️ — Sí, Altman tiene razón: esto es progreso
🔥 — No, Miyazaki tiene razón: la IA no tiene lugar en el arte
🤔 — La verdad está en algún punto intermedio
#noticias #OpenAI #Ghibli @hiaimediaes
El CEO de OpenAI, Sam Altman, comentó por primera vez sobre el revuelo en torno a las imágenes de estilo anime inspiradas en Studio Ghibli y Hayao Miyazaki, creadas mediante el nuevo generador de imágenes de ChatGPT. Al hacerlo, desafió indirectamente la postura del artista sobre el papel de la IA en el futuro del arte.
El propio Miyazaki (ganador de tres premios Oscar) se opone firmemente al uso de tecnologías informáticas en su trabajo. En medio del furor en internet por las imágenes al estilo Ghibli, muchos han recordado cómo el artista denunció la animación con IA en 2016.
"Jamás desearía incorporar [arte con IA] en mi trabajo. Siento profundamente que esto es un insulto a la vida misma",dijo Miyazaki.
Comentando sobre la posición de Miyazaki, Sam Altman explicó que ve la integración de la IA como una evolución en la creación de contenido. Hace treinta años, incluso grabar un video sencillo requería una cámara costosa, cintas y un equipo de edición complejo. Compartir videos también era difícil debido al estado subdesarrollado de internet. Hoy en día, todos tienen un estudio portátil de video —un teléfono inteligente— en su bolsillo.
Altman reconoce el dilema que enfrentan los artistas al tener que adaptarse a la creciente influencia de la IA, pero ve más ventajas que desventajas en este proceso.
"No sé si puedo compartir un número exacto, pero hay muchas más imágenes de las que pensé que internet podría consumir. Cruzaremos el umbral de mil millones de imágenes totales en un futuro no muy lejano", afirmó Altman.
🤩 Mientras tanto, los debates en línea están abordando la legalidad de explotar el estilo Ghibli de esta manera. Sin embargo, en 2023, la Agencia de Asuntos Culturales de Japón aclaró que las obras protegidas por derechos de autor pueden usarse sin permiso para fines de entrenamiento de IA, siempre que el objetivo no sea "disfrutar los pensamientos o emociones expresados en la obra".
Formalmente, las empresas de IA no deberían usar contenido pirateado, y los usuarios finales no deberían reproducir obras originales ni crear productos que "compitan directamente" con ellas utilizando IA. En la práctica, las autoridades admiten que hacer cumplir estas restricciones es un desafío.
¿Qué opinas? ¿Se puede crear arte con la ayuda de la IA?
❤️ — Sí, Altman tiene razón: esto es progreso
🔥 — No, Miyazaki tiene razón: la IA no tiene lugar en el arte
🤔 — La verdad está en algún punto intermedio
#noticias #OpenAI #Ghibli @hiaimediaes


06.04.202521:05
📣 ¡Hola a todos! Nuestro resumen dominical presenta las noticias de IA más emocionantes de la Semana 14ª, 2025.
▎NUEVOS LANZAMIENTOS
™️ Midjourney V7: Nueva versión del modelo de texto a imagen más estético. Ahora cuenta con un "modo borrador" súper rápido y personalización.
🎬 Higgsfield AI: Nuevo generador de videos de IA para videos cinematográficos.
💻 Meta introdujo Llama 4: Una nueva serie de modelos de código abierto.
▎ACTUALIZACIONES DE BOTS
♊️ Gemini 2.0 Editor de Imágenes en @GPT4Telegrambot. Envía una imagen al bot y describe qué te gustaría cambiar. Gratis para todos los usuarios del bot.
▎PARA LEER
🗣 Nueva función de IA de Krisp "transforma" un acento de inglés indio a uno americano.
🖥 El competidor de Nvidia Etched AI cerró una ronda de inversión de $85M, alcanzando una valoración de $1.5B.
🤩 Científicos han creado un robot del tamaño de una moneda para exploración interna del cuerpo.
🌎 El nuevo modelo de Meta convierte imágenes en mundos 3D completos.
💎 La IA de Google DeepMind ha aprendido a jugar Minecraft de manera completamente independiente.
🛸 Haven-1: El primer proyecto de estación espacial privada por el multimillonario cripto Jed McCaleb.
⚛️ CERN ha revelado planes para un acelerador de partículas de 91 km.
🖥 Anthropic ha descubierto cómo "piensa" la IA.
🧠 Científicos desarrollaron una IA que aprende continuamente mientras realiza tareas, similar al cerebro humano.
▎PARA VER
💻 El programador-blogger ThePrimeagen explica por qué no usa IA en su trabajo y por qué la creatividad es esencial para la programación.
📱 Victor Riparbelli, CEO de Synthesia: ¿Somos la última generación capaz de leer?
#IASemana @hiaimediaes
▎NUEVOS LANZAMIENTOS
™️ Midjourney V7: Nueva versión del modelo de texto a imagen más estético. Ahora cuenta con un "modo borrador" súper rápido y personalización.
🎬 Higgsfield AI: Nuevo generador de videos de IA para videos cinematográficos.
💻 Meta introdujo Llama 4: Una nueva serie de modelos de código abierto.
▎ACTUALIZACIONES DE BOTS
♊️ Gemini 2.0 Editor de Imágenes en @GPT4Telegrambot. Envía una imagen al bot y describe qué te gustaría cambiar. Gratis para todos los usuarios del bot.
▎PARA LEER
🗣 Nueva función de IA de Krisp "transforma" un acento de inglés indio a uno americano.
🖥 El competidor de Nvidia Etched AI cerró una ronda de inversión de $85M, alcanzando una valoración de $1.5B.
❤️ Nuestro equipo también ha invertido en Etched a través de DVC.
🤩 Científicos han creado un robot del tamaño de una moneda para exploración interna del cuerpo.
🌎 El nuevo modelo de Meta convierte imágenes en mundos 3D completos.
💎 La IA de Google DeepMind ha aprendido a jugar Minecraft de manera completamente independiente.
🛸 Haven-1: El primer proyecto de estación espacial privada por el multimillonario cripto Jed McCaleb.
⚛️ CERN ha revelado planes para un acelerador de partículas de 91 km.
🖥 Anthropic ha descubierto cómo "piensa" la IA.
🧠 Científicos desarrollaron una IA que aprende continuamente mientras realiza tareas, similar al cerebro humano.
▎PARA VER
💻 El programador-blogger ThePrimeagen explica por qué no usa IA en su trabajo y por qué la creatividad es esencial para la programación.
📱 Victor Riparbelli, CEO de Synthesia: ¿Somos la última generación capaz de leer?
#IASemana @hiaimediaes
03.04.202515:27
🎬 Higgsfield AI: nuevo generador de videos con IA impresiona a los creadores de 'The Matrix' y enfurece a los cinéfilos
El nuevo generador de videos impulsado por inteligencia artificial, Higgsfield AI, ya está disponible para todos los usuarios. Alex Mashrabov, CEO y cofundador de la compañía, fundó previamente AI Factory en 2018, que Snapchat adquirió un año después por $166 millones.
En Snap, Mashrabov continuó desarrollando GenAI, y en 2023 comenzó a trabajar en este nuevo proyecto. "Estamos llevando el lenguaje cinematográfico de la cámara al video generado por IA, fusionando el cine tradicional con la innovación de la inteligencia artificial", explica Mashrabov.
La compañía ya ha recaudado $8 millones en financiamiento, con inversores como Menlo Ventures, Charge Ventures, DVC y otros fondos de capital de riesgo.
Características clave:
🎥 Genera videos de hasta 5 segundos de duración. La imagen inicial puede crearse a partir de un texto descriptivo, y la IA mejora automáticamente el resultado.
🎥 Control avanzado de cámara: seguimiento preciso de objetos, tomas en movimiento, planos de seguimiento y grabaciones en cámara lenta, además de docenas de otras técnicas y efectos integrados.
🎥 Física realista, iluminación avanzada y expresiones faciales humanas y movimientos de personajes altamente creíbles.
Prueba el servicio aquí. Los límites gratuitos permiten crear dos videos y diez imágenes.
🎞 ¿Es la IA el futuro del cine?
Por su calidad y estilo innovadores, Higgsfield ha recibido elogios de varias figuras destacadas de la industria cinematográfica. La startup fue alabada por John Gaeta, ganador del Oscar por efectos visuales en la icónica película The Matrix. "No hay límites para el futuro de la cinematografía virtual", dice Gaeta. "Esto nos acerca a tener una 'visión divina': control creativo total sobre la cámara y la escena".
Sin embargo, no todos son tan optimistas respecto al impacto de la IA en el cine. El bloguero Angry Tom publicó escenas reimaginadas de las películas de Andrei Tarkovsky en X, creadas utilizando las herramientas de Higgsfield, llamándolo "una nueva conversación con la historia del cine" ⤴️
No obstante, este tratamiento de películas clásicas desató una ola de críticas. En los comentarios, muchos señalaron que, aunque los resultados son técnicamente impresionantes, las películas existentes no necesitan nuevas tecnologías. "Si Tarkovsky hubiera querido mover la cámara... habría movido la cámara", bromeó un usuario.
¿Qué opinas? ¿Puede la IA mejorar las películas antiguas?
❤️ — sí, ese es el propósito de la tecnología
🔥 — no toquen los clásicos
#noticias #startup @hiaimediaes
El nuevo generador de videos impulsado por inteligencia artificial, Higgsfield AI, ya está disponible para todos los usuarios. Alex Mashrabov, CEO y cofundador de la compañía, fundó previamente AI Factory en 2018, que Snapchat adquirió un año después por $166 millones.
En Snap, Mashrabov continuó desarrollando GenAI, y en 2023 comenzó a trabajar en este nuevo proyecto. "Estamos llevando el lenguaje cinematográfico de la cámara al video generado por IA, fusionando el cine tradicional con la innovación de la inteligencia artificial", explica Mashrabov.
La compañía ya ha recaudado $8 millones en financiamiento, con inversores como Menlo Ventures, Charge Ventures, DVC y otros fondos de capital de riesgo.
❤️ Nuestro equipo también ha invertido en Higgsfield a través de DVC.
Características clave:
🎥 Genera videos de hasta 5 segundos de duración. La imagen inicial puede crearse a partir de un texto descriptivo, y la IA mejora automáticamente el resultado.
🎥 Control avanzado de cámara: seguimiento preciso de objetos, tomas en movimiento, planos de seguimiento y grabaciones en cámara lenta, además de docenas de otras técnicas y efectos integrados.
🎥 Física realista, iluminación avanzada y expresiones faciales humanas y movimientos de personajes altamente creíbles.
Prueba el servicio aquí. Los límites gratuitos permiten crear dos videos y diez imágenes.
🎞 ¿Es la IA el futuro del cine?
Por su calidad y estilo innovadores, Higgsfield ha recibido elogios de varias figuras destacadas de la industria cinematográfica. La startup fue alabada por John Gaeta, ganador del Oscar por efectos visuales en la icónica película The Matrix. "No hay límites para el futuro de la cinematografía virtual", dice Gaeta. "Esto nos acerca a tener una 'visión divina': control creativo total sobre la cámara y la escena".
Sin embargo, no todos son tan optimistas respecto al impacto de la IA en el cine. El bloguero Angry Tom publicó escenas reimaginadas de las películas de Andrei Tarkovsky en X, creadas utilizando las herramientas de Higgsfield, llamándolo "una nueva conversación con la historia del cine" ⤴️
No obstante, este tratamiento de películas clásicas desató una ola de críticas. En los comentarios, muchos señalaron que, aunque los resultados son técnicamente impresionantes, las películas existentes no necesitan nuevas tecnologías. "Si Tarkovsky hubiera querido mover la cámara... habría movido la cámara", bromeó un usuario.
¿Qué opinas? ¿Puede la IA mejorar las películas antiguas?
❤️ — sí, ese es el propósito de la tecnología
🔥 — no toquen los clásicos
#noticias #startup @hiaimediaes
Показано 1 - 24 из 30
Войдите, чтобы разблокировать больше функциональности.