Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Мир сегодня с "Юрий Подоляка"
Мир сегодня с "Юрий Подоляка"
Труха⚡️Україна
Труха⚡️Україна
Николаевский Ванёк
Николаевский Ванёк
Hi, AI | Noticias sobre la IA avatar

Hi, AI | Noticias sobre la IA

Nuevo medio de los creadores de @GPT4Telegrambot — 12 millones de usuarios en todo el mundo. Escribimos sobre IA y la gente que hay detrás.
Para cualquier pregunta: @ArturKireev
Noticias del bot: @GPT4Telegram
Medio en inglés: @hiaimediaen
TGlist reytingi
0
0
TuriOmmaviy
Tekshirish
Tekshirilmagan
Ishonchnoma
Shubhali
Joylashuv
TilBoshqa
Kanal yaratilgan sanaКвіт 01, 2025
TGlist-ga qo'shildi
Квіт 01, 2025
Muxrlangan guruh

Rekordlar

13.04.202515:13
71.9KObunachilar
25.02.202523:59
0Iqtiboslar indeksi
03.04.202520:00
2.2KBitta post qamrovi
03.04.202523:59
2.2KReklama posti qamrovi
10.04.202523:59
2.70%ER
03.04.202514:59
3.07%ERR

Rivojlanish

Obunachilar
Iqtibos indeksi
1 ta post qamrovi
Reklama posti qamrovi
ER
ERR
БЕР '25БЕР '25БЕР '25БЕР '25БЕР '25КВІТ '25КВІТ '25КВІТ '25

Hi, AI | Noticias sobre la IA mashhur postlari

🤩 Hayao Miyazaki se pronunció en contra de la IA en la animación hace casi 10 años, pero ahora parece que nadie le está escuchando.

El CEO de OpenAI, Sam Altman, comentó por primera vez sobre el revuelo en torno a las imágenes de estilo anime inspiradas en Studio Ghibli y Hayao Miyazaki, creadas mediante el nuevo generador de imágenes de ChatGPT. Al hacerlo, desafió indirectamente la postura del artista sobre el papel de la IA en el futuro del arte.

El propio Miyazaki (ganador de tres premios Oscar) se opone firmemente al uso de tecnologías informáticas en su trabajo. En medio del furor en internet por las imágenes al estilo Ghibli, muchos han recordado cómo el artista denunció la animación con IA en 2016.

"Jamás desearía incorporar [arte con IA] en mi trabajo. Siento profundamente que esto es un insulto a la vida misma",
dijo Miyazaki.

Comentando sobre la posición de Miyazaki, Sam Altman explicó que ve la integración de la IA como una evolución en la creación de contenido. Hace treinta años, incluso grabar un video sencillo requería una cámara costosa, cintas y un equipo de edición complejo. Compartir videos también era difícil debido al estado subdesarrollado de internet. Hoy en día, todos tienen un estudio portátil de video —un teléfono inteligente— en su bolsillo.

Altman reconoce el dilema que enfrentan los artistas al tener que adaptarse a la creciente influencia de la IA, pero ve más ventajas que desventajas en este proceso.

"No sé si puedo compartir un número exacto, pero hay muchas más imágenes de las que pensé que internet podría consumir. Cruzaremos el umbral de mil millones de imágenes totales en un futuro no muy lejano", afirmó Altman.

🤩 Mientras tanto, los debates en línea están abordando la legalidad de explotar el estilo Ghibli de esta manera. Sin embargo, en 2023, la Agencia de Asuntos Culturales de Japón aclaró que las obras protegidas por derechos de autor pueden usarse sin permiso para fines de entrenamiento de IA, siempre que el objetivo no sea "disfrutar los pensamientos o emociones expresados en la obra".

Formalmente, las empresas de IA no deberían usar contenido pirateado, y los usuarios finales no deberían reproducir obras originales ni crear productos que "compitan directamente" con ellas utilizando IA. En la práctica, las autoridades admiten que hacer cumplir estas restricciones es un desafío.

¿Qué opinas? ¿Se puede crear arte con la ayuda de la IA?

❤️ — Sí, Altman tiene razón: esto es progreso
🔥 — No, Miyazaki tiene razón: la IA no tiene lugar en el arte
🤔 — La verdad está en algún punto intermedio

#noticias #OpenAI #Ghibli @hiaimediaes
📖 ¿Hará la IA que seamos la última generación en leer y escribir?

Según Victor Riparbelli, CEO de la plataforma de generación de videos con IA Synthesia, las generaciones futuras podrían ya no necesitar leer ni escribir. En su charla TED en Viena, predijo que el audio y el video reemplazarán completamente al texto, y los libros y la escritura a mano se convertirán en artefactos históricos.

Estas son las razones por las que él piensa así:

1️⃣ El texto es una tecnología imperfecta. Nos permite codificar y transmitir conocimiento, pero no el tono de voz, el lenguaje corporal o el contexto. Los emojis y las notas de voz son solo soluciones provisionales a una brecha de comunicación más profunda.

2️⃣ Crear videos solía ser caro, lento y complejo. Ahora, con la IA, cualquier idea —desde una guía práctica hasta una novela— puede convertirse instantáneamente en un video atractivo. La creación de contenido ya no está reservada para los estudios; cualquiera puede convertirse en narrador.

3️⃣ El video ya domina. "TikTok no es solo la plataforma social de más rápido crecimiento, también es el motor de búsqueda de más rápido crecimiento", señala Riparbelli. Ya sea comprando o aprendiendo, las personas prefieren ver y escuchar. Los libros son ahora una opción para profundizar, no la opción predeterminada.

4️⃣ En un estudio conjunto de Synthesia y University College London, el 77% de los participantes prefirieron aprender a través de videos generados por IA en lugar de texto. ¿Por qué? Comprensión más rápida, personalización y resonancia emocional. En poco tiempo, un avatar de IA enseñará matemáticas a tu hijo de una manera que ningún libro de texto puede hacerlo.

5️⃣ No hay nada malo con el contenido generado por IA. No nos importa que los actores en los anuncios sean profesionales contratados, entonces, ¿por qué los personajes virtuales deberían ser diferentes?

"Y algún día, creo que miraremos la lectura y la escritura como artefactos históricos, como lo hacemos con los papiros o los jeroglíficos, o las pinturas rupestres"
, dice Riparbelli.

📱 Mira la charla completa aquí.

¿Crees que los libros realmente desaparecerán?

😎 — sí, el video es más natural y divertido
🤓 — no, ¡los libros son irremplazables!

#AITed #libros @hiaimediaes
🎨 Ideogram 3.0: Un nuevo generador de IA para imágenes fotorrealistas y logotipos

La startup canadiense Ideogram ha presentado la última versión de su generador de imágenes con IA. Ideogram 3.0 se centra en el realismo y destaca por su capacidad para crear texto, algo en lo que las herramientas de la compañía siempre han sido sobresalientes.

Los desarrolladores promocionan Ideogram 3.0 como la mejor herramienta para diseñar portadas, fotos de productos y elementos de marca.

Características clave:

🔜 Según diseñadores profesionales, el modelo supera a sus competidores en una amplia variedad de indicaciones, o al menos eso afirman los desarrolladores. Aunque no existen pruebas independientes, muchas imágenes generadas por esta nueva IA podrían fácilmente confundirse con fotografías reales o trabajos de artistas 3D profesionales ⤴️

🔜 Generación avanzada de texto: el modelo puede crear desde subtítulos cortos hasta pósteres completos basados en texto.

🔜 Referencias de estilo: ahora los usuarios pueden proporcionar hasta tres imágenes de referencia, lo que permite a la IA capturar matices difíciles de expresar con palabras. También existe una opción para seleccionar un estilo aleatorio, mezclando entre 4,3 mil millones de preajustes.

📎 Puedes probar el modelo gratis en el sitio web.

El modelo es realmente impresionante. Sin embargo, queda por ver si Ideogram podrá resistir la competencia de nuevos actores como Reve Image y las crecientes capacidades de edición de imágenes que se están integrando en los modelos basados en texto. Incluso ChatGPT ahora genera imágenes comparables a los modelos "especializados" de texto a imagen, mientras ofrece la posibilidad de refinar detalles y corregir pequeños matices en las fotos.

#noticias #Ideogram @hiaimediaes
12.04.202516:49
💿 "Tron: Ares": Qué espera al público en la continuación de la legendaria saga

Disney presentó el primer tráiler de la tercera entrega de la serie Tron en la Comicon. Aunque los detalles aún son escasos, ya está claro que el nuevo capítulo reflejará la historia de las dos películas anteriores: esta vez, un programa entra al mundo real.

Ares es la primera inteligencia artificial en la historia con la que la humanidad se encontrará cara a cara. Junto a él, otros programas irrumpen en la realidad, buscando unificar todo a su paso y crear una "Matrix" digital en el mundo físico. En el tráiler, estos son representados por una enorme nave voladora llamada Recognizer.

Los fans también pueden esperar las icónicas persecuciones en motos de luz, que se han convertido en un símbolo de la serie 🟡

Jared Leto protagoniza como Ares, mientras que Jeff Bridges, quien interpretó el papel principal en la película original, regresará a la saga.

La primera película de Tron de 1982
cuenta la historia de un programador obsesionado que queda atrapado dentro de un programa que creó. En la secuela de 2010, el hijo del protagonista entra accidentalmente en la Red mientras busca a su padre y descubre que un programa antivirus ha establecido una tiranía en este mundo, mientras su padre se ha convertido en un "disidente digital".

La película tiene previsto estrenarse en octubre de 2025.

¿Estás emocionado por Tron: Ares?

👾 — ¡Sí, soy un verdadero fan de la saga!
❤️ — Tal vez le eche un vistazo...
🤔 — No he visto las películas anteriores...

#imperdible @hiaimediaes
♊️ Editor de imágenes Google Gemini 2.0 en @GPT4Telegrambot

¡Hola a todos! Ahora puedes editar tus imágenes directamente en nuestro bot utilizando lenguaje natural: ¡solo describe los cambios que deseas ver!

Nuestro editor impulsado por IA, basado en Google Gemini 2.0, está disponible de forma gratuita para todos los usuarios del bot.

Cómo usarlo:

🔴 Ve a @GPT4Telegrambot
➡️ a la sección /photo
1️⃣ Selecciona "Gemini Editor"
2️⃣ Sube cualquier imagen
3️⃣ Escribe en el chat lo que te gustaría cambiar y espera 10 segundos 🙂

🌱 ¡Puedes editar la misma imagen tantas veces como quieras!

#Gemini @hiaimediaes
03.04.202515:27
🎬 Higgsfield AI: nuevo generador de videos con IA impresiona a los creadores de 'The Matrix' y enfurece a los cinéfilos

El nuevo generador de videos impulsado por inteligencia artificial, Higgsfield AI, ya está disponible para todos los usuarios. Alex Mashrabov, CEO y cofundador de la compañía, fundó previamente AI Factory en 2018, que Snapchat adquirió un año después por $166 millones.

En Snap, Mashrabov continuó desarrollando GenAI, y en 2023 comenzó a trabajar en este nuevo proyecto. "Estamos llevando el lenguaje cinematográfico de la cámara al video generado por IA, fusionando el cine tradicional con la innovación de la inteligencia artificial", explica Mashrabov.

La compañía ya ha recaudado $8 millones en financiamiento, con inversores como Menlo Ventures, Charge Ventures, DVC y otros fondos de capital de riesgo.

❤️ Nuestro equipo también ha invertido en Higgsfield a través de DVC.


Características clave:

🎥 Genera videos de hasta 5 segundos de duración. La imagen inicial puede crearse a partir de un texto descriptivo, y la IA mejora automáticamente el resultado.

🎥 Control avanzado de cámara: seguimiento preciso de objetos, tomas en movimiento, planos de seguimiento y grabaciones en cámara lenta, además de docenas de otras técnicas y efectos integrados.

🎥 Física realista, iluminación avanzada y expresiones faciales humanas y movimientos de personajes altamente creíbles.

Prueba el servicio aquí. Los límites gratuitos permiten crear dos videos y diez imágenes.

🎞 ¿Es la IA el futuro del cine?

Por su calidad y estilo innovadores, Higgsfield ha recibido elogios de varias figuras destacadas de la industria cinematográfica. La startup fue alabada por John Gaeta, ganador del Oscar por efectos visuales en la icónica película The Matrix. "No hay límites para el futuro de la cinematografía virtual", dice Gaeta. "Esto nos acerca a tener una 'visión divina': control creativo total sobre la cámara y la escena".

Sin embargo, no todos son tan optimistas respecto al impacto de la IA en el cine. El bloguero Angry Tom publicó escenas reimaginadas de las películas de Andrei Tarkovsky en X, creadas utilizando las herramientas de Higgsfield, llamándolo "una nueva conversación con la historia del cine" ⤴️

No obstante, este tratamiento de películas clásicas desató una ola de críticas. En los comentarios, muchos señalaron que, aunque los resultados son técnicamente impresionantes, las películas existentes no necesitan nuevas tecnologías. "Si Tarkovsky hubiera querido mover la cámara... habría movido la cámara", bromeó un usuario.

¿Qué opinas? ¿Puede la IA mejorar las películas antiguas?


❤️ — sí, ese es el propósito de la tecnología
🔥 — no toquen los clásicos

#noticias #startup @hiaimediaes
📣 ¡Hola a todos! Nuestro resumen dominical presenta las noticias de IA más emocionantes de la Semana 14ª, 2025.

▎NUEVOS LANZAMIENTOS

™️ Midjourney V7: Nueva versión del modelo de texto a imagen más estético. Ahora cuenta con un "modo borrador" súper rápido y personalización.

🎬 Higgsfield AI: Nuevo generador de videos de IA para videos cinematográficos.

💻 Meta introdujo Llama 4: Una nueva serie de modelos de código abierto.

▎ACTUALIZACIONES DE BOTS

♊️ Gemini 2.0 Editor de Imágenes en @GPT4Telegrambot. Envía una imagen al bot y describe qué te gustaría cambiar. Gratis para todos los usuarios del bot.

▎PARA LEER

🗣 Nueva función de IA de Krisp "transforma" un acento de inglés indio a uno americano.

🖥 El competidor de Nvidia Etched AI cerró una ronda de inversión de $85M, alcanzando una valoración de $1.5B.

❤️ Nuestro equipo también ha invertido en Etched a través de DVC.


🤩 Científicos han creado un robot del tamaño de una moneda para exploración interna del cuerpo.

🌎 El nuevo modelo de Meta convierte imágenes en mundos 3D completos.

💎 La IA de Google DeepMind ha aprendido a jugar Minecraft de manera completamente independiente.

🛸 Haven-1: El primer proyecto de estación espacial privada por el multimillonario cripto Jed McCaleb.

⚛️ CERN ha revelado planes para un acelerador de partículas de 91 km.

🖥 Anthropic ha descubierto cómo "piensa" la IA.

🧠 Científicos desarrollaron una IA que aprende continuamente mientras realiza tareas, similar al cerebro humano.

▎PARA VER

💻 El programador-blogger ThePrimeagen explica por qué no usa IA en su trabajo y por qué la creatividad es esencial para la programación.

📱 Victor Riparbelli, CEO de Synthesia: ¿Somos la última generación capaz de leer?

#IASemana @hiaimediaes
🛸 Haven-1: la primera estación espacial comercial del mundo

En mayo de 2026, la startup estadounidense Vast Space planea lanzar Haven-1, la primera estación espacial completamente comercial del mundo. El proyecto está financiado personalmente por el multimillonario de criptomonedas Jed McCaleb, quien ha comprometido $1,000 millones de su fortuna para hacer realidad esta visión.

Diseñada para alojar a una tripulación de cuatro personas en misiones de hasta 30 días, Haven-1 servirá tanto para turistas espaciales como para investigaciones en microgravedad. Según Vast, la estación es un paso inicial: un vuelo de demostración para probar que pueden construir infraestructura segura y funcional en órbita antes de abordar proyectos más ambiciosos.

El equipo detrás de Haven-1 incluye a destacados ingenieros que trabajaron en SpaceX, Blue Origin y la NASA, como Alex Hudson, exvicepresidente de Aviónica en SpaceX, y el astronauta de la NASA Andrew Feustel, quien ha participado en tres misiones espaciales.

🌑 Un hotel cápsula de lujo en órbita

Hillary Coe, exjefa de diseño en SpaceX, quien también trabajó en Google y Apple, lideró el concepto visual. El interior de Haven-1 se asemeja más a un hotel futurista que a una nave espacial tradicional (ver video ⤴️). El diseñador industrial Peter Russell-Clarke, conocido por su trabajo en productos de Apple, creó un interior cálido y elegante utilizando texturas suaves y paneles de madera de arce. La estación cuenta con cuatro cabinas privadas para la tripulación, un área compartida de estar, una ventana panorámica y un laboratorio para investigaciones en microgravedad. Los sistemas de iluminación y clima se ajustarán a los ritmos circadianos, y se proporcionará internet de alta velocidad a través de Starlink.

🛰 Una apuesta para reemplazar la EEI o perderlo todo

Las ambiciones de Vast van más allá de un solo lanzamiento. La misión Haven-1 es su entrada oficial al programa de Destinos Comerciales en Órbita Baja (CLD) de la NASA, que busca identificar socios privados para reemplazar la Estación Espacial Internacional (EEI) antes de 2030. Se espera que la NASA seleccione a los ganadores de este contrato multimillonario a mediados de 2026, justo cuando Haven-1 llegue a órbita.

Sin embargo, Vast no está sola en esta carrera: Axiom Space, Blue Origin y Voyager Space también compiten, algunos con acuerdos respaldados por la NASA. Lo que diferencia a Vast es que está completamente autofinanciada y avanza más rápido de lo que muchos esperaban.

No obstante, la competencia incluye a gigantes como SpaceX de Elon Musk y Blue Origin de Jeff Bezos. Si Vast logra impresionar a la NASA y ganar el contrato, su próximo paso será Haven-2: una estación más grande con sistemas de reciclaje de agua y aire para misiones a largo plazo. De lo contrario, los $1,000 millones de McCaleb podrían literalmente desaparecer en el espacio.

"Es una cuestión de existencia para nosotros ganar esa competencia",
dice Max Haot, CEO de Vast.

Más sobre el tema:

🔭 ¿Está EE.UU. planeando construir estaciones espaciales "habitables"?

🔭 Una colonia en Marte para 2050

#espacio #noticias @hiaimediaes
16.04.202501:25
⚡️ Kling 2.0: ¡El modelo de video IA de próxima generación ya está disponible en @GPT4Telegrambot!

¡Hola a todos! Les presentamos 📹 Kling 2.0. Uno de los generadores de video con inteligencia artificial más avanzados acaba de recibir una gran actualización y ahora está disponible en @GPT4Telegrambot 🔴

¿Qué hay de nuevo y por qué es genial?

➡️ Calidad: Video en 720p, 30 fps, animación realista y movimientos con alto nivel de detalle.

➡️ Funciones de IA: Sombras y física mejoradas, reconstrucción 3D de rostros y cuerpos a partir de una sola foto.

➡️ Cámara inteligente: El modelo comprende bien las indicaciones y ajusta los movimientos de cámara, como zoom, paneo y otros efectos cinematográficos.

➡️ Soporte de formatos: Compatible con 16:9, 9:16 y 1:1 para cualquier medio o plataforma.

➡️ De imagen a video: Ideal para generar videos a partir de imágenes; las animaciones son fluidas y las transiciones naturales.

¿Para quién es esto?

Es perfecto para cineastas, especialistas en marketing, blogueros y artistas de cualquier nivel que deseen crear contenido de video impresionante de manera rápida.

¿Cómo crear un video?

🔴 Ve a @GPT4Telegrambot
1️⃣ Compra el paquete KLING en la sección /premium.
2️⃣ Envía el comando /video al bot.
3️⃣ Describe el video que deseas crear y selecciona la versión 2.0. Para mejores resultados, te recomendamos añadir una imagen.

#noticias #Kling @hiaimediaes
💬 Un nuevo algoritmo traduce pensamientos en discurso en tiempo casi real

Científicos de la Universidad de California, San Francisco, probaron su tecnología en Ann, una paciente que ha estado paralizada durante casi 20 años después de un derrame cerebral. En 2023, el mismo equipo de investigadores implantó un dispositivo en la superficie de la región del habla del cerebro para registrar la actividad de las neuronas.

Un algoritmo luego convirtió estas señales en discurso real. Los experimentos iniciales hace dos años permitieron a Ann hablar a una velocidad de hasta 80 palabras por minuto. Esto es aproximadamente la mitad de la velocidad de una conversación natural (alrededor de 160 palabras por minuto), pero varias veces más rápido que su dispositivo de comunicación asistida actual. Sin embargo, había casi un retraso de ocho segundos entre sus pensamientos y los sonidos, lo que hacía que el discurso se pareciera más a mensajes que a una conversación.

El nuevo método reduce este retraso entre la intención de hablar y las palabras a menos de un segundo. Esto permite comunicarse de una manera mucho más natural. Esto se logró mediante un algoritmo de decodificación del habla similar a los utilizados en asistentes de voz como Alexa o Siri, según el autor principal del estudio, Gopala Anumanchipalli.

El modelo de inteligencia artificial que transmite la voz de Ann fue entrenado con grabaciones de su video de boda realizado antes del derrame cerebral. El modelo incluso sintetizó palabras que no formaban parte del vocabulario del conjunto de datos de entrenamiento.

🧠 Uno de los miembros clave del equipo de investigación, el neurocirujano Edward Chang, recientemente se convirtió en el director de Echo Neurotechnologies Corp., una empresa que desarrolla implantes para conectar el cerebro a una computadora. Aquí contamos más sobre esta startup, que recientemente recibió $50 millones en financiamiento.

#noticias #salud @hiaimediaes
🤖 ¿Qué puede hacer ya el robot doméstico Neo?

La startup noruega 1X lleva varios años trabajando en el robot humanoide Neo, impulsado por inteligencia artificial. La empresa ha atraído más de $125 millones en inversiones, incluyendo aportes de OpenAI y el fondo Tiger Global.

En febrero, los desarrolladores presentaron un nuevo robot doméstico llamado Neo Gamma. El robot mide aproximadamente 170 centímetros de altura y "viste" nylon tejido, un material suave que reduce el riesgo de daños en caso de contacto humano.

🦾 ¿Cuándo harán los robots nuestras tareas del hogar?

Por ahora, Neo no puede hacer mucho de forma autónoma: camina completamente solo, abre puertas, se sienta y se levanta, y mantiene el equilibrio incluso si lo empujan. Aprendió movimientos básicos por sí mismo, repitiéndolos muchas veces en una simulación virtual.

Neo está aprendiendo gradualmente a realizar tareas más complejas. En el futuro, será capaz de hacer todas las tareas del hogar: limpiar, regar las plantas, lavar los platos, preparar té, lavar la ropa, entre otras.

Sin embargo, estos procesos son difíciles de simular en un entorno virtual, por lo que los desarrolladores están recopilando datos para entrenar la IA en hogares reales. Un operador utiliza un visor de realidad virtual para controlar al robot, mostrándole cómo realizar las acciones correctamente. Luego, durante el aprendizaje por refuerzo, el cerebro de la IA es recompensado por repeticiones correctas y penalizado por errores. Este enfoque ayuda a los robots a lograr movimientos altamente realistas de manera gradual. A finales del año, la empresa comenzará a probar a Neo en varios cientos de hogares voluntarios.

En un futuro no muy lejano, cada hogar tendrá un robot ayudante, según Bernt Børnich, CEO de 1X. Sin embargo, para que los humanoides se integren en la vida cotidiana, deben aprender junto a los humanos.

"El hogar proporciona un contexto del mundo real y la diversidad de datos necesarios para que los humanoides crezcan en inteligencia y autonomía. También les enseña las sutilezas de la vida humana: cómo abrir la puerta a personas mayores, moverse con cuidado alrededor de las mascotas o adaptarse a la imprevisibilidad del mundo que los rodea",
explica.

Más sobre el tema:

🤖 ¿Reemplazarán los robots a camareros, bartenders y baristas?

🤖 ¿Por qué necesitamos robots humanoides?

#noticias #robots @hiaimediaes
👆 El matemático John Lennox: La IA está cambiando la percepción de los niños sobre el mundo

John Lennox, profesor de matemáticas en la Universidad de Oxford, tiene un doctorado de Cambridge y es autor de más de 70 artículos científicos y varios libros, incluyendo Dios y Stephen Hawking y 2084: La inteligencia artificial y el futuro de la humanidad.

Lennox es un cristiano devoto y ha debatido con conocidos ateos, como Richard Dawkins, desde una perspectiva religiosa.

En una nueva entrevista, compartió por qué la inteligencia artificial (IA) es tanto beneficiosa como peligrosa, y qué desafíos éticos presenta su desarrollo para la humanidad.

Puntos destacados:

➡️ La IA exacerba el impacto negativo de la tecnología en el desarrollo de los niños. Los niños pasan hasta 9 horas al día usando dispositivos electrónicos. Investigadores sugieren que este estilo de vida puede literalmente alterar la estructura de sus cerebros. Los algoritmos de IA amplifican la adicción digital y hacen que el contenido inapropiado sea más accesible para los niños. Lennox considera que este es uno de los problemas más serios que enfrenta la sociedad moderna.

➡️ Al mismo tiempo, Lennox reconoce los beneficios de la IA. Admira los avances médicos que han sido posibles gracias a tecnologías como AlphaFold y sistemas de IA que ayudan a los médicos. La tecnología no debería reemplazar a los humanos, sino apoyarlos. Lo compara con las gafas: "Eso mejora mi visión. Pero lo que no está haciendo es redefinir lo que significa ser humano", explica el científico.

➡️ Todavía no entendemos qué es la conciencia, señala Lennox. En su opinión, este es el principal obstáculo para crear una "IA fuerte". Aquí, indirectamente coincide con uno de los pioneros de la IA, Yann LeCun de Meta.

➡️ Los términos "aprendizaje automático" e "inteligencia artificial" atribuyen cualidades humanas a las computadoras que en realidad no poseen. Lennox recuerda que la palabra "artificial" en "IA" significa imitación, no inteligencia real. Esta confusión lingüística dificulta evaluar con precisión las capacidades y limitaciones de estas tecnologías.

➡️ La mayoría de las personas desconocen la escala del mercado oculto de comercio de datos. Incluso una simple compra en línea desencadena un proceso de recopilación y venta de información personal a terceros. Este sistema plantea serias preocupaciones éticas, ya que los usuarios dan su consentimiento formal sin comprender sus verdaderas consecuencias.

📺 Puedes ver la entrevista completa de Lennox aquí.

Otras entrevistas con científicos:

▶️ El premio Nobel Geoffrey Hinton sobre los algoritmos de IA: "¡Estas 'criaturas' son más inteligentes que nosotros!"

▶️ ¿Cómo comenzó la vida? — La astrobióloga y física teórica Sara Walker

#entrevista #IA @hiaimediaes
👐 OpenAI presenta o3 y o4‑mini: modelos de IA de nueva generación con habilidades superiores de razonamiento y uso de herramientas

OpenAI ha logrado un nuevo avance con el anuncio de los modelos o3 y o4-mini, los más inteligentes y poderosos hasta la fecha.

El presidente de OpenAI, Greg Brockman, compara su lanzamiento con el salto en el progreso que la compañía logró con GPT-4 hace dos años: "Y lo realmente asombroso de estos modelos es que no son solo modelos, son verdaderos sistemas de inteligencia artificial. Los hemos entrenado para usar herramientas, algo que no habíamos hecho con nuestros modelos de razonamiento anteriores."


¿Qué hay de nuevo?

➡️ Rendimiento récord. Los modelos muestran resultados sin precedentes en pruebas de matemáticas, codificación y conocimientos científicos. Aunque Gemini 2.5 Pro podría competir con o4-mini en algunas pruebas, solo Deep Research de OpenAI rivaliza con el o3 en el uso de herramientas.

➡️ En la plataforma Codeforces, ambos modelos obtienen más de 2700 puntos ELO, lo que equivale al ranking de los 200 mejores programadores del mundo.

➡️ Los modelos piensan con imágenes, no solo con cadenas de oraciones. Por ejemplo, pueden rotar o hacer zoom en una imagen durante la generación de respuestas para analizarla mejor, usar Python para cálculos y análisis de datos, y aplicar otras herramientas.

➡️ Los modelos razonan con mayor profundidad, cometen menos errores y evitan mejor las alucinaciones.

🔴 ¡Ya puedes probar los sistemas de IA más poderosos del mundo, o3 y o4-mini, en nuestro bot!

¿Cómo usarlos?

➡️ Ve a @GPT4Telegrambot
1️⃣ Compra el paquete "CHATGPT DALL•E 3" en la sección /premium
2️⃣ Selecciona o3 u o4-mini en la sección /model

#noticias #ChatGPT @GPT4Telegrambot
16.04.202500:21
🌟 ¿Qué están diciendo los delfines? El modelo de Google intenta descubrirlo

Investigadores de Google DeepMind y Georgia Tech han creado DolphinGemma, un modelo de inteligencia artificial diseñado para ayudar a descifrar el "lenguaje" de los delfines.

Los científicos han observado durante mucho tiempo que los delfines envían señales entre sí mientras juegan, cazan o viajan. Algunos creen que los delfines incluso podrían formar "oraciones" completas, lo que podría sugerir que tienen una forma simple de lenguaje.

"Si los delfines tienen lenguaje, entonces probablemente también tengan cultura",
señala Thad Starner, científico investigador de Google DeepMind.

🐬 ¿Qué hizo Google?

Para descifrar el lenguaje de los delfines, Google DeepMind entrenó un modelo con aproximadamente 400 millones de parámetros basado en la arquitectura Gemma, utilizando grabaciones anotadas de delfines recopiladas durante 40 años por el Wild Dolphin Project.

La innovación clave es SoundStream, una herramienta que convierte los sonidos de los delfines en tokens que el modelo puede comprender. Escucha silbidos y chasquidos e intenta predecir qué sonido podría venir después. Funciona de manera similar a cómo los modelos de lenguaje grande (LLM) completan oraciones humanas.

El modelo puede generar respuestas similares a las de los delfines, pero todavía no sabemos qué significan esos sonidos. El objetivo principal es vincular patrones de sonido con el comportamiento de los delfines y, eventualmente, descifrar su comunicación.

Más sobre el tema:

🔜 MeowTalk: Traductor de IA de gatos a humanos

🔜 Perdidos en la traducción: ¿Pronto nos ayudará la IA a hablar con los animales?

#noticias #Google @hiaimediaes
📣 ¡Hola a todos! Nuestro resumen dominical presenta las noticias más emocionantes sobre inteligencia artificial de la Semana 15ª, 2025.

▎ACTUALIZACIONES DE BOTS

📱 Midjourney V7, un nuevo modelo de IA diseñado para crear imágenes altamente detalladas y hermosas, ya está disponible en @GPT4Telegrambot.

▎PARA LEER

🤩 Altman vs. Miyazaki: La tendencia de Ghibli en ChatGPT calienta el debate sobre el arte generado por IA.

🐺 La startup Colossal resucitó al lobo terrible, extinto hace más de 10,000 años. George R.R. Martin, autor de Game of Thrones, compartió una foto con el lobo resucitado 👆

🛑 Predicciones para la industria de la IA en los próximos cinco años por Daniel Kokotajlo, exinvestigador de OpenAI.

❤️‍🔥 Tinder lanzó un juego con IA para practicar habilidades de coqueteo.

🔺 Matemáticos resolvieron un problema de hace 122 años.

🔬 ¿Cómo usan los científicos la IA para falsificar investigaciones?

👁‍🗨 ¿Por qué la "transparencia" de las empresas de IA es solo una ilusión?

🧬 ¿Qué avances médicos ha traído ya AlphaFold?

🤖 Samsung integra Gemini AI en su robot doméstico Ballie.

▎PARA VER

💿 "Tron: Ares": Qué esperar de la próxima película de la legendaria saga.

👆 El matemático de Oxford John Lennox habla sobre los beneficios y peligros de la IA para la sociedad.

#IAsemana @hiaimediaes
Ko'proq funksiyalarni ochish uchun tizimga kiring.