Innex Digest Septiembre -25
- Josep Mª Monguet Fierro
- 14 sept 2025
- 9 Min. de lectura
Actualizado: 11 ene

Estetoscopio con IA duplica la detección de insuficiencia cardíaca
El estetoscopio digital de Eko Health mide sonidos y señales eléctricas del corazón a la vez y los interpreta con IA. Un ensayo con 12.000 pacientes en UK revela que se duplican los diagnósticos de insuficiencia cardíaca en pacientes sintomáticos en tan sólo 15 segundos.
Estudio en JACC Advances y en Ekohealth
Cuando la tecnología te devuelve un futuro
Noland Arbaugh, paralizado desde un accidente en 2016, es el primer paciente con un implante cerebral de Neuralink. Dieciocho meses después explica que puede jugar, estudiar y organizar su vida sólo con el pensamiento. Noland que ha retomado los estudios universitarios, dice “Siento que vuelvo a tener potencial… ”
Noticia en Wired
Un robot logístico de hospital puede contribuir con 3.000 h/año de trabajo.
Varios hospitales que han incorporado robots logísticos para el transporte interno de medicación, comida, ropa o muestras reportan ahorros de más de 3.000 horas de trabajo humano por año y por robot.
Habla la CAHL (California Association of Healthcare Leaders)
Gafas IA para invidentes o usuarios con baja visión
Las Ally Solos Glasses son para personas ciegas o con baja visión y están equipadas con cámaras y micrófonos, para leer y traducir texto, describir el entorno, reconocer a personas y objetos. La información se transmite al usuario a través de auriculares de conducción ósea. Se integran cuatro modelos de IA: Llama, ChatGPT, Gemini y Perplexity.
Se explica en The Verge
Contexto Engineering en salud: tan o más que un buen pronto.
El contexto engineering propone preparar no sólo la pregunta, sino el escenario completo de información clínica, metadatos y procesos para que los modelos de IA actúen dentro de los límites seguros y útiles para la práctica médica. Esto incluye razonamiento temporal, integración multimodal (texto, imagen, EHR), privacidad y alineación con protocolos asistenciales.
Lo defiende este artículo
El 95% de los pilotos de IA Generativa no cubren las expectativas
Un estudio del MIT muestra que el 95% de los proyectos de IA generativa no aportan resultados medibles en ingresos ni productividad. Expectativas hinchadas, deficiente integración, falta de adaptación al contexto y no contar con los socios adecuados. Incluso la bolsa ha reaccionado en la noticia.
Se explica en el “The GenAI Divide: State of AI in Business 2025”
Albania nombra a Diella, un bote de IA, como ministra anticorrupción
El primer ministro Edi Rama ha anunciado que Diella, un sistema de IA que ya daba servicio a la plataforma digital e-Albania, asume el cargo de ministra por gestionar concursos públicos multimillonarios. El gobierno asegura que el objetivo es hacer las pujas "100% libres de corrupción".
Enlace: Reuters
Guía ética de la OMS para el uso de la IA generativa en salud
La OMS ha publicado una guía con recomendaciones para garantizar un uso seguro, transparente y equitativo de la IA generativa en salud. Incluye pautas sobre supervisión clínica, calidad de datos, privacidad y monitorización continua. Un marco internacional para orientar a hospitales, gobiernos y proveedores.
Documento de la OMS
El primer ministro sueco usa IA Generativa como segunda opinión política
Ulf Kristersson ha reconocido que consulta a menudo herramientas de IA como ChatGPT o LeChat para plantearse alternativas y contrastar estrategias. Más de uno ha puesto el grito en el cielo de que un líder democrático pueda delegar el razonamiento político en una máquina.
Se explicó en los medios
Explorar 36 millones de compuestos para luchar contra bacterias resistentes.
Investigadores del MIT han utilizado IA generativa para explorar más de 36 millones de compuestos y diseñar nuevas moléculas capaces de destruir bacterias resistentes. Los compuestos resultantes, inéditos y con mecanismos de acción distintos de los antibióticos actuales, han mostrado eficacia en modelos animales.
Lo explica el MIT
Claude y ChatGPT ofertados en el gobierno de EE.UU. por 1$.
Anthropic ofrece su IA Claude a todas las ramas del gobierno estadounidense por sólo 1$ al año por agencia. Lo anuncia 5 días más tarde que OpenAI. Claude añade la certificación FedRAMP High, el nivel más exigente de seguridad en nube, que garantiza que el sistema puede manejar datos críticos y sensibles.
Lo explica Anthropic
BMI con iPad: control mental para pacientes con ELA
Primera demostración real de un iPad controlado sólo con el pensamiento de un paciente diagnosticado con ELA. Un implante vascular sin cirugía craneal, capta señales del córtex motor para enviar correos, abrir apps o redactar mensajes.
Más información en la web de Synchron.
Hinton plantea enseñar a “amar” a las IA
El pionero de la IA Geoffrey Hinton propone un enfoque radical para la seguridad: entrenar sistemas para que protejan a los humanos como una madre a sus hijos.
Lo explica en una entrevista
No quieres un agente, lo que quieres es inteligencia.
En 2025 debía ser "el año de los agentes de IA". Pero quizá no sea tan claro ni simple. ¿Lo que realmente necesitamos son agentes autónomos? ¿O necesitamos sistemas inteligentes dentro de las herramientas que ya utilizamos?
Lo comenta IBM
Si usted no puede con tu competidor litiga. Musk contra OpenAI
Musk y OpenAI se enfrentan a los tribunales en un litigio que podría suponer hasta 1.000 millones de dólares en costes legales. Sin embargo, la batalla no es jurídica: el verdadero objetivo es influir en la dirección estratégica de OpenAI que no ha aceptado la oferta de compra de Musk por 100 B$. Las acciones legales buscan condicionar el futuro de OpenAI, pudiendo influir en el rumbo de la investigación en inteligencia artificial.
Lo comenta Reuters
OpenAI valora opciones para hacer negocio con ChatGPT
En caso de que se integrara publicidad en la plataforma ChatGPT se haría de forma "cuidadosa y respetuosa". OpenAI supera los 700 M de usuarios, de los cuales 20 M son de pago, y no espera ser rentable hasta 2029. También explora un nuevo modelo de “Commerce in ChatGPT”, que permitiría realizar compras directamente desde el chat y cobrar una comisión a las marcas que vendan productos.
Lo explica The Verge
Waymo ya trabaja más que todos los conductores humanos de Uber
Los robotaxis de Waymo completan más viajes diarios que el 99% de los conductores humanos en Austin y Atlanta. Al potencial operativo del transporte autónomo se le suma el hecho de que se reducen drásticamente los choques graves respecto a los humanos.
Lo explica Uber aquí
Los empleadores valoran más las habilidades humanas
Del análisis de 12 millones de ofertas laborales en EE.UU. (2018-2023) se concluye que la IA potencia casi el doble las habilidades como resiliencia, pensamiento analítico y la ética.
El estudio se ha publicado en arXiv
IA que diseña proteínas para acelerar la medicina regenerativa
El modelo GPT‑4bmicro OpenAI ha logrado diseñar proteínas artificiales que reprograman células madre 50 veces más rápido que las proteínas naturales. Aunque todavía se trata de estudios de laboratorio, el hallazgo abre la puerta a futuros tratamientos por enfermedades degenerativas, la infertilidad o la falta de órganos por trasplante.
Lo explica OpenAI su blog
Desinformación generada por IA casi se duplica en un año
El último informe de NewsGuard muestra que el porcentaje de respuestas con información falsa en chatbots de IA ha pasado del 18% al 35% en doce meses. El aumento se explica porque los modelos responden con mayor frecuencia a preguntas delicadas y tienen acceso a la web, amplificando la difusión de contenido erróneo.
Éste es el informe de NewsGuard
Pacientes utilizan IA para revertir facturas médicas denegadas
Plataformas como Counterforce Health y Claimable permiten generar apelaciones de seguros en minutos mediante IA, combinando normativa, evidencia médica y estrategias legales. Un caso reciente en California muestra cómo una paciente logró anular una factura de casi 2.000 dólares después de que la aseguradora rechazara la cobertura de su ingreso hospitalario.
Una noticia en la CBS
Un cálculo bien hecho de la brecha entre capacidad y fiabilidad
Un estudio de METR destaca el "gap" entre las expectativas y los resultados obtenidos con la IA. La distancia entre el hype y el impacto real se ha calculado con una metodología más cercana al uso profesional que los test de laboratorio.
Lo explica su web
Sorprende que un 36% de personas perciban conciencia en la IA
El informe Global Dialogas del Collective Intelligence Project, con más de mil participantes de 68 países, muestra que un 36,3% de la población ha oído que una IA entendía sus emociones o parecía consciente. El 54% ve aceptables a los compañeros de IA por personas solas y un 11% admitiría una relación romántica con una IA, lo que apunta a un cambio social emergente.
Informe publicado en Global Dialogues
Los equipos de “comportamiento” definen la personalidad y límites de los LLMs
Las compañías de IA disponen de equipos para supervisar el comportamiento de los modelos de lenguaje. Ellos establecen el tono y la “personalidad” de las respuestas, ajustan sesgos, evitan conductas peligrosas y crean métricas para medir fiabilidad y coherencia. Su trabajo es clave para que los modelos sean útiles, seguros y socialmente aceptables en aplicaciones reales.
Open AI Model Behavior
Informes de IBM y Deloitte alertan sobre la brecha de madurez en IA
Dos análisis de referencia -The CEO's Guide to Generative AI (IBM, 2024) y State of AI in the Enterprise (Deloitte, 2022)- coinciden en que la mayoría de organizaciones aún no logran quitar valor real de sus pilotos de IA. El éxito no depende de la tecnología en sí, sino de la capacidad de liderazgo, de la cultura de cambio y de no subestimar costes y tiempo de integración.
Riesgos de aprender demasiado fácil con tutores de IA
Un estudio muestra que los estudiantes perciben una pérdida de aprendizaje real cuando los tutores de IA dan respuestas directas sin exigir esfuerzo y limitando el pensamiento crítico. Los autores subrayan el potencial positivo de estas herramientas cuando se integran con criterio pedagógico.
Publicado en MDPI Education Sciences
Dev | Usar modelos de IA Generativa en inglés más barato y más calidad
La misma frase en español consume más tokens que en inglés, lo que encarece el uso de la API. Una consulta compleja puede costar hasta un 30% más y tener menor calidad, puesto que la mayor parte de los datos de entrenamiento de los modelos están en este idioma.
Tokenizer de OpenAI
Dev | LLMs aprenden a controlar simuladores clásicos como CartPole
Un estudio muestra que grandes modelos de lenguaje pueden aprender a controlar entornos físicos sencillos, como equilibrar un palo sobre un carro (CartPole). El sistema combina instrucciones en lenguaje natural con datos sensoriales y correcciones iterativas, consiguiendo movimientos casi perfectos después de ensayo y error.
Publicado en arXiv
Dev | Soberanía cognitiva en asistentes de IA con memoria. Network Effect 2.0.
Los asistentes de IA pueden recordar de forma persistente todo lo que has leído, visto o escuchado, y permite un nuevo tipo de interacción con la propia memoria. El valor ya no depende sólo del volumen de usuarios sino también de la profundidad de la memoria personalizada, y cuanto más usas un asistente de IA, más te entiende y sabe de ti.
Si uno nos tiene nuestra memoria “extended mind”, puede suponer un riesgo para la autonomía de pensamiento e identidad: la soberanía cognitiva. A nivel colectivo, la concentración de estas memorias en grandes empresas o estados podría llegar a influir en los comportamientos sociales y políticos.
Dev | Parte de la comunidad de IA no ve a la AGI en el foco de la investigación
En la encuesta a 475 expertos de la Association for the Advancement of AI (AAAI) existe consenso en que conviene evitar una carrera descontrolada hacia la Artificial General Intelligence (AGI). Se concluye:
Improbable que escalar técnicas actuales lleve a AGI (76%)
Priorizar sistemas con balance riesgo-beneficio claro (77% )
La AGI debería ser de propiedad pública (82% )
Rechazo a detener la búsqueda hasta tener garantías de seguridad (70%)
Estudio de la AAAI
Dev | Cuando la IA acelera, el cuello de botella son las personas
La orquestación humano-IA es un reto no técnico que se refleja por ejemplo en que en la contratación los rasgos clave que se buscan son curiosidad, agencia y adaptabilidad, por encima de un PhD o pedigrí formal. Los ingenieros aceleran con el IA y los gestores de proyectos se convierten en cuello de botella. Quizás haya que empezar a hablar de “caos controlado”.
A partir de lo que se publica en el Entrepreneur.
Dev | Nuevos sistemas de evaluación de IA para mejorar productos reales
Un reciente estudio propone sustituir métricas genéricas como “alucinación” o “toxicidad” por sistemas de evaluación centrados en el uso real del producto. Mediante análisis de errores, pruebas contextuales y bucles de mejora continua, se busca garantizar que los modelos de IA sean fiables y útiles para usuarios finales, más allá de los benchmarks técnicos.
En un articulo en arXiv
Dev | Prompt programming con código de los 90 para hacer el IA más fiable
Chris Tyson propone escribir indicaciones en lenguajes antiguos como COBOL o Visual Basic para conseguir que los modelos de IA ejecuten órdenes de forma secuencial y previsible. Esta técnica, que llama prompt programming, reduce alucinaciones, garantiza resultados consistentes y abre la puerta a aplicaciones críticas en las que la variabilidad no es aceptable.
Publicado en Substack
Dev | AEO: la optimización por engines de respuestas de IA
El AEO (Answer Engine Optimization) es el sucesor del SEO tradicional. Los LLM han creado un nuevo canal de acceso a la información, y los usuarios ya no buscan sólo en un listado de enlaces, sino que reciben una respuesta directa generada por el modelo. La AEO se centra en que los contenidos sean absorbidos y citados por los motores de respuestas.
Las plataformas de IA utilizan RAG y otros mecanismos para consultar contenidos externos cuando responden a preguntas. Para ser incluido, el contenido debe cumplir con ciertas condiciones:
Tienen ventaja los contenidos redactados en formato Q&A o FAQ, con respuestas directas y claras.
Esquemas semánticos, títulos bien jerarquizados y respuestas concisas ayudan al IA a identificar fragmentos relevantes.
Se tiende a privilegiar publicaciones institucionales, académicas o medios consolidados.
Prioridad a contenido reciente y fiable.
En Graphite




Comentarios