top of page

Innex Digest Febrero-26

Actualizado: hace 4 días

Clínica

Uno de cada cuatro médicos de familia del Reino Unido ya utiliza IA

El 28% de los médicos de familia británicos utilizan herramientas de IA en la práctica clínica, principalmente para documentación clínica (57%) y tareas administrativas (44%). El uso depende de la edad, el género y el nivel socioeconómico. El trabajo reclama estándares nacionales y formación estructurada.

Informe del Nuffield Trust

Un sistema que mide la calidad del razonamiento clínico de las herramientas hechas con IA

CPC-Bench es un benchmark construido con 7.102 casos clínicos del NEJM para evaluar cómo razonan los modelos de IA ante casos clínicos. En 377 casos recientes, el modelo o3 sitúa el diagnóstico correcto en primera posición en el 60% de los casos; en un estudio independiente con 302 casos, 20 internistas alcanzaron un 24% de top-1 (cohortes diferentes, métrica normalizada). En paralelo, Dr. CaBot genera presentaciones en texto y vídeo que, en pruebas ciegas, los médicos solo identificaron correctamente como IA en el 26% de los casos.

Preprint en arXiv

IA en cribado mamográfico detecta un 29% más cánceres

El programa nacional de cribado en Suecia (105.934 mujeres) muestra que el uso de IA en la lectura de mamografías incrementa la detección de cáncer un 29% respecto a la doble lectura estándar. El mismo circuito reduce la carga de trabajo médica un 44%, al priorizar lectura única para casos de bajo riesgo y apoyo algorítmico en los de mayor riesgo.

Se publica en The Lancet DH

Utah autoriza IA para renovar recetas crónicas bajo supervisión

El Estado de Utah ha aprobado un programa regulado que permite a una IA participar en la renovación de recetas médicas rutinarias para pacientes con enfermedades crónicas. El piloto, desplegado dentro de un regulatory sandbox, evalúa seguridad clínica, trazabilidad e impacto asistencial, marcando un precedente legal para la IA en prescripción en EE. UU.

Web oficial del Estado de Utah

Predecir riesgo de demencia e infarto a partir del sueño

SleepFM es un modelo fundacional multimodal entrenado con cerca de 600.000 horas de polisomnografía de 65.000 personas y vinculado a EHR para predecir riesgo futuro. El modelo obtiene C-index 0,84 para mortalidad, 0,85 para demencia y 0,81 para infarto, mostrando el sueño como biomarcador longitudinal con valor preventivo.

Publicado en Nature 

Claude entra en salud con datos clínicos y entornos regulados

Anthropic amplía Claude para salud y ciencias de la vida con infraestructura compatible con HIPAA y conectores a datos clínicos y regulatorios reales (ensayos clínicos, registros públicos y flujos de investigación). El objetivo es automatizar tareas clínicas y científicas manteniendo trazabilidad, seguridad y cumplimiento normativo.

Noticia de Anthropic

IA conversacional muestra apoyo clínico viable entre visitas en salud mental

Un estudio longitudinal naturalista con un agente conversacional observa reducciones sostenidas de síntomas de depresión y ansiedad, con una alianza terapéutica comparable a la reportada en atención tradicional. La ausencia de grupo control limita la atribución causal de los efectos.

Preprint en arXiv

Estetoscopios con IA multiplican la detección cardiovascular en AP

Despliegue sistémico de estetoscopios digitales con IA en atención primaria. Se incrementa de manera significativa la detección de insuficiencia cardíaca, fibrilación auricular y valvulopatías en práctica real. Los datos comunicados en entorno “real-world” refuerzan una idea clave: una capa de IA sobre un gesto clínico cotidiano —la auscultación— puede cambiar el rendimiento diagnóstico.

Web de Eko Health

Frontera

Enjambres de IA pueden simular consenso y erosionar la democracia

“Bot swarms” de IA coordinados pueden infiltrarse en comunidades y fabricar consenso sintético, haciendo parecer que una opinión minoritaria es mayoritaria. Por ejemplo, miles de perfiles aparentemente independientes pueden amplificar dudas sobre vacunas o políticas públicas hasta condicionar el debate social. Los autores proponen detectar patrones de coordinación e introducir mecanismos de humano único pero anónimo para gestionar esta manipulación.

Publicado en Science

Una investigación alerta que la IA puede “destruir” instituciones cívicas

Hartzog y Silbey argumentan que el diseño y el uso habitual de los sistemas de IA tienden a erosionar la pericia, acortar la deliberación y aislar a las personas, tres mecanismos que debilitan transparencia, cooperación y rendición de cuentas. El artículo advierte que, si se implanta indiscriminadamente, esta dinámica puede deslegitimar instituciones como el derecho, las universidades, la prensa o servicios públicos esenciales.

Publicado en SSRN

Claude cultiva tomates de forma autónoma con sensores y visión

Anthropic ha experimentado con “Sol the tomato”, un sistema donde Claude gestiona de manera autónoma el cultivo de una planta combinando sensores IoT y visión artificial. La IA decide cuándo regar, iluminar o ventilar sin supervisión humana, mostrando cómo los modelos generativos pueden operar directamente en el mundo físico, más allá del software.

Noticia de Anthropic

NVIDIA y Lilly redefinen la I+D farmacéutica

NVIDIA y Eli Lilly han anunciado un laboratorio conjunto de IA en descubrimiento de fármacos con una inversión prevista de hasta 1.000 millones de dólares en cinco años. El nuevo Co-Innovation AI Lab integra laboratorios experimentales y computacionales bajo un modelo scientist-in-the-loop, convirtiendo el descubrimiento de moléculas en un proceso de ingeniería asistida por IA.

Noticia en Nvidia

Políticas 

Anthropic fija límites: Claude no tendrá publicidad.

Anthropic ha anunciado que Claude se mantendrá libre de anuncios y contenido patrocinado. La empresa defiende que la publicidad puede distorsionar las respuestas y romper la confianza con el usuario, especialmente en conversaciones personales o decisiones sensibles. Claude se reivindica como espacio para pensar.

Noticia en Anthropic

Cartografiar los datos es el primer paso para dominar la IA científica

Un informe independiente analiza qué grandes conjuntos de datos científicos públicos de EEUU podrían sustentar la próxima generación de sistemas de IA. El mensaje estratégico es claro: quien controle el acceso, la integración y la escala de estos datos tendrá ventaja competitiva en investigación, salud e innovación. La carrera de la IA no se jugará solo con modelos, sino con infraestructura de datos y gobernanza.

Noticia de la NSF

Medicare debate pagar automáticamente lo que la FDA haya aprobado

En EEUU se debate una propuesta para que Medicare cubra automáticamente durante cuatro años los dispositivos médicos con designación “Breakthrough” de la FDA, sin la evaluación habitual de valor clínico. El debate enfrenta el acceso rápido a la innovación con el riesgo de asumir costes elevados con evidencia clínica aún limitada.

Lo explica Medtechdive

OpenAI podría introducir anuncios en ChatGPT y despliega el plan Go global

OpenAI habría comenzado a incorporar anuncios en ChatGPT para los usuarios gratuitos en EEUU y del plan Go para financiar el acceso al servicio. Paralelamente lanza ChatGPT Go (8 $/mes) situado entre la versión gratuita y Plus.

Comunicación oficial de OpenAI

Operaciones

xAI prueba empleados virtuales que se confunden con humanos

Según Sulaiman Ghori, exingeniero de xAI, la empresa está probando empleados virtuales que aparecen en los organigramas internos como si fueran personas reales. En algunos casos, trabajadores humanos no sabían si hablaban con un compañero o con una IA. El proyecto quiere automatizar trabajo de cuello blanco imitando roles humanos, pero está revelando un límite crítico: el trabajo real está lleno de contexto, pasos implícitos y responsabilidades difusas que aún no se pueden copiar sin generar confusión.

Se explica en Spotify

La gestión algorítmica ya entra en sanidad con pros y contras.

Un informe conjunto del Joint Research Centre (Comisión Europea) y la OIT documenta, con estudios de caso en logística y sector sanitario, que la gestión algorítmica ya se utiliza en entornos “tradicionales” para asignar tareas, coordinar turnos y monitorizar actividad. El reporte describe ganancias de eficiencia, pero también riesgos de deterioro de la calidad laboral y un potencial elevado de vigilancia intrusiva si no hay gobernanza y límites claros.

Se publica en JRC

La IA ve lo que los humanos no ven: un dron resuelve una desaparición en la montaña

Un equipo de rescate localizó a un excursionista desaparecido tras analizar horas de imágenes de dron con IA. El algoritmo detectó patrones visuales imperceptibles a simple vista —un punto de color anómalo en un entorno rocoso— y redujo la búsqueda a zonas clave.

Caso recogido en la OECD 

Workspace. IA generativa aplicada a comunicación, formación y contenidos corporativos.

Google amplía Workspace con Veo 3.1, que permite generar clips de vídeo con IA, editarlos y realizar montaje coherente de escenas (stitching). La integración de Nano Banana Pro añade generación avanzada de imágenes, facilitando flujos creativos completos.

Más en el blog de Workspace

La IA obliga a rediseñar los modelos asistenciales, no a automatizarlos

La IA solo genera impacto real cuando se utiliza para diseñar nuevos modelos asistenciales, no para optimizar los existentes. Stanford Health Care integra las capas de conocimiento, inteligencia, aplicación y flujos de trabajo para redistribuir roles y convertir la IA en una capacidad organizativa, no en una simple herramienta digital.

Se explica en el artículo de Nature

Seguridad

Microsoft publica una guía práctica para definir una estrategia de IA responsable en salud.

El foco no es “qué automatizar”, sino cómo evaluar soluciones con criterios de seguridad, integración y gobernanza. La guía se alinea con el relato de Microsoft en torno a Dragon Copilot como asistente de voz unificado para reducir carga documental y apoyar flujos clínicos, siempre con control y responsabilidad humana.

Publicado por Microsoft

Veremos agentes clínicos con “DNI” para realizar tareas de apoyo clínico con seguridad

Para que un agente de IA pueda realizar acciones reales en nombre del médico (por ejemplo enviar instrucciones post-alta, programar seguimientos o activar recordatorios), es necesario que tenga identidad propia, permisos explícitos y revocación global. Sin este “DNI” de agente, los sistemas actuales no pueden garantizar quién actúa, con qué privilegios y cómo detenerlo si hay un incidente.

Un preprint en arXiv

ECRI habla de lo que ya está ocurriendo en hospitales con el mal uso de chatbots

ECRI es una de las principales autoridades internacionales en seguridad del paciente y ha situado el mal uso de chatbots de IA como el riesgo tecnológico número uno en salud para 2026. No se trata de una advertencia teórica: la organización documenta casos reales en los que herramientas de IA generalista han sugerido diagnósticos incorrectos, han “inventado” información clínica o han inducido a decisiones potencialmente peligrosas cuando se han utilizado fuera de contexto asistencial.

Lo explica ECRI

Los chatbots pasarán a ser regulados como productos de consumo

El People-First Chatbot Bill, impulsado por la Consumer Federation of America con el apoyo de más de 70 organizaciones, propone aplicar el derecho de responsabilidad por producto a los chatbots. El modelo de ley establece que los daños previsibles derivados de decisiones de diseño (datos, límites, interfaz) generan responsabilidad legal directa para las empresas, incluyendo el derecho de los usuarios a demandar.

La IA generativa también entra en postmarket: validar no es opcional

La validación puntual ya no es suficiente. Tanto en EEUU como en la UE, la IA generativa aplicada a salud está sujeta a monitorización postmarket continua, especialmente para gestionar la deriva (drift) del sistema en uso real. No solo pueden cambiar los datos: también los prompts, los flujos de trabajo y los contextos clínicos.

Lo explica la FDA

Los asistentes de IA difuminan la frontera entre consejo y publicidad encubierta

Expertos en gobernanza de IA alertan de que la introducción de publicidad en asistentes conversacionales crea una nueva forma de persuasión difícil de detectar. ChatGPT ha acumulado confianza relacional y cuando recomienda productos o servicios, el usuario puede percibirlo como consejo neutral, aunque existan acuerdos comerciales invisibles.

Lo explica untangled

Webs creadas con IA arrastran vulnerabilidades de seguridad sistemáticas

Un estudio empírico a gran escala analiza cerca de 8.000 fragmentos de código generado con herramientas de IA y detecta más de 4.000 vulnerabilidades de seguridad, fallos recurrentes que pueden derivar en filtraciones de datos o fraudes si se utiliza directamente para construir aplicaciones web.

Preprint en arXiv

Algunos modelos de IA pueden repetir textos con copyright casi literalmente

Un estudio de Stanford University y Yale University muestra que, si se les guía paso a paso, algunos modelos de lenguaje pueden reproducir fragmentos de libros protegidos muy similares al original. En las pruebas, los investigadores encuentran coincidencias elevadas incluso sin trucos especiales, lo que revela un riesgo real de memorización con implicaciones legales y de uso responsable.

Preprint en arXiv

Tecnología

La técnica SDFT hace que los modelos de IA aprendan sin “olvidar”

Self-Distillation Fine-Tuning (SDFT) permite que un modelo aprenda nuevas habilidades a partir de demostraciones sin degradar capacidades previas, reduciendo el “catastrophic forgetting”. Los autores reportan que SDFT supera el ajuste supervisado clásico (SFT).

Preprint en arXiv

NVIDIA lanza Rubin, plataforma de IA que reduce costes y acelera la IA

Rubin es una nueva plataforma de infraestructura de IA de seis chips que combina CPU, GPU, red y almacenamiento para construir superordenadores de IA extremadamente más eficientes. Rubin promete hasta 10× menos coste por token de inferencia y 4× menos GPUs para entrenar modelos.

Noticia de NVIDIA

Abandonar los tokens en modelos de lenguaje

Un equipo de Tencent presenta CALM, una arquitectura de modelos de lenguaje que sustituye la predicción token a token por vectores continuos que representan bloques de significado. El objetivo es aumentar la densidad de información por paso, reducir el coste computacional y superar un límite estructural de los LLMs actuales.

Publicado en arXiv

Post-smartphone: Apple prepara un pin de IA sin pantalla

Apple está trabajando en un wearable de IA en formato pin que podría llegar hacia 2027. El dispositivo tendría cámaras, micrófonos y altavoz, y funcionaría como una asistencia de IA ambiental.

Noticia en MacRumors

Wearable con IA en el cuello del perro

Un collar para perro utiliza IA para analizar actividad, descanso y movimientos de los perros, detectando cambios que pueden indicar problemas de salud. Combina GPS, alertas y recomendaciones preventivas, abriendo la puerta a una vigilancia de salud animal más precoz y personalizada.

Web de Satellai

Se abre la infraestructura verl de RL para entrenar LLMs fiables

ByteDance ha publicado verl, un framework open source que unifica todo el pipeline de reinforcement learning para el post-entrenamiento de modelos de lenguaje, integrando generación de respuestas, evaluación, normalización y actualización del modelo en un solo sistema escalable, que reduce la dependencia de feedback humano y mejora la trazabilidad del proceso.

Repositorio oficial de verl

OpenAI podría impulsar Alexa

OpenAI está en conversaciones con Amazon para alimentar Alexa con modelos de OpenAI. El acuerdo reforzaría una relación “circular” en el sector: Amazon sería cliente, posible inversor y proveedor cloud de OpenAI al mismo tiempo. El acuerdo reforzaría un patrón clave del sector: las grandes plataformas pasan a depender de modelos fundacionales externos como cerebro de IA.

Publicado en The Information

Futurización

La robótica podría estar en su “momento GPT-2”: primeras señales de generalización real

Los robots pueden generalizar habilidades más allá de tareas específicas. El modelo RT-2 combina texto e imágenes con datos robóticos para traducir instrucciones nuevas en acciones físicas, mostrando transferencia a situaciones no vistas. No es aún robótica doméstica generalista, pero marca una inflexión comparable a GPT-2.

Blog técnico de DeepMind 

Los mercados de predicción como recurso de anticipación

En los mercados de predicción la gente apuesta dinero real sobre si ocurrirá un hecho político (elecciones, cambios de gobierno, aprobación de leyes). El precio final de la apuesta puede leerse como una probabilidad colectiva.Analizadas más de 2.500 preguntas políticas de la campaña presidencial EEUU 2024, con un volumen apostado de unos 2.400 M$, se reporta acierto del 78% en Kalshi, 67% en Polymarket y 93% en PredictIt.

Publicado en Ideas

Los superforecasters humanos superan a los LLMs en predicción

El Forecasting Research Institute muestra que los superforecasters humanos mantienen una ventaja clara frente a los modelos de lenguaje en tareas de predicción de eventos reales. Los humanos aún superan al mejor LLM (Chat GPT 4.5).

Anthropic lanza un agente legal que automatiza tareas jurídicas

Anthropic ha presentado un plugin legal para Claude Cowork orientado a automatizar procesos jurídicos recurrentes como la revisión de contratos, la comparación de versiones y la preparación de memos. El lanzamiento refuerza el paso de chatbots a agentes operativos, con impacto potencial en el software legal profesional y en los costes de los servicios jurídicos.

Noticia de Anthropic

La IA ya compite con humanos en predicción

En el Forecasting Contest 2025–26, dos sistemas de IA han quedado top-10 entre 650 participantes mayoritariamente humanos. Según el Forecasting Research Institute, la IA podría superar de manera sistemática a los humanos en predicción antes de 2026.

Publicado en Astral Codex

 
 
 

Comentarios


bottom of page