Innex Digest Setembre-25
- Josep Mª Monguet Fierro
- Sep 14, 2025
- 9 min de lectura
Actualitzat: Jan 11

Estetoscopi amb IA duplica la detecció d’insuficiència cardíaca
L’estetoscopi digital d’Eko Health mesura sons i senyals elèctrics del cor alhora i els interpreta amb IA. Un assaig amb 12.000 pacients a UK revela que es dupliquen els diagnòstics d’insuficiència cardíaca en pacients simptomàtics en només 15 segons.
Estudi a JACC Advances i a Ekohealth
Quan la tecnologia et retorna un futur
En Noland Arbaugh, paralitzat des d’un accident el 2016, és el primer pacient amb un implant cerebral de Neuralink. Divuit mesos després, explica que pot jugar, estudiar i organitzar la seva vida només amb el pensament. Noland que ha reprès els estudis universitaris, diu “Sento que torno a tenir potencial… ”
Notícia a Wired
Un robot logístic d’hospital pot contribuir amb 3.000 h/any de feina.
Diversos hospitals que han incorporat robots logístics per al transport intern de medicació, menjar, roba o mostres reporten estalvis de més de 3.000 hores de treball humà per any i per robot.
En parla la CAHL (California Association of Healthcare Leaders)
Ulleres IA per a invidents o usuaris amb baixa visió
Les Ally Solos Glasses són per a persones cegues o amb baixa visió i estan equipades amb càmeres i micròfons, per a llegir i traduir text, descriure l’entorn, reconèixer persones i objectes. La informació es transmet a l’usuari a través d’auriculars de conducció òssia. S’integren quatre models d’IA: Llama, ChatGPT, Gemini i Perplexity.
S’explica a The Verge
Context Engineering en salut: tan o més que un bon prompt.
El context engineering proposa preparar no només la pregunta, sinó l’escenari complet d’informació clínica, metadades i processos perquè els models d’IA actuïn dins dels límits segurs i útils per a la pràctica mèdica. Això inclou raonament temporal, integració multimodal (text, imatge, EHR), privacitat i alineació amb protocols assistencials.
Ho defensa aquest article
El 95 % dels pilots d’IA Generativa no cobreixen les expectatives
Un estudi del MIT mostra que el 95 % dels projectes d’IA generativa no aporten resultats mesurables en ingressos ni productivitat. Expectatives inflades, integració deficient, manca d’adaptació al context i no comptar amb els socis adequats. Fins i tot la borsa ha reaccionat a la notícia.
S’explica al “The GenAI Divide: State of AI in Business 2025”
Albània nomena Diella, un bot d’IA, com a ministra anticorrupció
El primer ministre Edi Rama ha anunciat que Diella, un sistema d’IA que ja donava servei a la plataforma digital e-Albania, assumeix el càrrec de ministra per gestionar concursos públics multimilionaris. El govern assegura que l’objectiu és fer les licitacions “100% lliures de corrupció”.
Enllaç: Reuters
Guia ètica de l’OMS per a l’ús de la IA generativa en salut
L’OMS ha publicat una guia amb recomanacions per garantir un ús segur, transparent i equitatiu de la IA generativa en salut. Inclou pautes sobre supervisió clínica, qualitat de dades, privacitat i monitoratge continu. Un marc internacional per orientar hospitals, governs i proveïdors.
Document de la OMS
El primer ministre suec usa IA Generativa com a segona opinió política
Ulf Kristersson ha reconegut que consulta sovint eines d’IA com ChatGPT o LeChat per plantejar-se alternatives i contrastar estratègies. Més d’un ha posat el crit al cel de que un líder democràtic pugui delegar el raonament polític a una màquina.
Es va explicar als mitjans
Explorar 36 milions de compostos per lluitar contra bacteris resistents.
Investigadors del MIT han utilitzat IA generativa per explorar més de 36 milions de compostos i dissenyar noves molècules capaces de destruir bacteris resistents. Els compostos resultants, inèdits i amb mecanismes d’acció diferents dels antibiòtics actuals, han mostrat eficàcia en models animals.
Ho explica el MIT
Claude i ChatGPT ofertats al govern dels EUA per 1$.
Anthropic ofereix la seva IA Claude a totes les branques del govern nord-americà per només 1 $ l’any per agència. Ho anuncia 5 dies més tard que OpenAI. Claude afegeix la certificació FedRAMP High, el nivell més exigent de seguretat en núvol, que garanteix que el sistema pot gestionar dades crítiques i sensibles.
Ho explica Anthropic
BMI amb iPad: control mental per a pacients amb ELA
Primera demostració real d’un iPad controlat només amb el pensament d’un pacient diagnosticat amb ELA. Un implant vascular sense cirurgia cranial, capta senyals del còrtex motor per enviar correus, obrir apps o redactar missatges.
Més informació al web de Synchron.
Hinton planteja ensenyar a “estimar” a les IA
El pioner de la IA Geoffrey Hinton proposa un enfocament radical per a la seguretat: entrenar sistemes perquè protegeixin els humans com una mare als seus fills.
Ho explica en una entrevista
No vols un agent, el que vols és intel·ligència.
El 2025 havia de ser “l’any dels agents d’IA”. Però potser no és tan clar ni simple. El que realment necessitem són agents autònoms? O necessitem sistemes intel·ligents dins les eines que ja fem servir?
Ho comenta IBM
Si no pots amb el teu competidor litiga. Musk contra OpenAI
Musk i OpenAI s’enfronten als tribunals en un litigi que podria suposar fins a 1.000 M $ en costos legals. La batalla, però, no és jurídica: el veritable objectiu és influir en la direcció estratègica d’OpenAI que no ha acceptat l’oferta de compra de Musk per 100 B $. Les accions legals busquen condicionar el futur d’OpenAI, i poden influir en el rumb de la recerca en intel·ligència artificial.
Ho comenta Reuters
OpenAI valora opcions per fer negoci amb ChatGPT
En cas que s’integrés publicitat a la plataforma ChatGPT es faria de manera “curosa i respectuosa”. OpenAI supera els 700 M d’usuaris, dels quals 20 M són de pagament, i no espera ser rendible fins al 2029. També explora un nou model de “Commerce in ChatGPT”, que permetria fer compres directament des del xat i cobrar una comissió a les marques que hi venguin productes.
Ho explica The Verge
Waymo ja treballa més que tots els conductors humans d’Uber
Els robotaxis de Waymo completen més viatges diaris que el 99 % dels conductors humans a Austin i Atlanta. Al potencial operatiu del transport autònom s’hi suma el fet que es redueixen dràsticament els xocs greus respecte als humans.
Ho explica Uber aquí
Els empleadors valoren més les habilitats humanes
De l’anàlisi de 12 milions d’ofertes laborals als EUA (2018-2023) se’n conclou que la IA potencia gairebé el doble les habilitats com resiliència, pensament analític i l’ètica.
L’estudi s’ha publicat a arXiv
IA que dissenya proteïnes per accelerar la medicina regenerativa
El model GPT‑4b micro OpenAI ha aconseguit dissenyar proteïnes artificials que reprogramen cèl·lules mare 50 vegades més ràpid que les proteïnes naturals. Tot i que encara es tracta d’estudis de laboratori, la troballa obre la porta a futurs tractaments per malalties degeneratives, la infertilitat o la falta d’òrgans per trasplantament.
Ho explica OpenAI el seu blog
Desinformació generada per IA gairebé es duplica en un any
L’últim informe de NewsGuard mostra que el percentatge de respostes amb informació falsa en xatbots d’IA ha passat del 18 % al 35 % en dotze mesos. L’augment s’explica perquè els models responen més sovint a preguntes delicades i tenen accés al web, amplificant la difusió de contingut erroni.
Aquest és l’informe de NewsGuard
Pacients utilitzen IA per revertir factures mèdiques denegades
Plataformes com Counterforce Health i Claimable permeten generar apel·lacions d’assegurances en minuts mitjançant IA, combinant normativa, evidència mèdica i estratègies legals. Un cas recent a Califòrnia mostra com una pacient va aconseguir anul·lar una factura de gairebé 2.000 $ després que l’asseguradora rebutgés la cobertura del seu ingrés hospitalari.
Una notícia a la CBS
Un càlcul ben fet de la bretxa entre capacitat i fiabilitat
Un estudi de METR destaca el “gap” entre les expectatives i els resultats obtinguts amb la IA. La distància entre l’hype i l’impacte real s’ha calculat amb una metodologia més pròxima a l’ús professional que els tests de laboratori.
Ho explica la seva web
Sorprén que un 36% de persones percebin consciència en la IA
L’informe Global Dialogues del Collective Intelligence Project, amb més de mil participants de 68 països, mostra que un 36,3 % de la població ha sentit que una IA entenia les seves emocions o semblava conscient. El 54 % veu acceptables els companys d’IA per persones soles i un 11 % admetria una relació romàntica amb una IA, fet que apunta a un canvi social emergent.
Informe publicat a Global Dialogues
Els equips de “comportament” defineixen la personalitat i límits dels LLMs
Les companyies d’IA disposen d’equips per supervisar el comportament dels models de llenguatge. Ells estableixen el to i la “personalitat” de les respostes, ajusten biaixos, eviten conductes perilloses i creen mètriques per mesurar fiabilitat i coherència. La seva feina és clau perquè els models siguin útils, segurs i socialment acceptables en aplicacions reals.
Open AI Model Behavior
Informes d’IBM i Deloitte alerten sobre la bretxa de maduresa en IA
Dues anàlisis de referència —The CEO’s Guide to Generative AI (IBM, 2024) i State of AI in the Enterprise (Deloitte, 2022)— coincideixen que la majoria d’organitzacions encara no aconsegueixen treure valor real dels seus pilots d’IA. L’èxit no depèn de la tecnologia en si, sinó de la capacitat de lideratge, de la cultura de canvi i de no subestimar costos i temps d’integració.
Riscos d’aprendre massa fàcil amb tutors d’IA
Un estudi mostra que els estudiants perceben una pèrdua d’aprenentatge real quan els tutors d’IA donen respostes directes sense exigir esforç i limitant el pensament crític. Els autors remarquen el potencial positiu d’aquestes eines quan s’integren amb criteri pedagògic.
Publicat a MDPI Education Sciences
Dev |Usar models d’IA Generativa en anglès més barat i més qualitat
La mateixa frase en espanyol consumeix més tokens que en anglès, fet que encareix l’ús de l’API. Una consulta complexa pot costar fins a un 30% més i tenir menor qualitat, ja que la major part de les dades d’entrenament dels models són en aquest idioma.
Tokenizer d’OpenAI
Dev | DLLMs aprenen a controlar simuladors clàssics com CartPole
Un estudi mostra que grans models de llenguatge poden aprendre a controlar entorns físics senzills, com equilibrar un pal sobre un carro (CartPole). El sistema combina instruccions en llenguatge natural amb dades sensorials i correccions iteratives, aconseguint moviments gairebé perfectes després d’assaig i error.
Publicat a arXiv
Dev | Sobirania cognitiva en assistents d’IA amb memòria. Network Effect 2.0.
Els assistents d’IA poden recordar de manera persistent tot el que has llegit, vist o escoltat, i permet un nou tipus d’interacció amb la pròpia memòria. El valor ja no depèn solament del volum d’usuaris sinó també de la profunditat de la memòria personalitzada, i com més uses un assistent d’IA, més t’entén i sap de tu.
Si un ens té la nostra memòria “extended mind”, pot representar un risc per a l’autonomia de pensament i identitat: la sobirania cognitiva. A escala col·lectiva, la concentració d’aquestes memòries en grans empreses o estats podria arribar a influir en els comportaments socials i polítics.
Dev | Part de la comunitat d’IA no veu l’AGI en el focus de la recerca
En l’enquesta a 475 experts de la Association for the Advancement of AI (AAAI) hi ha consens que convé evitar una cursa descontrolada cap a la Artificial General Intelligence (AGI). Es conclou:
Improbable que escalar tècniques actuals porti a AGI (76% )
Prioritzar sistemes amb balanç risc-benefici clar (77% )
L’AGI hauria de ser de propietat pública (82% )
Rebuig a aturar la recerca fins tenir garanties de seguretat (70% )
Estudi de la AAAI
Dev | Quan la IA accelera, el coll d’ampolla són les persones
L’orquestració humà-IA és un repte no tècnic que es reflecteix per exemple en que en la contractació els trets clau que es busquen són curiositat, agència i adaptabilitat, per sobre d’un PhD o pedigrí formal. Els enginyers acceleren amb l’IA i els gestors de projectes esdevenen coll d’ampolla. Potser cal començar a parlar de “caos controlat”.
A partir del que es publica a l’Entrepreneur.
Dev | Nous sistemes d’avaluació d’IA per millorar productes reals
Un estudi recent proposa substituir mètriques genèriques com “al·lucinació” o “toxicitat” per sistemes d’avaluació centrats en l’ús real del producte. Mitjançant anàlisi d’errors, proves contextuals i bucles de millora contínua, es busca garantir que els models d’IA siguin fiables i útils per als usuaris finals, més enllà dels benchmarks tècnics.
A un article a arXiv
Dev | Prompt programming amb codi dels 90 per fer l’IA més fiable
Chris Tyson proposa escriure indicacions en llenguatges antics com COBOL o Visual Basic per aconseguir que els models d’IA executin ordres de manera seqüencial i previsible. Aquesta tècnica, que anomena prompt programming, redueix al·lucinacions, garanteix resultats consistents i obre la porta a aplicacions crítiques on la variabilitat no és acceptable.
Publicat a Substack
Dev | AEO: l’optimització per engines de respostes d’IA
L’AEO (Answer Engine Optimization) és el successor del SEO tradicional. Els LLM han creat un nou canal d’accés a la informació, i els usuaris ja no busquen només en un llistat d’enllaços, sinó que reben una resposta directa generada pel model. L’AEO se centra a fer que els continguts siguin absorbits i citats pels motors de respostes. Les plataformes d’IA utilitzen RAG i altres mecanismes per consultar continguts externs quan responen preguntes. Per ser inclòs, el contingut ha de complir amb certes condicions:
Tenen avantatge els continguts redactats en format Q&A o FAQ, amb respostes directes i clares.
Esquemes semàntics, títols ben jerarquitzats i respostes concises ajuden l’IA a identificar fragments rellevants.
Es tendeix a privilegiar publicacions institucionals, acadèmiques o mitjans consolidats.
Prioritat a contingut recent i fiable.
A Graphite




Comentaris