En un sector marcado por la escasez de datos de libre acceso, quién puede pagar por más ensayos entrena mejor sus modelos de inteligencia artificial
Quico Sabanés, barcelonés de 33 años, se ha puesto a hombros de gigantes casi por accidente. Hace dos años, contratado por la empresa emergente de biotecnología Acellera, este químico de formación empezó a desarrollar modelos de IA para predecir el comportamiento de moléculas. Se trata de una área en la vanguardia de la ciencia, con aplicaciones de enorme relevancia, como acelerar la creación de fármacos. Son avances tan cruciales que Google recibió el Premio Nobel de Química en 2024 por su herramienta AlphaFold. Con muchos menos recursos, claro está, la start-up en la que trabaja Sabanés ya licenciaba desde hacía años unos sistemas de simulación de comportamiento de moléculas hasta finalmente abandonar ese modelo de negocio en octubre pasado.
“No era rentable”, justifica el químico. El principal problema de las herramientas de simulación de Acellera era un obstáculo común a muchas biotecnológicas: la escasez de datos para entrenarlas.
Hay poca información clínica disponible debido a las leyes de protección de la privacidad de los pacientes, tanto en Europa como en Estados Unidos. Pese a algunos repositorios de datos públicos, como uno lanzado por la UE el año pasado, las biotecnológicas muchas veces dependen de datos procedentes de investigaciones propias, cuyo desarrollo puede costar decenas de millones de euros para probar un solo fármaco, un esfuerzo económico que solo empresas más grandes pueden asumir. Según el último informe de la consultora IQVIA, las grandes farmacéuticas —un grupo selecto de una docena de compañías— concentraron el 30% de los ensayos clínicos que entraron en fases finales en 2024 en EE UU.






