Fotografía de archivo de una persona sosteniendo un teléfono móvil con la aplicación china DeepSeek. EFE/ Salvatore Di Nolfi
Redacción Ciencia (EFE).- El modelo chino de inteligencia artificial DeepSeek-R1 aprende más y mejor cuando recibe ‘recompensas’ por resolver problemas, pero esos estímulos requieren de la intervención humana, por lo que ese enfoque puede resultar costoso y limitar además su capacidad de crecimiento.
Lo ha comprobado un equipo de investigadores y tecnólogos, entre los que figuran responsables de la empresa china que lanzó este modelo abierto de inteligencia artificial, que han analizado sus potencialidades y sus limitaciones; hoy publican los resultados de su trabajo en la revista Nature.
Enseñar a los modelos de inteligencia artificial a razonar de la misma manera que los humanos es un desafío, y los investigadores han corroborado que los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) están demostrando ya ciertas capacidades de razonamiento, aunque ese entrenamiento requiere importantes recursos computacionales.
El modelo DeepSeek-R1 incluye una etapa de entrenamiento adicional bajo supervisión humana para mejorar el proceso de razonamiento, y emplea un sistema de aprendizaje «por refuerzo» en lugar de ejemplos humanos para desarrollar los pasos de razonamiento, lo que según los investigadores y responsables de la empresa reduce los costos y la complejidad del entrenamiento.









