- Enseñar a los modelos de IA a razonar de la misma manera que los humanos es un desafío, y los investigadores corroboraron que LLM están demostrando ya ciertas capacidades.
Forbes Staff
El modelo chino de inteligencia artificial DeepSeek-R1 aprende más y mejor cuando recibe “recompensas” por resolver problemas, pero esos estímulos requieren de la intervención humana, por lo que ese enfoque puede resultar costoso y limitar además su capacidad de crecimiento.
Lo comprobó un equipo de investigadores y tecnólogos, entre los que figuran responsables de la empresa china que lanzó este modelo abierto de inteligencia artificial (IA), que analizaron sus potencialidades y sus limitaciones; hoy publican los resultados de su trabajo en la revista Nature.
Enseñar a los modelos de IA a razonar de la misma manera que los humanos es un desafío, y los investigadores corroboraron que los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) están demostrando ya ciertas capacidades de razonamiento, aunque ese entrenamiento requiere importantes recursos computacionales.

No hay comentarios:
Publicar un comentario