logo_aapc_new_web_2logo_aapc_new_weblogo_aapc_new_web_2logo_aapc_new_web_2
  • Inicio
  • Institucional
    • Autoridades
    • Miembros
    • Contacto
  • Publicaciones
    • Libros
    • Revista CeI
    • Revista CeI Reseñas
    • El foro de AAPC
    • SERIE FUTUROS
    • Reseñas del fin del mundo
    • Semblanzas homenaje
    • Rev. de las Asociaciones Científicas
    • Índice de temas publicados
  • Noticias
    • Noticias institucionales
    • Destacadas en C&T
  • EPAC
✕
Jorge Comín (1927-2020)
4 noviembre, 2020
INDICIOS DE QUE LA MATERIA OSCURA HA SIDO DESCUBIERTA
9 noviembre, 2020
6 noviembre, 2020

Párrafo 


[

Un trabajo internacional en el que participa la Universidad Autónoma de Madrid (UAM) ha comparado distintos métodos de aprendizaje automático basados en la técnica Gradient Boosting

Un trabajo en el que participa la Universidad Autónoma de Madrid (UAM), publicado recientemente en Artificial Intelligence Review, ha analizado una familia de algoritmos de aprendizaje automático conocida como Gradient Boosting y su ampliación con técnicas avanzadas como XGBoost, LightGBM y CatBoost.

Los posibles campos de aplicación de estos modelos, tanto en ciencia como en desarrollos empresariales, son numerosísimos y van desde la medicina hasta la astronomía, detección de moléculas o predicción de producción energética.

Además del interés intrínseco en el campo de la inteligencia artificial, el trabajo constituye una vía de acceso para investigadores y profesionales de cualquier área que quieran aplicar estas técnicas novedosas en su trabajo diario de forma eficiente.

Las propuestas se centran tanto en mejorar la velocidad de creación de los modelos como en mejorar su capacidad de generalización. “XGBoost es una técnica escalable que ha demostrado ser capaz de resolver no pocos desafíos de aprendizaje automático de forma eficiente. LightGBM es un modelo preciso centrado en proporcionar un rendimiento computacional en el proceso de entrenamiento del modelo extremadamente rápido utilizando un muestreo selectivo de instancias. Y CatBoost modifica el cálculo de gradientes para reducir el sesgo en el proceso de entrenamiento y así mejorar la precisión del modelo”, describen los autores.

Comparativa de modelos
Como parte del trabajo los investigadores realizaron un análisis práctico de cómo funcionan estas nuevas variantes de algoritmos de aprendizaje automático basadas en Gradient Boosting. “En concreto —explican—, se ha hecho una comparativa en términos de velocidad de entrenamiento de los modelos, de capacidad de generalización y de facilidad de configuración de sus hiperparámetros”.

“Además —agregan—, se ha realizado una comparación ampliada entre XGBoost, LightGBM y CatBoost con respecto a Random Forest y el algoritmo Gradient Boosting original. Todos los modelos fueron cuidadosamente ajustados, y se analizaron sus configuraciones predeterminadas”.

Los resultados de esta comparación indican que CatBoost obtiene los mejores resultados en precisión de generalización en los conjuntos de datos estudiados, aunque las diferencias son pequeñas. LightGBM es el más rápido de todos los métodos, pero no el más preciso. Finalmente, XGBoost ocupa el segundo lugar tanto en precisión como en velocidad de entrenamiento.

Además, los investigadores llevaron a cabo un análisis exhaustivo del efecto del ajuste de hiperparámetros en XGBoost, LightGBM y CatBoost. Para ello, propusieron dos metodologías novedosas para analizar el ajuste de hiperparámetros.

“En la primera propuesta estudiamos cómo varía la precisión de los modelos cuando se cambia el valor de cada uno de los hiperparámetros del modelo a cualquier otro valor. La segunda propuesta para el análisis del ajuste de los hiperparámetros de los modelos es una herramienta visual que analiza cómo varía el rendimiento de un método para un conjunto de problemas de aprendizaje automático cuando un hiperparámetro se fija a un valor dado, es decir, cuando el hiperparámetro no es optimizado”, detallan los investigadores.

En suma, estas herramientas permitirán analizar cuáles son los hiperparámetros de los modelos más importantes de optimizar y permitirán ahorrar mucho tiempo de computación en la creación de los modelos óptimos.

El trabajo es resultado de una colaboración entre los investigadores Candice Bentèjac, de la Universidad de Burdeos; Anne Csörgő, de la Universidad Católica Pázmány Péter de Budapest, y Gonzalo Martínez Muñoz, de la UAM.

Referencia bibliográfica:
Bentéjac, C., Csörgő, A., Martínez-Muñoz, G. 2020. A comparative analysis of gradient boosting algorithms. Artificial Intelligence Review. https://doi.org/10.1007/s10462-020-09896-5

Comentarios
Me parece muy importante que los centros de investigación realicen estudios como el propuesto en el articulo, sin embargo quisiera dar mi opinión. Sin conocer las técnicas referidas, puedo opinar que para mi es muy importante, que la educación, que yo lo llamo conocimiento, porque educación puede tener algunas variantes no apropiadas, debe basarse en el estudio y conocimiento del desarrollo del conocimiento de la humanidad en su conjunto, su historia y su proceso de avance de conocimiento del mundo que nos rodea, las variables de desarrollo evolutivo social, económico y político, que de al alumno una base de conocimiento de como hemos avanzado en las etapas desde la era anterior a la civilización siguiendo con esta del hace 10,000 años a la fecha, sobre todo la relación del ser social individual y social y nuestra relación entre los humanos como una unidad.
Enviado por jos gabriel est… (no verificado) el Dom, 08/11/2020 – 02:35

06-11-2020 | MIOD / UAM |

[/three_fifth]

Artículos relacionados

10 noviembre, 2022

IDENTIFICADAS LAS CÉLULAS RESPONSABLES DE LA RECAÍDA EN EL CÁNCER DE COLON


Leer más
7 noviembre, 2022

RECONSTRUYEN MEDIANTE LA GENÉTICA HUMANA LA COMPLEJA HISTORIA DE CÓMO SE POBLÓ AMÉRICA


Leer más
7 noviembre, 2022

LOS MISTERIOS DE LOS RAYOS CÓSMICOS SE RESUELVEN BAJO EL HIELO DE LA ANTÁRTIDA


Leer más

Secciones especiales

  • Grandes temas ambientales
  • Rincón matemático

Sobre la AAPC

  • Quiénes somos
  • Autoridades
  • Miembros
  • Publicaciones
  • Historia de la AAPC

Acerca del EPAC

  • Sobre nosotros
  • Jornadas abiertas
  • Asociaciones
  • Declaraciones y Comunicados

Contacto

  • Av. Alvear 1711, 4º piso.
    Buenos Aires, Argentina.
    TE: (+54) (11) 4811-2998
    Lunes a viernes de 10 a 17 h.

La AAPC en las redes sociales

Copyright © 2017 ASOCIACIÓN ARGENTINA PARA EL PROGRESO DE LAS CIENCIAS. Todos los derechos reservados. Lo expresado por los autores o anunciantes, en los artículos o avisos publicados, es de exclusiva responsabilidad de los mismos. El contenido de esta página web está protegido por las leyes de propiedad intelectual.