La charla que nos pedisteis: Profundizando en las Redes Neuronales

//La charla que nos pedisteis: Profundizando en las Redes Neuronales

La charla que nos pedisteis: Profundizando en las Redes Neuronales

Tras la encuesta realizada en redes sociales el mes pasado, la mayoría decidisteis el tema de nuestro siguiente evento: Inteligencia Artificial. Por eso, ayer Diego Calvo ofreció junto con Codemotion su charla de Redes Neuronales en Liferay.

Durante la presentación, Diego habló de sus conceptos básicos, su clasificación y las principales aplicaciones de este sistema de aprendizaje y procesamiento automático inspirado en el funcionamiento del sistema nervioso humano.

Comenzó haciendo una introducción al Machine Learning y al Deep Learning: El Machine Learning es un subconjunto de la Inteligencia Artificial que se vale de métodos estadísticos que las máquinas mejoren con la experiencia; mientras que el Deep Learning es, a su vez, un subconjunto del Machine Learning que utiliza redes neuronales multicapa.

Tras esto, dio paso a sus dos principales vertientes: el aprendizaje supervisado y el no supervisado. Mientras que el aprendizaje supervisado requiere que se le indiquen los datos de salida con los que se entrena, el aprendizaje no supervisado no requiere de esos datos.

Comenzó a presentar la materia central de la ponencia; las Redes Neuronales, que se clasifican en cuatro diferentes topologías:

Perceptrón monocapa: Son las redes neuronales más simples, y son capaces de representar funciones lineales.

Perceptrón multicapa: Cuenta con capas ocultas, haciendo posible al sistema la representación de funciones no lineales. A medida que la red neuronal va aprendiendo, la propia capa oculta es capaz de eliminar los enlaces que no considere relevantes.

Red Neuronal recurrente: No cuenta con una estructura de capas definida, sino que permite conexiones arbitrarias entre las neuronas, incluso pudiendo crear ciclos. Aquí es donde surge la temporalidad, permitiendo que la red tenga memoria.

Red Neuronal convolucional: A cada parte de la red se le entrena para realizar una tarea, reduciendo significativamente el número de capas ocultas y haciendo el entrenamiento más rápido. Para explicarlo mejor, nos mostró un ejemplo:

 

Tras esto, Diego dio paso al turno de preguntas, ¡y solo nos quedó comentar la charla con una buena sesión de pizzas!

2019-07-12T08:58:05+00:0012 julio, 2019|Categories: Sharepoint|Tags: , , , , , , , |0 Comments