Diferencia entre revisiones de «Redes Neuronales»
De Cuba-Wiki
m (→Apuntes) |
|||
(No se muestran 5 ediciones intermedias de 4 usuarios) | |||
Línea 13: | Línea 13: | ||
'''Profesor:''' | '''Profesor:''' | ||
* Dr. Enrique | * Dr. Enrique Segura ''esegura'' (_at) ''dc.uba.ar'' | ||
= Programa de la materia = | = Programa de la materia = | ||
* Inspiración biológica de las RNA | * Inspiración biológica de las RNA | ||
* Aprendizaje supervisado | * Aprendizaje supervisado | ||
** Perceptrones | |||
** Backpropagation y otras estrategias de aprendizaje | |||
* Aprendizaje no supervisado | * Aprendizaje no supervisado | ||
** Modelo de Kohonen | |||
** Modelo de Fritzke | |||
** Aprendizaje Hebbiano no supervisado | |||
* Memorias asociativas | * Memorias asociativas | ||
** Modelo de Hopfield | |||
** Modelo ferromagnético o estocástico | |||
** Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM | |||
* Modelo Radial Basis Functions | * Modelo Radial Basis Functions | ||
== Contenidos == | == Contenidos == | ||
Línea 65: | Línea 68: | ||
* '''Estabilidad''' | * '''Estabilidad''' | ||
= Prácticas (Dpto. de Computación) = | |||
= Finales = | |||
Desde 2020 suelen ser orales y virtuales. | |||
= Apuntes = | |||
* [http://www-2.dc.uba.ar/materias/lrn/pautas%20de%20entrega.pdf Mini-apunte teórico] En la última sección se repasan algunos detalles importantes de cada arquitectura | * [http://www-2.dc.uba.ar/materias/lrn/pautas%20de%20entrega.pdf Mini-apunte teórico] En la última sección se repasan algunos detalles importantes de cada arquitectura | ||
* [https://marinomar.notion.site/Redes-Neuronales-e4c7ee505b0848bebe1a5891ae10ddb1?pvs=4 Apuntes de las teóricas + TPs] (1C 2023) | |||
= Curiosidades = | |||
[http://neil.fraser.name/writing/tank/ Detección de tanques] | [http://neil.fraser.name/writing/tank/ Detección de tanques] | ||
= Bibliografía Recomendada = | |||
* John Hertz, Anders Krogh, & Richard Palmer. ''Introduction to the theory of neural computation'', Addison-Wesley, 1991 | * John Hertz, Anders Krogh, & Richard Palmer. ''Introduction to the theory of neural computation'', Addison-Wesley, 1991 | ||
Línea 81: | Línea 86: | ||
* Simon Haykin. ''Neural Networks - A Comprehensive Foundation (2E)'', Pearson Prentice Hall, 1998 | * Simon Haykin. ''Neural Networks - A Comprehensive Foundation (2E)'', Pearson Prentice Hall, 1998 | ||
= Enlaces externos = | |||
* [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.zip SOM Toolbox (modificado por la cátedra)] | * [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.zip SOM Toolbox (modificado por la cátedra)] | ||
* [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.pdf Apunte de SOMToolbox] | * [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.pdf Apunte de SOMToolbox] |
Revisión actual - 21:53 23 jul 2023
Esta materia es de caracter optativo y de duración cuatrimestral. Se dicta los primeros cuatrimestres de cada año. Es correlativas con Probabilidades y Estadística.
Información General sobre la Cursada
Cursada:
- Dos días de cursada por semana. Teórica y Práctica.
Criterios de aprobación:
- Entrega de 3 Trabájos Prácticos aprobatorios.
- Final, en general oral.
Profesor:
- Dr. Enrique Segura esegura (_at) dc.uba.ar
Programa de la materia
- Inspiración biológica de las RNA
- Aprendizaje supervisado
- Perceptrones
- Backpropagation y otras estrategias de aprendizaje
- Aprendizaje no supervisado
- Modelo de Kohonen
- Modelo de Fritzke
- Aprendizaje Hebbiano no supervisado
- Memorias asociativas
- Modelo de Hopfield
- Modelo ferromagnético o estocástico
- Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM
- Modelo Radial Basis Functions
Contenidos
Inspiración biológica de las RNA
- Modelo de McCulloch-Pitts
- Regla de Hebb
Aprendizaje supervisado
- Perceptrón simple: unidades umbral, unidades lineales, unidades no lineales
- Regla delta
- Perceptrón multicapa
- Backpropagation: asincrónico, sincrónico; mejoras (momento, parámetros adaptativos, y otras)
- Aplicaciones
Aprendizaje no supervisado
- Aprendizaje Hebbiano no supervisado
- Análisis de Componentes Principales (PCA)
- Regla de Oja
- Regla de Sanger (Aprendizaje Hebbiano Generalizado)
- Aprendizaje Competitivo no supervisado
- Mapas Autoorganizados de Kohonen
- Aplicaciones
Memorias asociativas
- Modelo de Hopfield
- Función de energía
- Extensiones
- Estocástica
- Continua
- Estabilidad
Prácticas (Dpto. de Computación)
Finales
Desde 2020 suelen ser orales y virtuales.
Apuntes
- Mini-apunte teórico En la última sección se repasan algunos detalles importantes de cada arquitectura
- Apuntes de las teóricas + TPs (1C 2023)
Curiosidades
Bibliografía Recomendada
- John Hertz, Anders Krogh, & Richard Palmer. Introduction to the theory of neural computation, Addison-Wesley, 1991
- Simon Haykin. Neural Networks - A Comprehensive Foundation (2E), Pearson Prentice Hall, 1998