next up previous
Next: 7.0.1 Historia Up: Búsqueda, Optimización y Aprendizaje Previous: 6.8 Variantes

7. Redes Neuronales en optimización combinatoria

A las redes neuronales (conneccionismo, proceso paralelo distribuido, computación neuronal, redes adaptivas, computación colectiva) las podemos entender desde dos puntos de vista:

La neurona es la unidad funcional fundamental del sistema nervioso. Cada neurona tiene un cuerpo (soma) que tiene un núcleo, tiene un grupo de fibras (dendritas), una de las cuales es más larga (axón). El axón se bifurca eventualmente en sinapses. Las señales se propagan en una reacción electroquímica complicada. Las substancias químicas transmisoras se liberan de las sinapses y entran a la dendrita, aumentando o disminuyendo el potencial eléctrico del cuerpo de la célula.

Cuando el potencial alcanza un umbral se transmite un pulso elétrico o acción potencial a través del axón. Las sinapses que aumentan el potencial se llaman exitatorias y los que disminuyen, inhibidoras.

La conección ``sináptica'' es plástica (cambia con la estimulación).

Se pueden formar nuevas conecciones y las neuronas migran de un lugar a otro. Esto se cree que forman la base de aprendizaje en el cerebro.

En general el mapeo de regiones con funciones puede ser múltiple y cambiar cuando un área es dañada (pero no se sabe bien como se hace).

Lo sorprendente es que una colección de células simples puedan dar pensamiento, acción y conciencia (cerebros causan mentes (Searle 92)).


Tabla 7.1: Comparación gruesa de las capacidades computacionales de cerebros y computadoras (1994).
  Computadora Cerebro Humano
Unidades 1 CPU, $10^{11}$ neuronas
Computacionales $10^5$ compuertas  
Unidades de $10^9$ bits RAM, $10^{11}$ neuronas,
Almacenamiento $10^{10}$ bits disco $10^{14}$ sinapses
Ciclo (tiempo) $10^{-8}$ seg. $10^{-3}$ seg.
Anchobanda $10^{9}$ bits/seg. $10^{14}$ bits/seg.
Actualizaciones/seg. $10^5$ $10^{14}$

A pesar de que una computadora es millones de veces más rápida por proceso individual, el cerebro finalmente es billones de veces más rápido (ver table 7.1).

Una de las atracciones, es construir un mecanismo que combine el paralelismo del cerebro con la velocidad de las máquinas.

Los cerebros son mucho más tolerantes (en 70-80 años, no se tiene que reemplazar una tarjeta de memoria, llamar al servicio o hacer reboot). La tercera atracción es su degradación gradual.

Las redes neuronales artificiales son modelos muy simplificados de las redes neuronales biológicas.



Subsections
next up previous
Next: 7.0.1 Historia Up: Búsqueda, Optimización y Aprendizaje Previous: 6.8 Variantes
Eduardo Morales Manzanares 2004-11-02