INTRODUCCIÓN A NEUROCIENCIA: NEURAL NETWORKS I

<  VOLVER
Por: admin
marzo 18, 2019
admin
marzo 18, 2019

La convergencia entre la neurología y las ciencias de la computación es una tendencia innegable. Cada vez aprendemos más sobre nuestro cerebro gracias a los avances en Machine Learning y viceversa: descubrimos cómo construir y mejorar nuestros modelos informáticos en base a los descubrimientos de la neurociencia. Es por ello que, si queremos trabajar con deep learning y redes neuronales, debemos tener, al menos, unas nociones básicas de neurociencia.

La base de todo: la neurona

Si nuestro cerebro fuera una especie de escenario, la estrella indiscutible sería la neurona. El tamaño de una neurona es variable, siempre en el orden de la millonésima de metro (µm), pero no pensemos que todas las neuronas son iguales:

Introducción a neurociencia - primer paso para desarrollar Neural Networks

En estos fantásticos bocetos de tejido neuronal hechos por Don Santiago Ramón y Cajal, se aprecian distintos tipos de neuronas:

  • Neuronas piramidales (Pyramidal Neurons), se pueden observar en el dibujo de la izquierda marcadas en rojo. Son típicas del córtex visual y se caracterizan por su cuerpo triangular y porque sus axones forman el sistema piramidal (pyramidal tract) que las conecta con el sistema motor.
  • Células de Purkinje (Purkinje Cells), con sus características ramificaciones que se pueden ver en el dibujo central.
  • Células del colículo superior (optic tectum), dependiendo de la profundidad a la que se sitúen, presentan una ramificación mas o menos densa.

En tiempos de Ramón y Cajal, dos de las principales hipótesis que pugnaban por proponer una explicación satisfactoria a la incógnita de la estructura del cerebro eran:

  • Por un lado la teoría reticular, que proponía que el cerebro era una única red continua de tejido. Uno de sus máximos defensores fue el italiano Camillo Golgi.
  • Por otro lado la teoría neuronal, que proponía que el cerebro en realidad era un conjunto de células individuales. Su principal cabeza visible fue Ramón y Cajal.

Paradójicamente, los avances logrados por el propio Golgi en las técnicas de tintado de tejido nervioso permitieron a Ramón y Cajal no solo hacer los magníficos grabados mostrados más arriba, sino demostrar que la teoría neuronal era la que explicaba la realidad del cerebro. Ambos obtuvieron el premio Nobel de Medicina en 1906 por sus avances en el conocimiento del cerebro.

Doctrina neuronal

Los pilares fundamentales de la teoría encabezada por Ramón y Cajal son los siguientes:

  • Desde un punto de vista estructural y funcional, la neurona es la unidad fundamental del cerebro.
  • Las neuronas son estructuras discretas y no continuas con respecto a otras células (esto es fundamentalmente así para la mayoría de las partes del cerebro).
  • En una neurona, la información fluye desde las dendritas hasta el axón a través del cuerpo celular de la misma (de nuevo hay algunas excepciones, pero esta es la regla general)

En este esquema (obtenido del curso de neurociencia de la Universidad de Washington), se puede apreciar cual es el aspecto de una neurona que responda al esquema ideal planteado por la doctrina neuronal:

Introducción a neurociencia - primer paso para desarrollar Neural Networks

En la parte izquierda se muestra como la entrada de la neurona procede de los axones de otras neuronas. Estas “entradas” se traducen en algún tipo de actividad en la neurona destino que da lugar a una reacción conocida como EPSP (Excitatory Post-Synaptic Potential). En la realidad, las entradas proceden de muchas neuronas diferentes y participarán en la respuesta de la célula mediante la suma de todos los EPSP provocados. De este modo si como resultado de esa suma, se alcanza un determinado umbral o threshold, se generará una salida en la forma de un potencial de acción (action potential) o spike.

En resumen,

  • Varios EPSPs se generan en la neurona gracias a las entradas procedentes de otras neuronas.
  • En el cuerpo celular de la misma, se produce la suma o agregación de estos EPSPs.
  • Si la suma alcanza un determinado umbral, como salida se genera un spike o un potencial de acción.

Los modelos de redes neuronales se basan en estos principios para funcionar.

En el próximo artículo hablaremos de la sinapsis y en el siguiente profundizaremos en la doctrina sináptica. Si os ha gustado y queréis seguir profundizando... ¡hacédnoslo saber!


Alejandro Arranz, Data Engineer en datahack

MÁSTER EXPERTO BIG DATA ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Suscríbete a nuestra Newsletter

Recibe nuestra programación mensual de eventos online y la apertura de nuevas convocatorias de cursos




    En Datahack Consulting SL trataremos los datos que nos facilites con la finalidad de enviarte información relacionada con tu solicitud sobre nuestros servicios, así como enviarte comunicaciones informativas sobre nuestra actividad. Podrás ejercer los derechos de acceso, rectificación, limitación, oposición, portabilidad, o retirar el consentimiento enviando un email a administracion@datahack.es. También puedes solicitar la tutela de derechos ante la Autoridad de Control (AEPD). Puedes consultar información adicional y detallada sobre protección de datos en nuestra Política de Privacidad.

    Estamos para ayudarte con cualquier duda, pequeña o grande

    Llámanos, escríbenos al email o por WhatsApp o inicia un chat en la web y hablamos

    chevron-down