Cerebro y computación

Si estamos de acuerdo en que el cerebro es el objeto más complejo del universo conocido, la idea de simular su organización mediante una enorme cadena de ecuaciones no-lineales parecería, cuando12 menos, un deseo cercano a una utopía. Pero lo que era ciencia ficción hace algunos años, hoy quizá no estaría tan lejos. Al fin y al cabo, el cerebro no deja de ser un órgano confinado, es decir, con límites y proyectos como el Human Brain Project tendrían su razón de ser. 

El anuncio del supercomputador Aurora para 2021 nos sitúa a un nivel de computación a exaescala, esto es, a un trillón de operaciones por segundo, mil veces por encima de los supercomputadores de hace una década. Se trataría del mínimo de capacidad de cálculo requerida para desarrollar una primera versión de un modelo del cerebro con ciertas pretensiones de totalidad, una versión que implementase las interacciones no-lineales que, en una perspectiva macro, caracterizasen las propiedades emergentes de un cerebro vivo. Por otro lado, las eficientes técnicas de computación en la nube y de distribución de datos, podrían ser buenas soluciones para almacenar los datos. Ahora bien, el gran problema que se plantea es cómo agregar y analizar datos. Téngase en cuenta que para que una modelización sea exitosa, los procesos de muestreo, selección y agregación de datos son decisivos.

Los algoritmos clásicos suelen clasificar los datos utilizando “clusters” de reglas más bien aptos para localizar correlaciones y no causalidades. Los algoritmos que necesitamos han de ser capaces de tratar cada vez mejor con datos muy multivariados, de diferente alcance y con datos “perdidos”; es decir, disponer de una mineria de datos cada vez más avanzada. Los procedimientos puramente estadísticos, como los de las técnicas de machine learning no parecen ser muy prometedores para arrojar luz acerca de cantidades masivas de datos no-lineales, no estocásticos y procedentes de espacios de búsqueda de muchas dimensiones.

En el ámbito de la Neurociencia con aplicaciones clínicas habrá que intentar que los millones de datos acumulados por hospitales, fundaciones médicas, laboratorios y Universidades puedan ser compartidos públicamente más allá de las lógicas restricciones ético-legales de la profesión médica. 

Tendremos que obtener datos de las patologías neurológicas no centrándonos en aislarlas mediante la búsqueda de características únicas o simples sino en sondear en múltiples dimensiones o en vectores de variables médicas, reduciéndose así la imprecisión en los diagnósticos. Y así, por ejemplo, en nuestros días hasta un cuarenta por ciento de pacientes con enfermedad de Alzheimer en un estadio inicial quedan sin diagnosticar a su debido tiempo.

En consecuencia, aunque parece que a corto y medio plazo vamos a disponer del hardware necesario para generar modelos bastante realistas de la actividad cerebral global, precisamos de algoritmos de programación cada vez más selectivos a la hora de encontrar relaciones no espurias entre cantidades gigantescas de datos. Este es un reto que va más allá de extender en el tiempo la famosa “ley” de Moore o de intentar explotar nuevos materiales semiconductores como la molibdenita o el grafeno.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *

×

Hola!

Haz clic en uno de nuestros representantes a continuación para chatear en WhatsApp o envíenos un correo electrónico a

contacto@educalibro.cl

× ¿Ayuda?