Hacia un almacenamiento óptimo de la información
A pesar de que se han logrado avances importantes en inteligencia artificial y aprendizaje de las máquinas, todavía quedan cuestiones importantes sin resolver. Entre ellas, las capacidades de aprendizaje así como la delicadeza de movimiento, que es difícil que las imiten las máquinas, pero que manifiestan todos los seres humanos y los animales. ¿Proporcionan las células neurales del cerebro una plataforma computacional con características y representaciones que podrían permitir que tales capacidades fueran expresadas en las máquinas y aplicadas en la práctica? Al investigar los mecanismos neurales del procesamiento de la información en el cerebro, el proyecto SPIKEFORCE trató de abordar cuestiones similares relativas a los métodos computacionales utilizados en las tecnologías de computación y de circuitos integrados actuales. Las neuronas del cerebro procesan señales analógicas con valores continuos, mientras que su comunicación en forma de impulsos o pinchazos es esencialmente digital y asíncrona. El trabajo de investigación de los socios del proyecto, coordinado por la École Normale Supérieure, se centró en cómo los disparos de neuronas permiten tomar decisiones rápidamente y, lo que es también importante, permiten el aprendizaje continuo. Como la información se almacena en el cerebro en forma de cambios en la eficacia de las sinapsis excitadoras, se consideró que su funcionamiento independiente tendría un beneficio crucial: maximizar el almacenamiento de información. Asimismo, se exploró el vínculo complementario entre la distribución de cambios en la eficacia sináptica y lo que se ha aprendido, así como el modo de aprendizaje. Con este propósito se empleó una red neural prototípica feed-forward (de antero-alimentación). La tarea asignada a la red neural consistía en aprender la mayor cantidad posible de asociaciones de entrada/salida dadas a un nivel concreto de fiabilidad. Las técnicas analíticas empleadas ampliamente en la mecánica estadística de los sistemas de información distribuidos ofrecieron los medios esenciales para calcular la capacidad máxima de almacenamiento de información de la red neural. Se encontró que esta capacidad máxima dependía de varios parámetros de la red pero, crucialmente, la distribución óptima de las modificaciones sinápticas contenía sinapsis silenciosas en su mayoría. Además, la distribución se parecía a la distribución de las modificaciones sinápticas que ciertos estudios han asociado a las sinapsis del cerebelo, lo que ilustra el entendimiento que puede lograrse de los procesos de aprendizaje y memoria mediante el estudio de las respuestas sinápticas.