En el 2004 se estrenó una película llamada “The final cut” dirigida por Omar Naïm y protagonizada por Robin Williams. En ella se plantea que se instala a las personas un chip llamado “Zoë” que graba todo en la vida de las personas. Para que en el post mortem se extraigan los recuerdos, se editen y se entreguen los más bonitos a las personas amadas. Posteriormente en el 2011, la serie británica Black Mirror propuso un sistema parecido. En el capítulo llamado “The entire history of you” un implante es capaz de pasar toda tu vida frente a ti cuando tu quieras, puedes rebobinar y observar o incluso borrar los recuerdos. Bien, algo similar a esto es posible que sea real en un futuro no muy lejano.
La empresa “Neurobotics” y el Instituto de Física y Tecnología de Moscú han desarrollado un sistema capaz de traducir la actividad cerebral visualizada en imágenes, es decir, son capaces de ver lo que ve el cerebro en tiempo real. Esto se desarrolló con el objetivo de crear dispositivos de tratamientos cognitivo y rehabilitación cerebrovascular producido por accidentes.
Desarrollar estos dispositivos controlados por el cerebro no es fácil ya que se debe de entender como el cerebro codifica la información. Actualmente, se usa la resonancia magnética nuclear o implantes en las neuronas para observar las señales cerebrales. Sin embargo, estos métodos aun son limitados. Por lo tanto, este equipo de investigación desarrolló una interfaz basada en redes neuronales y electroencefalografía para analizar la actividad cerebral y traducirla en imágenes vistas por una persona en tiempo real.
Si un paciente sufre de un accidente cerebrovascular será capaz de controlar una prótesis con fines neurorrehabilitación, es decir, aumentar la precisión del control neuronal. Estos experimentos se han realizado primero en individuos sanos que observaron diversos videos. Después los patrones de ondas cerebrales se analizaron de acuerdo con cada categoría y se pudo analizar la respuesta del cerebro a los videos en tiempo real. Esto fue como una forma de calibración del equipo.
Posteriormente, las categorías de videos cambiaron aleatoriamente para que con dos redes neuronales el sistema pudiera generar imágenes aleatorias específicas de cada categoría y también generar ruido similar. Así, en una función conjunta de las imágenes y el ruido fue posible crear imágenes reales similares a las observadas. En una prueba, se obtuvo que mientras observaban videos, las señales cerebrales se grabaron y alimentaron a las redes neuronales para formar imágenes muy cercanas a las vistas.
Esto puede ser usado como la base de una interfaz cerebro-computadora que opera en tiempo real. Si bien, los objetivos de este proyecto no son como los expuestos por los metrajes de ciencia ficción, eventualmente podríamos ver que se desarrolle tecnología similar. Aun hay desafíos por superar, pero se espera que eventualmente se diseñen dichas interfaces neuronales más asequibles.
Como siempre, gracias por leerme.
Comments