jueves, 17 de junio de 2010

La Ley General de Información, Comunicación y Control (Parte II)

Ricardo San Esteban (Especial para ARGENPRESS CULTURAL)

Las huellas de la memoria, la inteligencia y el tiempo

Aún hay mucho para andar, sobre todo respecto a la naturaleza de las “huellas” de la memoria. La tendencia a deducirlas a partir de la evolución de todo el mundo orgánico e inorgánico constituye una posición materialista espontánea de muchos investigadores. Otros, en cambio, no aceptan la existencia de huellas materiales de la memoria, entendiéndola como una función puramente espiritual, y en eso siguen los dictados de San Agustín, la escuela escocesa, Bergson.

Una serie de autores, como Bertrand Russell, tendieron a limitar la problemática de la memoria mediante el método de veracidad lógica, aislándola de los fundamentos genéticos, sociales y universales. Pero resultó que la memoria se hallaba condicionada por el comportamiento de las variables, por el tiempo e inclusive por la conformación del universo. Y que ella misma, siendo una constante, poseía los nexos necesarios para atender a la variabilidad.

La tesis que la relaciona con el problema del tiempo fue trazada por Aristóteles y tuvo un desarrollo ulterior en las obras de Bergson y otros. Posteriormente Paul Janet, en aquel curso de conferencias en el Colegio de Francia, La evolución de la memoria y la noción del tiempo (1928), mostró que para comprender el proceso de la memoria debía tenerse en cuenta lo que representa el tiempo. La definió como una construcción intelectual relacionada con el transcurso del tiempo, con una etapa filogenética posterior al desarrollo de la psiquis del hombre (12).

Si no resulta cierto aquello que afirmaba Kant en cuanto a que el tiempo es una forma a priori del conocimiento, pues entonces, o es un proceso biológico elemental del tipo de las sensaciones, idea sostenida por Mach, o es un proceso complejo, históricamente condicionado, no reducible a ninguna otra función biológica.

Janet afirmaba que no se puede tomar como una sensación experimental de la percepción de la duración (el tiempo), sino que constituye un complejo y relativamente posterior fenómeno al que nosotros comprendemos muy mal, ya que nuestras ideas del tiempo son aún muy indeterminadas.

Naturalmente, en aquellos momentos no se conocía el concepto de reloj biológico, que contabiliza el tiempo y lo memoriza a distinto nivel, inclusive en el ámbito celular o atómico. Pero ya Marx y Engels habían publicado sus tesis sobre el tiempo de trabajo y sobre su conexión con la praxis, en donde la memoria juega un papel importante.

Aristóteles, como es sabido, distinguía la memoria, como una propiedad del mundo animal y la reminiscencia, como una propiedad exclusiva del hombre. El recuerdo, para él, constituía la búsqueda, es decir, la comprensión de la imagen en su determinada relación respecto al tiempo.

Sin embargo, a lo que se sepa, Aristóteles no siguió desarrollando esta tesis, por lo que en el año 1937 Charles Spearman (12) le reprochaba el haber sido, al fin y al cabo, difusor del error ancestral de pensar al recuerdo sin relación con el tiempo, solamente como una copia del momento.

Probablemente el reproche de Spearman haya sido injusto pues sólo ahora, merced a un gran número de investigaciones comenzó a descubrirse el cuadro de la mutabilidad histórica de la memoria en relación con el tiempo y su vinculación con la inteligencia.

En esta relación entre la inteligencia y la memoria existen hoy dos enfoques diferentes: El primero; teorías de Spearman, Thurstone, Guilford, Cattell y Horn, quienes emplean la técnica estadística del análisis factorial, y este enfoque se denomina a menudo enfoque psicométrico donde se pone énfasis en la medida de la inteligencia.

El segundo enfoque lo podemos encontrar en el trabajo de Sternberg, que se centra en determinar cuales son los procesos que hacen que una persona utilice la información que recibe para resolver problemas.

Charles Edward Spearman formuló la teoría acerca de la inteligencia que se compondría de un factor general y otros específicos. Creyó en la existencia de un factor general que intervenía en todas las fases de la conducta humana y atribuyó a las capacidades específicas un papel determinante en cada actividad.

Con su teoría bifactorial realizó importantes aportes a la sicología y a la estadística, desarrollando el Análisis Factorial. Gracias a él propuso la existencia de un factor general de inteligencia (Factor G), que subyace a las habilidades para la ejecución de las tareas intelectuales.

A esta teoría de la inteligencia la denominó Teoría Bifactorial, ya que la inteligencia se compondría tanto del 1) Factor general (G), que sería hereditario, e intentó comprobar que correspondía a una propiedad específica del cerebro, una suerte de energía mental a nivel de la corteza cerebral, que varía de un individuo a otro, pero se mantiene estable a través del tiempo; así como del/los 2) Factor/es específico/s (S), que representa a habilidad específica de un sujeto frente a determinada tarea, que también tendría una localización especifica en el cerebro.

Por lo tanto si bien la inteligencia era hereditaria en cuanto a su Factor G, sería posible que la educación tuviese importante incidencia el Factor S.

En cuanto a las tesis sobre la ligazón de la memoria y el tiempo, el enfoque tardó mucho en imponerse. Como otros aspectos en la cuestión de la memoria, ésta apareció en el empirismo, en el cual se consideraba que la base de la ligazón entre la memoria y el tiempo era el debilitamiento de la primera impresión.

Como es sabido, para David Hume y toda la escuela inglesa, la memoria siempre tendía a conservar aquella forma inicial en la que el objeto se presentó una vez ante el conocimiento. Y si durante la reminiscencia nos desviábamos de su forma inicial, ello era debido a nuestras limitaciones.

De esta manera, el problema no estribaba en la real existencia de la memoria y los relojes naturales en todas las manifestaciones de la naturaleza, sino en la comprensión del hecho del debilitamiento inicial. Esta ha sido una de las principales tesis del sensualismo, pero inevitablemente los hechos han demostrado el error, pues aparecieron los datos científicos que mostraban que no era reducible a la lógica.

De manera que el mundo dualizado no se originó solamente en la tesis de Aristóteles acerca del recuerdo, sino en la propia estructura de la verdad y de la materia, que parecerían hallar en la discontinuidad su dinámica para un desarrollo en el cual el propio ser humano estaría equipado con verdades inciertas y con un juego entre la memoria y la praxis, con sus constataciones y rectificaciones.

Sabemos que el sistema materia y su entorno, la naturaleza, guardan memoria de lo acontecido y continuamente la testean, desechan lo inútil (o no) y se apoyan en dicha memoria. Hasta se han descubierto o inventado materiales con memoria de forma.

En la ciencia que estudia los fenómenos de la memoria humana se han desarrollado técnicas novedosas en imagenología, como las imágenes de resonancia magnética. Estas técnicas permiten observar el cerebro en acción y se ha investigado acerca, por ejemplo, de la transformación de la memoria de corto plazo en memoria de largo plazo, puesto que existen muchos tipos de memoria.

Hasta ahora estos tipos de memoria se han clasificado en tres clases. Una de ellas es la de los hechos que se produjeron en nuestra propia vida. Otra sería la de los datos adquiridos a partir del entorno, de la cultura, del medio interno y externo. La memoria de los hechos es relativamente autobiográfica, relativamente específica de cada persona y de su cerebro. La memoria de los datos, en cambio, puede ser compartida por otros cerebros.

Estos dos primeros tipos de memoria son distintos, aun cuando en ambos casos somos conscientes del hecho de recordar. Pero también existen memorias que utilizamos sin ser conscientes de que las estamos empleando.

Estas memorias de una tercera clase se denominan procesadas o automáticas, como es el caso de algunos aspectos de la praxis, manejar una máquina, andar en bicicleta.. Y aún habría otras clases de memoria que también se conectan con la praxis, como la que se asienta en los elementos de los procesos de interacción entre la naturaleza y nosotros, y entre la naturaleza animada y la inanimada.

Los procesos químicos, como es sabido, son decisivos en el desarrollo de la memoria. Han sido identificadas importantes proteínas que son cruciales para adquirir nueva información. También han sido identificados procesos químicos y anatómicos que acontecen en el ámbito cerebral, cuando la memoria se transforma de corto a largo plazo.

En términos anatómicos, se sabe que existe una parte del cerebro llamada sistema límbico, que es fundamental para esa transformación. Sin embargo, aún se desconoce la forma en que se produce el proceso. Sólo se sabe que si se daña el sistema límbico resulta imposible transformar memoria de corto plazo en memoria de largo plazo. En términos químicos, comenzamos a vislumbrar que en la memoria de corto plazo se producen cambios en las células nerviosas, en la estructura de las proteínas.

Esa estructura de las proteínas elabora información sobre todos los aspectos de la vida. Se ha descubierto que la información de una proteína receptora responsable de la muerte programada de células normales es la causante del crecimiento no controlado de tejidos cancerosos, circunstancia que puede ser aprovechada para diseñar un cambio de mensaje para combatir el cáncer, afirmaba un informe publicado en la revista Nature.

La muerte celular programada, o apoptosis, es un resultado de la información proporcionada para combatir infecciones y otras amenazas. Se activa en células normales cuando ciertas moléculas biológicas ejercen acción sobre la proteína receptora CD95.

Hasta ahora, se consideraba que la reproducción no controlada de células cancerosas resistentes a la apoptosis se debía a que estas células perdían la proteína receptora CD95 de algún modo y por eso podían reproducirse de forma no controlada, perdiendo la información que activaba la respuesta inmunológica del cuerpo.

Un equipo de investigadores encabezado por Marcus Peter, profesor de la Universidad estadounidense del Noroeste, descubrió que la información CD95 permanece en las células de tejidos cancerosos, pero pasa a desempeñar la función contraria, y mostró que el bloqueo de esta proteína detiene la reproducción de células cancerosas e incluso puede provocar su muerte.

El estudio se desarrolló sobre varias líneas de células cancerosas de humanos y ratones. Los científicos lograron demostrar que una técnica aún más eficaz para combatir células cancerosas es bloqueando la formación de las moléculas mensajeras que activan la CD95 desencadenando la apoptosis en tejidos sanos.

"Este descubrimiento cambia algunos paradigmas de la ciencia. Durante 20 años, los científicos intentaron utilizar la CD95 para destruir tumores cancerosos, pero hemos logrado demostrar que esta proteína en realidad envía un mensaje que hace que su crecimiento se dispare", señaló Ernst Lengyel, de la Universidad de Chicago y uno de los autores del estudio.

El equipo de Peter continuará con sus investigaciones que en un futuro deberán revelar cómo la información de la proteína pasa de provocar la muerte celular a estimular su crecimiento y viceversa.

Los investigadores están convencidos de que su descubrimiento permitirá diseñar una nueva generación de fármacos para combatir el cáncer.

En el cerebro, las proteínas controlan el flujo de información entre las células nerviosas. Pero como la vida de las proteínas es limitada, se hace necesario contar con mecanismos adicionales para que la memoria se transforme en memoria de largo plazo. Como una proteína se degrada al cabo de horas o de días, por más que dicha proteína sea modificada no lograríamos prolongar la memoria. Lo que hace el cerebro es mandar señales del nervio del lado de donde tiene conexión con el núcleo de la célula. Si la memoria se va a transformar de corto en largo plazo, esa señal irá a buscar una modulación de la expresión de los genes. Eso sí que lleva a cambios de largo plazo.

La inscripción que queda almacenada en alguna parte del cerebro se instala en la actividad consciente de redes de neuronas. La información acerca de diversos items se encuentra codificada en diversas redes o combinaciones de neuronas. Cuando aprendemos, se modifican las conectividades dentro del sistema, de modo que cambia la expresión del circuito y el ítem de información. Eso es lo que acontece, por ejemplo, con la praxis.

Algunos episodios físicos ocurridos en el ser humano afectan procesos químicos de su memoria, y episodios o situaciones afectan su estructura psicológica. Por ejemplo, una predisposición genética en interacción con el sistema, con la nutrición, con las enfermedades graves, afecta el comportamiento de su memoria. Los cambios actuales en la praxis y el tiempo de trabajo (parte del entorno interno y elemento, respectivamente, del sistema capitalista) disminuyen la capacidad de memorización y atención. Se ha verificado, asimismo, que el reemplazo de la cultura de la lectura por la de la televisión y la cibernética está modificando la dependencia humana respecto de la memoria, aunque por otro lado, ciertos juegos de computadora estimulen un tipo de memoria menos complejo.

Ingeniería de la Memoria

El desarrollo de la cibernética o la cibernetización del conocimiento ha llevado a nuevos descubrimientos e interrogantes sobre el tema. Pero aquí dejamos sólo constancia de su capacidad para poner al descubierto estructuras abstractas de gran generalidad, hasta llegar al punto de constituir una memoria artificial, un ciberespacio regido por la ley general de información, comunicación y control.

Los términos función, análisis funcional, análisis estructural-funcional, relación funcional, dependencia funcional, funcionalismo y enfoque funcional, y otros, han pasado a constituir parte del análisis lógico y metodológico de todas las ciencias, y se hallan íntimamente relacionados con la teoría de la memoria.

Rasgo esencial de la organización, la funcionalidad revela la conexión íntima entre el sistema y sus elementos e inclusive el fundamento de la estabilidad, autoconservación y/o destrucción de aquél. Siendo, así, tan fundamental como la sustancialidad y la estructuralidad.

Ello ha permitido que, además de los tipos estructural, sustancial y causal, se haya incorporado también el tipo funcional. Este último tipo ha logrado su fundamentación en las matemáticas, en donde la función se considera una situación de dependencia de una variable respecto de otra.

En una visión más abierta, se entiende por función al modo de comportamiento inherente a un sistema específico, comportamiento que permite su conservación e identidad. Tal concepción de la función posee un sentido causal, opuesto al teleológico que viene desde Aristóteles.

Además de ello, ha permitido aventar las argumentaciones solipsistas o de la inmanencia (Berkeley, Fichte.) pues los aparatos cibernéticos -como ha sido demostrado- registran y toman en cuenta la realidad exterior con o sin la presencia humana.

El concepto causal de la funcionalidad ha resultado muy importante, pues la dependencia funcional determina que la modificación de una de las magnitudes sea seguida de un determinado cambio en la otra. Esa expresión funcional de los nexos causales posee ventajas sobre la antigua descripción cualitativa de la correlación causa-efecto, pues aquí se logra calcular exactamente el conjunto de valores de los efectos, siempre que se den los correspondientes valores de las causas y del campo de una determinada variable independiente.

Si bien no conviene absolutizar acerca del método funcional -su enfoque se halla condicionado por la circunstancia de que muchos sistemas complejos no admiten un examen completo y directo de su estructura interior- su incorporación a la ingeniería del conocimiento ha sido importantísima. Se debe a que su estrategia de indagación está basada en un hecho cierto, en el sentido de que la esencia del objeto no solamente que no se agota en sus vínculos internos, sino que el objeto es determinado por sus relaciones sistémicas. Y por otra parte, sus principios son tan antiguos como el mundo, puesto que el conocimiento de la esencia siempre se fincó en la observación, prima facie, de aspectos exteriores o formales de los objetos.

Simplemente, y como ya ha sido dicho, se trata de una teoría que destaca la importancia de prestar atención a los vínculos entre el sistema, el elemento y el observador, al problema de qué información emana del elemento y de qué manera ella es obtenida por el observador.

Esencialmente, la aplicabilidad de la cibernética a los diversos campos del conocimiento no reposa sólo en una correlación externa o casual. Referirse al hecho de que con auxilio de la metodología cibernética se puede descubrir la esencia de la organización de objetos cualitativamente diferentes, y realizar luego su interpretación y transformación -pese a su lógica abstracta- resultan insuficientes desde el punto de vista constructivo.

No huimos del examen de los resultados obtenidos a partir de aplicar las ideas y métodos de la cibernética a tareas cognoscitivas diversas. Nuestro objetivo, más bien, consiste en mostrar un análisis metodológico de la especificidad del comportamiento cibernético, con ayuda de la cual se descubre una amplia zona del mundo objetivo, aquélla relacionada específicamente con los problemas del control y la organización. Las investigaciones en este campo se desarrollaron luego de que el norteamericano Norbert Wiener (en colaboración con el científico mexicano A. Rosenblueth) estudiara la conexión de los dispositivos electrónicos de observación y de cálculo con la fisiología de la actividad nerviosa. Wiener fue quien formuló la definición general de control (13).

En los años cuarenta elaboró los principios de la cibernética, teoría interdisciplinar centrada en el estudio de las interrelaciones entre máquina y ser humano y que en la actualidad se encuadra dentro del ámbito más general de la teoría de control, el automatismo y la programación.

En 1947 publicó el ensayo Cibernética o control y comunicación en el animal y en la máquina. Se interesó por la filosofía y por la neurología como áreas del saber fundamentales para la cibernética. Así pues, más allá de convertirse en ciencia, la cibernética abría un campo de reflexión interdisciplinar que aportaba distintos criterios a numerosas áreas de la tecnología.

En este sentido, en el avance de la construcción de autómatas y, sobre todo, en el desarrollo de las computadoras, Norbert Wiener se erigió en uno de los grandes precursores de la era digital con la que se inaugura el siglo XXI.

Los marcos conceptuales en los cuales se comprendió la estructura de los sistemas complejos se ampliaron con la visión informativa de control, indispensable desde entonces para el conocimiento de todos los sistemas autorregulados.

El conocimiento de las leyes de la cibernética tuvo un éxito enorme no solamente porque transformó los métodos o porque condujo al descubrimiento de la mayoría de los hechos básicos, sino también porque modificó la formulación de los problemas tradicionales y así pudo investigarse -en sistemas de diferentes clases- algunos procedimientos generales de investigación.

Wiener profetizó la crisis capitalista actual e intuyó pero no pudo conocer el formidable alcance que sus descubrimientos alcanzarían en la teoría general de la información y el control, aplicada al campo de la economía y la sociología. La ley general de información, comunicación y control, a nuestro modo de ver, reemplazará en la sociedad poscapitalista a la ley del valor.

La teoría cibernética de la información, comunicación y control

La teoría cibernética de la comunicación y del control se convirtió en el fundamento teórico que permitió aplicar un enfoque y métodos matemáticos únicos en el análisis y síntesis de diferentes sistemas. Tales particularidades del conocimiento cibernético, sumadas a sus ideas y métodos, caracterizaron desde entonces al estudio del método funcional de conocimiento.

Este método, si bien no reniega de aquellas divisiones lógicas tradicionales entre individuo, especie y género, se atiene a un agrupamiento distinto, de clases de sistemas. Tales clases son del tipo orgánico integral, de sistemas sumativos, simples, complejos y muy complejos, sistemas abiertos y cerrados, sistemas que se caracterizan por el tipo discreto y rígido de los vínculos entre sus partes, sistemas probabilísticos y rígidamente determinados, y otros.

Es decir, que se apoya en el isoformismo de las relaciones entre los sistemas. Esto es lo que lleva a una clasificación distinta a la de los objetos biológicos, distinta a la regla de Lamarck por la que las fronteras debían establecerse allí donde las trazó la naturaleza.

En este tipo de generalización no interesa mayormente si objetos semejantes en cuanto a propiedades de su sustrato han de ser agrupados en una sola clase. Así, en la clase de los sistemas determinístico-probabilísticos se incluyen objetos de la naturaleza inorgánica, sistemas vivos y fenómenos sociales.

Tal cosa trae como consecuencia que en las reglas del razonamiento se tengan en cuenta -junto a los elementos tradicionales- aspectos antes desechados o considerados no fundamentales, y que para la determinación e identidad del objeto analizado sean ahora de mucho valor. Aquellas reglas de veracidad, llevadas a su mayor rigidez especialmente durante el tomismo, se han tornado mucho más complejas y menos aseverativas. Tal cosa no quiere decir que se reniegue de la práctica como criterio de la verdad.

Las ideas metodológicas usadas en la creación de clases específicas son las ideas de la teoría probabilística, de la concepción de integridad, de la teoría de la organización y demás. La individualización, en un objeto investigado, de un conjunto de parámetros interconectados depende no sólo de las propiedades materiales -de contenido de la propia realidad- sino también del enfoque cognoscitivo del sujeto, de sus necesidades y posibilidades prácticas.

El concepto conjunto organístico expresa el isoformismo parcial de sistemas cualitativamente distintos en sociología y en biología; se piensa que algunos sistemas son invariantes o similares en cuanto a determinados parámetros, aunque resulten diferentes física y métricamente.

Algo común a todos consiste en que sus elementos tienen la propiedad de poseer ciertos tipos de actividad que conducen a la formación de diferentes estructuras estadísticas o dinámicas. Tales estructuras son necesarias para la conservación de la existencia o, si se quiere, para lograr la supervivencia de los elementos y el conjunto mismo. Por ello tales estructuras conforman determinadas relaciones entre los elementos y de estos con el sistema y los entornos internos y externos.

El programa investigativo de la cibernética contiene una definida metodología, donde cobran preeminencia conceptos tales como sistema, jerarquías, invariancia, isoformismo, homoformismo y demás.

Sin dejar de lado anteriores logros en el campo del conocimiento, las nuevas ideas condicionan con suficiente determinación un modo de interpretación de los hechos científicos y la organización de una estrategia para su avance.

Tal estrategia, al parecer -según opiniones de ciertos científicos- debe basarse en las exigencias del mercado que es el que está reglando, hoy por hoy, el contenido y la orientación de las investigaciones científicas.

Los citados Rosenblueth y Wiener en su The role of models in science (1945) señalaban que en el período anterior a la aparición de la cibernética se utilizaban con preferencia -sobre todo en la física y la química- los métodos de síntesis (desde las partes hacia el todo) y que el movimiento inverso (análisis) desde el todo hacia las partes sólo era observable en algunos razonamientos lógicos.

Los citados investigadores plantearon que era necesario moverse desde el todo concebido de una manera conceptual hasta las partes estructuralmente representadas. Este enfoque -moverse del todo hacia las partes- expresaba el reconocimiento de tal tendencia como fundamental y directriz en las tareas de investigación. Pero ello constituye un momento en el curso de las investigaciones que como es sabido, se realizan a través de análisis, síntesis y generalizaciones. Por supuesto, en los diversos estadios del desarrollo de dichas investigaciones cobra preeminencia uno u otro de tales momentos, pero es evidente que prevalece el criterio sistémico (el todo determina las partes).

Naturalmente, en esto hay que analizar lo que el enfoque funcional tiene de heurístico. La generalización afirma en este caso que la función no está determinada por una estructura singular dada, sino que se halla vinculada a toda una serie de estructuras y que la función se contempla en general fuera de la referencia al mecanismo singular interior en cuestión. La idea de la independencia relativa de la función respecto de la estructura -que se apoya en el principio del vínculo estadístico no unívoco ni rígido entre la estructura y la función, o en el principio de la derivación de la función investigada a partir de toda una clase de estructuras- resulta decisivo en la elaboración de hipótesis y pronósticos sobre la estructura de los sistemas diferentes en cuanto a su sustrato material. Esta estrategia de investigación se basa en el movimiento de la modelación desde una función a otra, con el apoyo de que un mismo comportamiento puede ser realizado por diferentes estados estructurales.

Por otra parte, la evidencia de la falta de correspondencia biunívoca entre estructura y función conduce a la necesidad de introducir criterios de optimización. Esto permite asegurar un pronóstico de la estructura conforme a la función dada, si bien no de forma absolutamente unívoca, por lo menos muy cercana a ésta.

Además de la optimización se requiere el conocimiento de la génesis de la estructura, por lo cual hay que combinar los enfoques funcional y genético.

Por ejemplo, se sabe que para el enfoque funcional en la definición de vida sólo cobra importancia el comportamiento y no así la composición material del objeto biológico. La cibernética, lo hemos visto, se abstrae del sustrato material de los procesos de información, por lo cual el tipo de materia con la que se halla formado lo vivo resulta un rasgo relativamente insustancial de la organización biológica.

De este modo, las representaciones que realiza la cibernética se encuentran libres de premisas sobre la naturaleza concreta de los procesos físicos existentes en su basamento, incluido aquí el sustrato sustancial de lo vivo. Llama la atención que los éxitos de la cibernética se finquen en la abstracción que ella hace del sustrato, de los portadores concretos del movimiento.

El materialismo dialéctico como corpus científico, tiene la posibilidad de actualizarse permanentemente

Ya hace mucho tiempo que Norbert Wiener criticó la aplicación de la teoría marxista, tal como se hacía en aquella época y hasta envió un artículo suyo a Vaprosii Filosofií, que no tuvo mucha aceptación. Y en “El Golem y Dios” aclaraba que no estaba en contra del marxismo sino de las rigideces, vinieren de donde vinieren. Efectivamente, el materialismo dialéctico tiene dentro de sí la posibilidad de una actualización permanente porque no es una doctrina cerrada, sino un instrumento para el análisis de una realidad que es cambiante.

Y como al que le quepa el sayo que se lo ponga, debo decir autocríticamente que en muchos de mis trabajos de esa época existía ese mismo envaramiento heredado de la escuela soviética.

No hay duda que las concepciones del materialismo dialéctico anteriores a 1970 aparecían como ingenuas o en todo caso insuficientes, habida cuenta de cómo el estudio iba cobrando notoriedad a partir del conocimiento de la estructura y función universales.

El advenimiento de un más profundo realismo científico ha permitido una mayor aproximación al tema. Tal resultado no significa, sin embargo, una negación de los aportes realizados, sino una ulterior etapa en el desarrollo del conocimiento. Porque, si vamos a analizarlo ¿cuál ha sido el aporte de los profesores de filosofía que aun hoy enseñan que la memoria nos viene desde el cielo, junto con el alma, otorgada por el empíreo celeste?

Las ideas científicas surgidas en el siglo XX y en lo que va del XXI se basaron, en general, en un materialismo dialéctico, una práctica como criterio de la verdad, confirmada por la realidad y no por ideas vagando en regiones supralunares. Por ejemplo, las ideas funcionales, las redes formales, surgieron de investigadores que acudían a un realismo, empírico o no, que les permitía avanzar en los descubrimientos.

Uno de los mayores logros de las ideas funcionales fue el de las redes formales, a partir de la teoría de MacCulloch y Pitts (11). El grano de esta teoría reside en que cualquier funcionamiento puede realizarse con ayuda de una determinada red formal de neuronas.

El modelo neuronal de MacCulloch y Pitts fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. La neurona de McCulloch-Pitts es una unidad de cálculo que intenta modelar el comportamiento de una neurona "natural", similar a las que constituyen del cerebro humano. Se trata de la unidad esencial con la cual se construye una red neuronal artificial. El resultado del cálculo en una neurona consiste en realizar una suma ponderada de las “entradas”, seguida de la aplicación de una función no-lineal.

Sin embargo, en muchos de los estudios que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch -Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo.

Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace imprecisa a dicha implantación con respecto al comportamiento teórico derivado del modelo.

Lo notable es que, pese a que la red formal constituye una abstracción, una limitación si se quiere, la misma comenzó a ser extrapolada e interpretada ampliamente como fuente de modelos lógico matemáticos de diferentes formas de comportamiento, desde el reflejo condicionado hasta las formas complejas de actividad.

Ver también:

Haga click aquí para recibir gratis Argenpress en su correo electrónico.