viernes, 25 de junio de 2010

La Ley General de Información, Comunicación y Control (Parte III - Final)

Ricardo San Esteban (Especial para ARGENPRESS CULTURAL)

El enfoque funcional

El enfoque funcional goza de gran popularidad entre las grandes patronales, pues les permite la selección de personal al indagar acerca de las capacidades individuales de un colectivo de trabajo. Pero no sólo allí, pues el funcionalismo (Mass Communication Research) caracterizado por el utilitarismo otorgado a las acciones que deben sostener el orden establecido en las sociedades, es una corriente teórica surgida en Inglaterra en los años 1930 en las ciencias sociales, especialmente en sociología y también en antropología social. La teoría está asociada a Emile Durkheim (12) y, más recientemente, a Talcott Parsons además de a otros autores como Herbert Spencer y Robert Merton y su objetivo primordial ha sido el de hallar las formas para superexplotar a los trabajadores y“estabilizar”a los díscolos dentro del sistema capitalista, pero la actual crisis global ha demostrado que ese enfoque funcional ha fracasado, hasta llegar a los suicidios registrados entre el personal de las grandes compañías (France Telecom., Foxconn y muchas más).

El funcionalismo se caracteriza por un enfoque empirista que preconiza las ventajas del trabajo de campo. En este sentido, los teóricos funcionalistas identifican en sus textos la comunicación con comunicación de masas porque esa es la realidad de la sociedad moderna. Hasta el siglo XIX, la mayoría de las labores se realizaban en un gabinete, mediante relatos sesgados de viajeros. El funcionalismo abrió el camino de la antropología científica, desarrollándose luego con gran éxito en Estados Unidos y en los demás países capitalistas. La corriente funcionalista es la escuela más extendida; se ha llegado a naturalizar y se estudia como el paradigma de las ciencias de la comunicación. Esta circunstancia se ha entendido como lógica porque es la perspectiva que mejor se identifica con la dinámica y los intereses de clase dentro del sistema audiovisual.

La escuela propone una serie de teorías concretas con continuidad basadas en distintas disciplinas: la teoría hipodérmica, la teoría de los efectos limitados, la teoría matemática de la comunicación y otros enfoques más particulares. Son esquemas de acción cuyo objetivo es construir un proyecto integrador que aporte conocimientos sobre cómo funciona la comunicación social y cómo debe funcionar bajo la hegemonía de la burguesía.

En esta mirada, las instituciones sociales serían medios colectivamente desarrollados para la satisfacción de las necesidades biológicas y culturales; definidos por el cumplimiento de una función social, y no —como se hacía generalmente— por las circunstancias históricas de su desarrollo. Enfatiza, por lo tanto, en las medidas que las instituciones toman para alcanzar los fines socialmente valorados. En la escuela funcionalista norteamericana, basada sobre todo en la obra de Talcott Parsons, se pone un énfasis particular en la gobernabilidad o el mantenimiento de la estabilidad social. En el contexto estadounidense, ayudaba a pensar que EE.UU. era una nación que todavía estaba construyéndose a partir de inmigrantes de distintas procedencias (melting pot) y que, por ello, se hacía necesaria la integración política dentro del país como presupuesto para consolidar su liderazgo mundial..Es claro que los muros detrás del Río Grande y las leyes xenófobas de Arizona muestran hasta qué punto tuvieron éxito.

En lo que hace a su aplicación como disciplina rectora del campo económico ha demostrado que las conclusiones de Chicago o Harvard resultaron equivocadas, como ya hemos analizado en otros trabajos.

Pero el campo de investigación del funcionalismo o método funcional es vastísimo aunque no siempre se utilice en forma pura, pues habitualmente se combina con la modelación, la formalización, el enfoque algorítmico y los métodos probabilístico-estadísticos de investigación. Incluso, se complementa con los métodos estructurales que han mostrado su empleo en la neuropsicología sistémica.

En esta ciencia, su utilización alcanzó importantes resultados en el estudio del comportamiento del organismo como un todo en sus relaciones con los diferentes sistemas de estructuras de neuronas que componen el cerebro. De allí que la neurología sistémica se convierta en un eslabón que enlaza la neurofisiología -análisis químico y eléctrico del funcionamiento de las células nerviosas- con el estudio de las funciones del individuo.

Y en al campo de las computadoras, su funcionamiento se basa en el principio de isofuncionalidad, es decir, de funciones obtenidas en la salida del circuito electrónico de la máquina, análogas a las funciones buscadas para la tarea, en la que ésta carece de relación directa con los procesos en los circuitos eléctricos.

En definitiva, la utilización de las ideas funcionales en los diferentes campos del conocimiento muestra un reforzamiento de las tendencias generalizadoras, la difusión de la cibernética y de las ideas cibernéticas para la investigación de fenómenos complejos. En relación con el análisis de las condiciones lógico-metodológicas de la cibernetización del conocimiento se verifica que su campo de acción crece exponencialmente.

Las investigaciones de las redes funcionales se hallan condicionadas por la forma abstracta del enunciado de los problemas, por la utilización del procesamiento matemático a partir de la técnica electrónica y los medios de optimización.

Las direcciones principales en el crecimiento de las representaciones teóricas en la ciencia se hallan ligadas con la matematización del conocimiento; ello constituye un rasgo de las ciencias desarrolladas con ayuda de formalismos matemáticos que se realizan en la axiomatización y formalización de las teorías, en la creación de modelos e hipótesis matemáticas.

Es, realmente, el carácter abstracto de las redes funcionales el que permite estudiar objetos de diversas clases, lo que hace al método flexible. El aparato lógico-matemático conduce a una comprensión más profunda del nexo interno entre los diferentes elementos de la teoría científica, revela sus estructuras y establece pronósticos bastante cercanos. La ciencia teórica surge allí donde se elaboran conceptualizaciones que permiten trabajarlas como objetos idealizados, y por lo mismo ofrecen la posibilidad de desplegar su contenido teórico.

Caja Negra o Black Box

El término Caja Negra puede hacer referencia a varios conceptos: en teoría de sistemas, se denomina caja negra a aquel elemento que es estudiado desde el punto de vista de las entradas que recibe y las salidas o respuestas que produce, sin tener en cuenta su funcionamiento interno. En aviación o navegación, la caja negra es un dispositivo que registra la actividad de los instrumentos y las conversaciones en la cabina. En sicología, caja negra hace referencia a un concepto abstracto.

Las conocidas ideas acerca de la caja negra o black box generalizadas a todas las ciencias no son sino un complejo axiomático, por lo cual la tarea investigativa consiste en elaborar un sistema de axiomas que abarquen los estados observables de entradas y salidas. Requiere, naturalmente, una formalización o descripción rigurosa de esos posibles estados de entradas y salidas, y los resultados obtenidos se consideran como determinados efectos. Posteriormente, se trata de hallar un sistema de axiomas y unas reglas deductivas con las cuales se puedan obtener aquellos efectos. Si se halla ese sistema de axiomas y reglas deductivas, la estructura de la caja negra será considerada como la interpretación del sistema axiomático dado. En tal caso, los axiomas del sistema pueden tratarse como enunciados relativos a la estructura del objeto.

No obstante, debe realizarse la salvedad de que el sistema de axiomas posee no uno sino toda una serie de modelos. Estos pueden ser o no isomorfos entre sí y por lo tanto el sistema de axiomas que es satisfecho con el modelo investigado no indica unívocamente la estructura del objeto. En ello se manifiesta cierta limitación del modelo axiomático, compensada en parte por la ventaja de poder investigar inmediatamente toda una clase de fenómenos.

Debido a que diferentes sistemas de acciones producen las mismas consecuencias, el sistema escogido -al que satisfaga el comportamiento observado en la caja negra- no puede ser considerado como la descripción única de la organización interior de dicha caja negra. Tal descripción sólo debe considerarse como una hipótesis, más o menos probable. Por cierto, no se trata de algo mágico o sobrenatural.

La cibernetización del conocimiento posee, también, diferentes niveles. Uno de ellos consiste en la elaboración de métodos y técnicas de medición y de preparación de experimentos, principalmente en relación con las computadoras y la automatización. Otro de los niveles se vincula con la adopción de modos concretos para la edificación del conocimiento teórico.

De la aplicación de los métodos cibernéticos a diferentes tareas investigativas -donde el objeto de estudio lo constituyen sistemas de control y de información complejas- se desprende que con su ayuda se lleva a cabo la formación de un nuevo conocimiento en una esfera bastante amplia de problemas cognoscitivos.

La experiencia del desarrollo de la cibernética expresa la tendencia a una aplicación cada vez más amplia de sus ideas y métodos, y se considera que ésta es un medio universal de teorización en las ciencias naturales y sociales. El enfoque cibernético se halla tan difundido en la noción actual de cultura que algunos hablan de la cibernetización de la visión del mundo.

Pero un efecto no deseado por el capitalismo fue la aceleración de una crisis sin precedentes. Es verdad que se han conocido crisis parecidas, como la que se produjo en el siglo XVIII al introducirse el telar mecánico, o a fines del siglo XIX con las máquinas a vapor, provocando en ambos casos una gran desocupación. Pero en aquellas épocas, el avance de la técnica no ponía en juego el fundamento del sistema, y ahora en cambio sí. El citado Norbert Wiener profetizó allá por 1950 que con la aparición de las nuevas herramientas, la depresión de los años treinta, parecerá una broma simpática.

Realidades Virtuales y Verdades Virtuales

Realidad virtual es un sistema tecnológico, basado en el empleo de ordenadores y otros dispositivos, cuyo fin es producir una apariencia de realidad que permita al usuario tener la sensación de estar presente en ella. Se consigue mediante la generación por ordenador de un conjunto de imágenes que son contempladas por el usuario a través de un casco provisto de un visor especial. Algunos equipos se completan con trajes y guantes equipados con sensores diseñados para simular la percepción de diferentes estímulos, que intensifican la sensación de realidad. Su aplicación, aunque centrada inicialmente en el terreno de los videojuegos, se ha extendido a otros muchos campos, como la medicina, simuladores de vuelo, estrategias de guerra, revoluciones, comportamientos sociales.

Como viéramos más arriba, la teoría de la información se basó en una investigación de características rigurosas entre la verdad, la información y la probabilidad.

El surgimiento de esta teoría provocó, a su vez, un desarrollo intensivo de las teorías del ser y del conocimiento, a raíz del desarrollo específico de la teoría de las probabilidades. De acuerdo con ello, se amplió considerablemente el campo de las aplicaciones concretas de lo probabilístico en torno al problema de la verdad.

La teoría de la información puede ser dividida en tres grandes niveles. Por una parte, el estudio de una clase de mensaje que ha de trasmitirse. Por la otra, la clase de señales -desde el punto de vista físico- portadoras. Y por la otra, los canales de comunicación por donde se trasmiten los flujos de mensajes.

Hay que señalar que en este caso, la teoría se abstrae del aspecto semántico de los mensajes, que hemos visto por separado cuando analizábamos el tema de la producción espiritual.

Al caracterizar los flujos -conjuntos- de mensajes se parte de que estos conjuntos poseen una estructura estadística, probabilística.

Como ya se sabe, en la teoría de las probabilidades existe un rasgo principal consistente en las distribuciones de las probabilidades. No obstante, pese al rol central de las distribuciones, su análisis resulta individual, insuficiente, y por ello mismo debió recurrirse a la comparación de unas distribuciones con otras y de unas estructuras probabilísticas con otras.

Se estudia el tipo de distribución de señales -es decir, la estructura de su fuente objetiva- y ello determina su correspondencia con la veracidad o efectividad de la clase de mensajes dada.

La elaboración de rigurosos medios matemáticos para la ponderación de las distribuciones ha sido una premisa para la solución de estas tareas, para las cuales han sido creados conceptos como entropía y cantidad de información.

Al comparar las distribuciones entre sí, es sencillo conocer que una de ellas sobresale de las otras, ante todo por el número de valores que pueden adoptar las correspondientes magnitudes casuales.

Además, cuando el número de valores posibles de una magnitud es igual, las distribuciones pueden diferenciarse por los valores de las probabilidades que se comparan con cada uno de estos valores de la magnitud casual.

Por cierto, el criterio general con que se permite ponderar las distribuciones debe reflejar las diferencias entre ellas. Estas consideraciones, así como otras de orden físico o matemático, han conducido a un criterio general, abstracto, de la verdad, que permite comparar cuantitativamente unas distribuciones con otras.

Allí se utiliza la teoría de la entropía de las distribuciones (entropía de su sistema probabilístico, entropía de la magnitud casual o entropía de la experiencia para medir la magnitud casual correspondiente).

Como es sabido, la entropía se caracteriza por una serie de propiedades que condicionan su aplicación a la investigación. Ante todo, se convierte en cero cuando no existe diversidad, es decir, cuando está ausente la formulación teórico-probabilística de la tarea. La magnitud casual parece caracterizarse por un valor posible.

Además, al aumentar el número de valores posibles de la magnitud casual de la entropía, aumenta, y en condiciones del número dado de valores posibles alcanza un máximo si se confrontan probabilidades iguales con cada valor de la magnitud.

Resulta esencial que la entropía posea la propiedad de la aditividad, es decir, que cuando se unifican los sistemas probabilísticos en una solo, sus respectivas entropías puedan sumarse.

Obviamente, la teoría de la información tiene amplia aplicación en el ciberespacio, en los medios, manejados por los sectores dominantes de los países centrales.

Las RV's (realidades virtuales) y los nuevos medios holográficos y de TV proyectiva (sistema láser que permite proyectar imágenes en el aire, en tridimensión y con formas cuasi palpables) pueden crear la idea o parecerían indicar que todas las mediaciones tecnológicas nos llevarán a una especie de onanismo mental (la autosatisfacción) pues niegan o pretenden negar la condición del hombre como ser social y en definitiva obedecen al mercado.

Pero existe una contradicción muy profunda entre el ciberespacio y el mercado, o entre intereses y necesidad, aunque por ahora tal cosa no se vea muy claramente. Como ya hemos analizado, la contradicción fundamental entre el desarrollo de las fuerzas productivas y el carácter y nivel de las relaciones de producción ha ingresado en un nuevo escalón.

Recordamos que Kerckhove (13) actualizó la Teoría de las Inteligencias Colectivas de Pierre Levy para adaptarla al contexto tecnológico de las redes, centrándose en el acercamiento y el encuentro sinérgico de los sujetos singulares para la consecución de un objetivo, en el ámbito de la conexión de las inteligencias. Tal conectividad refuerza y, simultáneamente, se opone a la idea de colectividad propuesta por Levy, añadiéndole a ésta la unidad fragmentada de las potencialidades de los elementos de la red. Pero no sólo se centra en la comunicabilidad de los elementos singulares, caracterizada por los nuevos medios, sino también en la posibilidad de poder crear un objeto multimedia o un artefacto cognitivo.

Kerckhove sostenía que la creación técnica comenzaba a tender hacia la fusión del pensamiento y la acción ¿No se saldaría así la discontinuidad, pero por medio del cilicio, que es naturaleza? De esa manera, el pensamiento y su subsecuente acción pasarían a ser propiedad de las cosas. ¿Tendrían razón los hilozoístas? En ese caso, el homo sapiens ya no intentaría desentrañar sino imitar a la naturaleza. ¿Como el antropoide?

Heidegger escribía que la era de la técnica ya había destruido la posibilidad de la emancipación total. Simone Weil, contrariamente a lo que pensaba Marx, no creía que la humanidad pudiera liberarse de su esclavitud laboral y tampoco creía que un sistema de reformas “un capitalismo con rostro humano” como pregonan algunos, pudiera acabar con la maldición que Marx profetizaba iría a desaparecer en una sociedad sin clases. Para Weil, el trabajo es esclavismo. Su pensamiento quizá podría compararse con el Althusser que en los primeros sesenta pensó un marxismo estructural, operado por sujetos trágicos, escindidos entre lo real y lo ideal, y cuyo sacrificio político era inevitable.

Nada de eso. El hombre está comenzando a resolver su discontinuidad con la naturaleza, a través del ciberespacio.

El grado de inserción de lo maquinal en la contemplación y transformación del mundo conduce a muchos interrogantes, y algunos autores acuden al tremendismo y al Apocalipsis. El mismo Norbert Wiener pronosticaba que sería ilusorio pensar en un mundo donde el ser humano, acostado en una hamaca, sería servido por un robot.

¿A qué le tememos? Si bien el actual ser humano no puede conocer enteramente la realidad, su propia existencia muestra que se ajusta bastante a ella, y tiene una ventaja en el sentido de que puede acudir a sus conocimientos, su fantasía e intuición, las que desde tiempos inmemoriales le permitieron avanzar en el conocimiento de la realidad. Posee ahora los mecanismos para producir realidades virtuales e inclusive acaba de asistir al descubrimiento de un ciberespacio que no se hallaba -al menos de esta manera- en la realidad anterior.

Por cierto que ese espacio, en este momento, es propiedad privada y que las máquinas por sí solas no nos liberarán. Deberemos luchar para que esa tecnología y el discurso legitimador pertenezcan al pueblo.

No se entienda como que las realidades virtuales obran o pueden obrar -en esencia- arbitrariamente, de acuerdo al antojo o los deseos de los seres humanos individuales. Tampoco se confunda la incertidumbre que surge de la ignorancia, de aquella otra que emerge de la propia naturaleza. Tanto la incertidumbre como las verdades virtuales que resultan de su paso por el razonamiento, responden a leyes, constituyen regularidades cuya infracción conduce a gruesos errores. Como planteaba Engels, la necesidad se abre paso a través de infinitas casualidades, pero hay que añadir que dicha necesidad se abrirá paso por medio de nosotros, los seres humanos.

La verdad incierta no puede ser asimilada o interpretada como lo que en lógica se denomina falacia o quebrantamiento de la recta razón, sino que debe entendérsela -en última instancia- como un mayor acercamiento a un modo de organización complejo y a un comportamiento probable de la propia naturaleza.

Las discontinuidades son por lo menos de tres clases: aquellas que obedecen al grado de abstracción de los nexos fundamentales -en la realidad objetiva, y en la conciencia-, las que son propias del sistema social y aquellas que obedecen a la visión del mundo, al corte de la realidad que nos es.

Precisamente, el conocimiento progresivo de las leyes y regularidades que expresa, va conduciendo a una profundización del saber y al dominio cada vez mayor de la naturaleza.

Todos los que adscribieron o adscriben al monismo neutral niegan la posibilidad de acceder al conocimiento directo de esa realidad objetiva. Pero es evidente que si renunciamos a la verdad objetiva o a la recta razón trasmitida a través del conocimiento empírico, renunciamos en primer lugar a la clasificación, precisión y constatación de los conceptos. Debe comprenderse que dicho conocimiento empírico es indispensable para vivir y operar con las ideas, conceptos y razonamientos que tienen la particularidad de acusar los nexos inmediatos entre los elementos y de estos con el sistema y su entorno.

Al negar este primer peldaño entre el mundo objetivo y el proceso de idealización, cerramos los portones por donde debemos ingresar hacia el conocimiento teórico, las realidades virtuales y la idealización en sus niveles más avanzados. Pero principalmente cerramos la instancia en la cual el hombre es absolutamente imprescindible. Así, entonces, sin puerta de entrada, sólo nos restaría pensar en alguna causa primigenia, ajena a los procesos de desarrollo y situada fuera del sistema y su entorno.

Sin embargo, y como ya dijimos, se observa que el surgimiento y desarrollo de espacios artificiales y la constatación de la existencia de realidades virtuales y verdades virtuales sujetas a leyes amplía enormemente nuestro campo de acción.

La Verdad Incierta

Conviene no confundir, como es obvio, la metodología de investigación con la cosa investigada. De igual forma, debe alertarse acerca de las diferencias entre el objeto de la metodología de investigación de la ciencia, con el de la ciencia misma. La teoría cuántica, por caso, estudia ciertas conexiones puramente microfísicas del universo. Por ello, tomarla como una universalidad constituye un craso error, aunque no el más grave. A mi juicio, el peor de todos es confundir la metodología de investigación de la ciencia, y en particular de la física, con la antropología o filosofía del hombre. Sin negar los puntos de contacto, que son cada vez mayores, sería intentar aplicar la física como un lecho de Procusto.

El pensamiento humano posee un discurrir que, en última instancia, resulta un consecuente del comportamiento social sistémico y del propio entorno o naturaleza. Por otra parte, también cabe reconocer su forma específica, sus particularidades. Ocuparse de la “forma de las formas” del pensamiento es tema difícil, sobre todo en estos momentos en que los fariseos se han refinado, y sacan inciertos conejos de sus desgastadas galeras.

La incertidumbre de la verdad es una para el abordaje del sistema, otra para la forma de las formas del pensamiento, otra para la sociedad en su comportamiento real, sistémico, otra para cada nivel del mundo y muy otra para el mundo de las llamadas micropartículas, cuyo componente idealizado es aún enorme.

Como hemos visto, el modo de organización de la propia materia tiene ínsito un principio de incertidumbre que parte de su composición y también de los grados de libertad con los cuales sus elementos logran la elasticidad necesaria para el desarrollo individual y global. Un desarrollo a modo de innumerables acertijos, que a partir de su resolución desencadena la fuerza para el posterior curso de los acontecimientos.

Pero la verdad, igualmente, posee muchos niveles que incluyen, en ciertos casos, a las falacias. Los niveles que son reflejo de la propia materia, los de la abstracción existente en toda la naturaleza, y los que son inherentes a la teoría del conocimiento, gnoseología (o si se quiere, a lo que se denomina ingeniería del conocimiento). Es, asimismo, objetiva y subjetiva, paradójica o virtual.

El ángulo de incidencia es igual al ángulo de reflexión, la distancia más corta entre dos puntos es la línea recta. Cuando los profesores comenzaban a explicarnos la verdad, daban ejemplos así, pues resultaba más fácil hallarlos en lo formal. Pero lo formal es lo menos verosímil.

Durante muchísimo tiempo se vio a la verdad como eterna e inmutable, llegada desde afuera y anterior a los tiempos. La filosofía epicúrea, por ejemplo, pensó en ella como la serenidad que se identificaba con la separación entre el hombre y el mundo.

Los dioses vivían en el intermundo o Cielo, en una dimensión de la realidad donde la estructura de la materia era igualmente rígida y eterna, aun cuando regulada por leyes que al hombre le resultaban extrañas e insondables. Este sólo podía entenderse con verdades aparentes propias de la inevitabilidad fenomenológica del movimiento, y las imágenes (Idola y Simulacra) constituían reflejo condicionado propio del ser pensante.

Es decir, que el cambio tenía cualidades de verdad abstracta, pero ello se contradecía con la idea socrática de ordenarlo todo a través de la veracidad de la recta razón, aún admitiendo la contradicción y el cambio en el pensamiento y en la naturaleza, pero subordinándolo a la verdad acartonada.

El escolasticismo llegó al cenit de ese afán de ordenamiento, pero la realidad objetiva presentaba una tendencia al desorden -natural en las cosas, siempre hacia el estado aparentemente caótico- que no encajaba con la verdad inmutable y eterna.

La explicación de la verdad encerraba así una insoluble contradicción, pues justamente durante largo tiempo se puso el acento en las cosas aun cuando algunos pensadores –Berkeley and otros.- las negaran o reclamaran su incognoscibilidad, sin tener en cuenta mayormente la teoría sistémica, su carácter problemático, sus conexiones, sus virtualidades y sus tendencias.

Werner Heisenberg (14) no dijo nada nuevo cuando afirmó que en la física moderna no se ha dividido al mundo en diferentes grupos de objetos, sino en grupos diferentes de conexiones. Lo visible es la clase de conexiones que importan dentro de un determinado fenómeno, y que en el ámbito general (tales conexiones) son como una maraña de sucesos que determinan la textura del conjunto.

En mecánica cuántica, la relación de indeterminación de Heisenberg o principio de incertidumbre afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y el momento lineal (cantidad de movimiento) de un objeto dado. En otras palabras, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal y, por tanto, su velocidad. Esto implica que las partículas, en su movimiento, no tienen asociada una trayectoria bien definida. Este principio fue enunciado por Werner Heisenberg en 1927, pero resulta que la información portada en esas partículas tiene una dirección, un objetivo, un target e inclusive una economía.

Las realidades virtuales son tan viejas como el mundo, pero este fin de milenio ha colocado en primer plano a lo inmaterial de otra manera, sobre todo a través de los descubrimientos científicos, conducidos por las fibras ópticas y las maquinaciones informáticas. La teoría de los fractales y la de los conjuntos borrosos avalan el comportamiento incierto de la realidad.

Todas las herramientas que a partir del homo habilis fuimos construyendo -desde aquel famoso palo con el cual el homínido alcanzó la fruta del árbol- nos han ido modificando en tanto nosotros modificábamos al mundo. Como ya dijimos, la disyuntiva era o imitar o desentrañar la naturaleza, y nosotros optamos por esta segunda vía. Nuestro pensamiento así fue “cosificándose” en bienes, y la naturaleza fue abstraída para su mejor modificación. Una causalidad mutua hizo que naturaleza, ser humano y herramienta fueran resultando una sola cosa (sistema y entorno). Las herramientas hachelenses acabaron siendo máquinas cada vez más complejas, y finalmente la ciencia se hizo -a través de ellas- fuerza productiva directa. Las máquinas participaron de una nueva organización del trabajo y de la producción, realizando trabajo necesario no sólo para reproducir al operario sino también nuevas y más sofisticadas máquinas, que al parecer cambian más rápidamente que el propio homo sapiens.

El hombre ha desarrollado máquinas que, ahora se entiende mejor, comienzan -en cierto sentido- con una aceleración sin precedentes a sobrepasar el espacio y el tiempo antiguos. Una nueva y vieja causalidad mutua impulsan al homo sapiens más allá de sus verdades, y el sujeto histórico -ocupando la base de la producción y capaz de analizar al universo con su sola razón- parecería ser, en este nuevo escenario, el socio menor cuando no el desplazado.

La máquina, ese molesto socio del que hablábamos, va contribuyendo a determinar algunas verdades que parecen diferentes a las puramente humanas, mucho más inciertas y aparentemente caóticas. En primer lugar, porque al observar por medio de ella las intimidades de la materia, ésta se perturba.

Penetra, asimismo y cada vez más, en la organización de la producción y con ella en sus necesidades y hambre, distintas a las del ser humano. Implica un tipo de estructura productiva y social que origina una organización con jerarquías y desigualdades nuevas entre los humanos, permitiendo que una elite la usufructúe (aunque si algún miembro de esa elite se equivoca, es dejado de lado por la propia máquina). Sin embargo, las máquinas no gozan de absolutidad, y no veo la posibilidad de una civilización de máquinas.

La marginalidad y el pauperismo asisten a una sociedad dividida en clases que se precipita hacia oscuros abismos Recuérdese aquella plebe holgazana que rodeaba a la antigua Roma, aunque ahora la marginalidad adquiere otros ribetes, ya no es sólo territorial o determinada por la posesión de bienes materiales, sino que además, alcanza a todos los que no se imbriquen en los teclados y monitores, quienes resultan así analfabetos tecnológicos y excomulgados del sistema.

Los gastos improductivos y los fenómenos de contraproductividad social generalizada arrojan a la periferia o a la marginalidad a hemisferios enteros y a sectores sociales cada vez más amplios, quienes a su vez crean una economía y una cultura contestatarias o en negro, violentas y falsas, de mucha más baja productividad pero también crecientes. ¿Los marginales serían la nueva facie de los recolectores, e inclusive, el llamado tercer mundo, el recolector de la humanidad? Pero hete aquí que ahora la marginalidad se extiende a enormes contingentes de los países desarrollados. ¿Están expresando una nueva ley de población?

Se sabe que toda conexión necesaria es, a la vez, una discontinuidad. Que toda relación esencial es, a la vez, conectiva y conflictiva. De manera que cuando se habla de discontinuidades hay que pensar que en este extraño mundo, como diría Einstein, toda identidad conlleva una contradicción fundamental.

Las verdades de la máquina se corresponden sólo hasta cierto punto con las verdades del hombre, y el panorama se complica aún más por la relación continuidad/discontinuidad -que aparentemente se ahonda- entre el humano y los elementos que emergen en su cultura.

Pero la discontinuidad no es solamente una idea, o por mejor decir es una idea que responde, en última instancia, a la no-linealidad del sistema, a la verdad problemática, al principio de incertidumbre propias de la estructura. Como señalaba Prigogine, los procesos irreversibles ponen en juego las nociones de estructura, función, historia. En esta nueva perspectiva, la irreversibilidad es fuente de un nuevo orden y creadora de organización.

En este contexto, la verdad puede definirse como de un nivel por vez, en un marco espacio temporal, en un significado y en un sentido, en una constancia fehaciente. La constancia ha de ser aquélla que reúna las condiciones bajo las cuales transcurren los fenómenos o se hacen los experimentos, es decir, una constancia de la cual podamos decir que las condiciones de realización de dos o más sucesos o experimentos son iguales sólo cuando no podemos establecer su diferencia.

Las verdades pueden, asimismo, ser abstractas o concreto-mentales, formales o de contenido, siendo, asimismo, objetivas y subjetivas, paradójicas o virtuales.. Las cosas -como ya dijimos- no pueden ser verdaderas o falsas porque existen objetivamente en un contexto sistémico real. Francisco Romero enseñaba que la verdad final (o la intuición que todo lo esclarece) brota, no como resultado, sino como un desenlace. La verdad o la falacia no se hallan en las cosas y procesos, sino en nuestra interpretación, puesto que los hechos son siempre verdaderos.

Toda la filosofía contemplativa puso el acento en las verdades del alma, sin ver mayormente el carácter problemático, las transconexiones, la urdimbre de la verdad, sus virtualidades y tendencias, su existencia real en los procesos. A la postre, estos últimos resultaron ser más verdaderos que el Cielo.

Cada elemento transcuántico y cada macroelemento conectan entre sí y con la materia a todo nivel -incluido el sistémico y el medio en que éste existe- en infinitos nexos que no pueden reducirse a mediciones cuantitativas de orden métrico o geométrico, sino que cada elemento y cada conexión actúan en forma determinista y a la vez creativa -con diversos grados de libertad- y aquello que en un enfoque es nexo en otro puede ser elemento.

Esos elementos, nexos e interacciones no se circunscriben a existir o a no existir, a ocupar un lugar o a no ocuparlo, a desplazarse o no desplazarse, a tener aristas constantes y variables. En efecto, además de ello van más hondo, se ubican dentro de lo que es la estrategia del sistema moviéndose a través de formas casuales de materia y siendo portadores de un determinado orden, aun cuando aparezcan como caóticos.

Sin estas formas casuales, participar del espacio-tiempo puede ser un dato para conocer si un objeto existe o no existe a macronivel, pero no cuál es su cometido, cuál su sentido y significado. Un sentido y significado que se expresan en el ámbito estadístico, necesario.

Es decir, lo que significa la función de cada nivel de organización de la materia desde el punto de vista físico, químico, biológico, cibernético, social., en su especificidad y en sus conexiones a todo nivel.

Como sabemos, el sistema materia no se compone solamente de elementos físicos sino que existe una funcionalidad y un complejo enlace de las formas casuales de la materia y de su transformación recíproca merced a leyes sistémicas.

Bibliografía:
1) Margulis Lynn, Teoría de la Simbiosis Cerrada. Evolutionary Consequences of Endosymbiosis: Origin of the nucleus. University of Massachussets/Amherst, USA, 1999
2) Craig Venter, El Padre del Genoma Humano en El Mundo.es del 21/5/2010
3) Platón, Fedro, Madrid, Instituto de Estudios Políticos, 1970
4) Descartes Rene, Las Pasiones del Alma, Biblioteca Nueva, Madrid,2006
5) Malebranche Nicolás, Investigación sobre la verdad, Sígueme, Salamanca, 2009.
6) Strauss Leo, Renacimiento del Racionalismo Político Clásico, Amorrortu, Bs.As, 2007
7) Acerca de Ebbinghauss existe un buen estudio en castellano: Ruiz Vargas J.M., La Memoria Humana. Función y Estructura, Alianza, Madrid.
8) Lajo Javier, Chapaq Ñan, La Ruta Inca de Sabiduría, Amaru Runa ediciones, Lima, 2005
9) Laurencich Minelli Laura, Breve reseña de los documentos Miccinelli en el ámbito del simposio “Guaman Poma de Ayala y Blas Valera. Tradición Andina e Historia Colonial” Universidad de Bologna, Italia, 2004
10) Ascher, M. & R. Ascher 1981 Code of the Quipu, A Study in Media, Mathematics and Cultures. University of Michigan Press, Ann Arbor.
Acosta, J.
Ver también: 1954 [1590] Historia Natural y Moral de las Indias. BAE, Madrid.
Altamura, L 2001 Relazione di consulenza concernente la verifica di scritture.Actas del coloquio Internacional: Guáman Poma y Blas Valera. Tradición Andina e Historia Colonial, Roma,29-30 Setiembre 1999) F. Cantú ( ed.), pp. 143-170. Pellecani, Roma. Anónimo
1992 [1879] De las costumbres de los naturales del antiguo Perú. En Varios. Antigüedades del Perú, Crónicas de América 70, Urbano H. y Sánchez A. (eds), pp. 45-122, Historia 16, Madrid.
Ansion, J.1990 Como calculaban los Incas En Quipu y Yupana. Colección de escritos, C. Mackey, H. Pereyra, C. Radicati, H. Rodriguez, O. Valverde (eds.), pp. 257-266, CONCYTEC, Lima.
Arnold, D. y J. de Dios Yapita
2000 El rincón de las cabezas. Luchas textuales, educación y tierras en los Andes. No. 9, Universidad Mayor de San Andrés, La Paz.
11) Janet Paul, El Materialismo Contemporáneo, versión digitalizada, traducción de Dr. Aguilar y Lara
12) Spearman Charles Edward, Las Habilidades del Hombre. Naturaleza y Medición Introducción de Jaime Berstein, Paidos, Buenos Aires, 1955
13) Wiener Norbert, Inventar sobre la Gestación y el Cultivo de las Ideas, Tusquets, Barcelona, 2002. The theory of Prediction (1956) Beckenback, E.F.(ed.)"Modern Mathematics for Engineers'. New-York, McGraw-Hill.
14) Ver acerca de la teoría de MacCulloch y Pitts: D. Michie, D.J. Spiegelhalter, C.C. Taylor (eds). Machine Learning, Neural and Statistical Classification, 1994. R. Rojas. Neural Networks: A Systematic Introduction, Springer, 1996 .
15) Durkheim, Émile. Escritos Selectos. Introducción y selección de Anthony Giddens. [Trad. Ricardo Figueroa]. Buenos Aires: Nueva Visión, 1993
16) Karckhove Derrick de: La piel de la cultura: investigando la nueva realidad electrónica, Barcelona, Gedisa, 1999.
Además: Inteligencias en conexión: hacia una sociedad de la web, Barcelona, Gedisa, 1999.
Brainframes: Technology, Mind And Business, Bosch & Keuning, 1991.
Connected Intelligence: the arrival of the web society, Somerville House, USA, 1997. The Skin of Culture: Investigating the New Electronic Reality, Kogan Page Ltd, 1998. The Architecture of Intelligence (The Information Technology Revolution in Architecture), Birkhäuser Basel, 2001.
17)Heisenberg Werner, ver: D.A. Arbastsky, The Certainty Principle, Lomonosov, Moscú, 2006

Ver también:


Haga click aquí para recibir gratis Argenpress en su correo electrónico.