Ciencia y salud , cada día surgen nuevos descubrimientos muy interesantes e importantes. El caso de las bacterias intestinales y el cerebro


Transcripción del audio ( en inglés )

Copyright ©2013 NPR. For personal, noncommercial use only. See Terms of Use. For other uses, prior permission required.


This is MORNING EDITION from NPR News. Good morning, I’m Renee Montagne.


And I’m Steve Inskeep.

Today in Your Health: How the bacteria in your gut may affect your brain. Doctors have long had clues that there may be a connection between what’s going on in our heads and what’s going on in other parts of our bodies.

MONTAGNE: We all know, for example, that we can get pretty down when we’re feeling sick and that our moods lift when we get better. Well, scientists are starting to think about this brain-body connection in a whole new way. And that’s because of something we’ve been hearing a lot about lately: the microbes that live in the human body.

INSKEEP: Turns out you really can have a gut feeling about something, because evidence has been mounting that those microbes in the body may be important for our emotional health as well as our physical health.

NPR’s Rob Stein has been exploring the role that our microbes play in our lives in a series of stories over the last few months. And in the final installment, Rob brings us this report about our microbes and our minds.

ROB STEIN, BYLINE: It’s early on a Monday morning at the UCLA brain scanning center and Dr. Emeran Mayer is getting ready to peer into someone’s brain.

DR. EMERAN MAYER: We’re standing in the control room here. The patient is inside the scanning room, not in the scanner itself yet.

STEIN: The patient isn’t really a patient at all. She’s Pria Tewari, a healthy 29-year-old who volunteered for Mayer’s research.

PRIA TEWARI: Growing up in India we believe that what you eat influences your thoughts.

STEIN: So she’s here today to help Mayer explore this notion that the microbes that eat what we eat influence our minds.



STEIN: A nurse helps her get into the giant MRI brain scanner.

UNIDENTIFIED WOMAN: OK, Pria, so take a nice deep breath for me, hon. In and out through your mouth.

STEIN: Once she’s settled in and the MRI is all set up, the scanning begins.


MAYER: So the first image that was taken, that we just saw on the computer screen, will allow us to extract information regarding, it’s what we call the brain signature.

STEIN: A signature of the overall structure of the brain, which Mayer hopes will help answer some provocative questions: Do the trillions of microbes that live in our bodies help mold our brains as we’re growing up? Do they continue to influence our moods, behavior and feelings when we’re adults? It’s something, Mayer says, that has never really been explored before.

MAYER: It really happens rarely in science that you sort of stumble into an area that all of a sudden opens up this completely new frontier.

STEIN: A frontier that could help explain that old idea of gut feelings. And Mayer thinks he already has the first good clues this may be true, after analyzing about 60 volunteers like Pria.

MAYER: We found that the type of community you have, of microbes you have in your gut, is reflected in some ways in some basic architectural aspects of the brain.

STEIN: The brain connections of people whose microbes are dominated by one species of bacteria look different than those of people whose microbes are dominated by another species. That suggests that the specific mix of microbes in our guts helps determine what kinds of brains we have, how our brain circuits develop, how they’re wired.

MAYER: The brain circuits obviously determine certain ways of how we perceive the world and react to the world outside of us.

STEIN: This could help explain why some people are born with brains that don’t work the way they’re supposed to, causing problems like autism, anxiety, depression.

MAYER: It opens up a completely new way of looking at brain function and health and disease. I think that’s, you know, kind of a revolutionary concept.

STEIN: So Mayer is scanning hundreds of volunteers like Pria to see if what he’s found so far holds up.


STEIN: They move onto the next scan.

UNIDENTIFIED WOMAN: So your instructions for this scan are to close your eyes and rest but don’t go to sleep. OK?


STEIN: They want to get a picture of Pria’s brain when she’s doing absolutely nothing.

UNIDENTIFIED WOMAN: During that scan, did you have any pain or discomfort at all?

TEWARI: No, slight itching there.


STEIN: Now, the obvious question about all this is: How? How could bacteria in our bodies affect our brains? Well, the first clues came from experiments conducted in Europe and Canada.

STEPHEN COLLINS: My name is Stephen Collins. I’m a professor of medicine at McMaster University Medical School in Hamilton, Ontario, Canada.

STEIN: Collins is among the researchers who did these experiments. It’s hard to study this stuff in humans. So they used mice. They did things like replace the gut bacteria of anxious mice with bacteria from fearless mice.

COLLINS: And this resulted in a change in behavior. The mice became a little bit less anxious, a little bit more gregarious.

STEIN: It worked the other way around too. The bold mice became timid when they got the microbes of anxious ones. Aggressive mice also calmed down when the scientists altered their microbes by changing their diet, feeding them probiotics, or dosing them with antibiotics.

COLLINS: We saw changes in the brain chemistry in a region called the hippocampus, which is part of the brain that’s involved in emotion and mood and so forth, and found that a very important chemical called brain-derived neurotrophic factor was increased.

STEIN: Finally, these scientists figured out how the microbes in the guts of the mice were communicating with their brains – by sending signals up a big nerve known as the vagus nerve.

All this is raising the possibility that scientists could create drugs that mimic these signals. Or just give people the good bacteria – probiotics – to prevent or treat problems involving the brain.

Researchers in Baltimore, for example, are studying one probiotic. Faith Dickerson is a psychologist at the Sheppard Pratt Hospital who is leading that study.

DR. FAITH DICKERSON: The idea is that these probiotic treatments may alter what we call the microbiome and then may contribute to an improvement of psychiatric symptoms.

STEIN: Symptoms like mania in patients suffering from bipolar disorder. Patients like Leah, who ended up being hospitalized after one manic episode. We agreed not to use her full name.

LEAH: I had really bad anxiety and I took Xanax and I took too much Xanax.

STEIN: While she was recovering, Leah heard about the probiotic study and decided to volunteer.

LEAH: It makes perfect sense to me. You know, your brain is just another organ. You know, it’s definitely affected by what goes on in the rest of your body.

STEIN: It’s too soon to know whether the probiotic being tested in that study is helping. But Leah suspects it might be.

LEAH: It seems like, you know, maybe it helped me because, you know, I’m doing really well and like, I’m about to graduate college and I’m just, you know, doing everything right.

UNIDENTIFIED WOMAN: All righty. So we are going to move on to the final scan, OK?

STEIN: Back at UCLA, Mayer’s team is almost done scanning Pria Tewari’s brain.


STEIN: While they’re finishing up, Mayer explains that he’s also been studying the effects of probiotics on the brain. He gave healthy women yogurt containing a probiotic and then scanned their brains, and found subtle signs that the brain circuits involved in anxiety were less reactive.

MAYER: It’s the first time that it’s been demonstrated in a controlled study that if you alter the gut microorganisms or microbes, that this affects the brain in a fairly profound fashion in healthy people.

STEIN: Mayer says a lot more work will be needed to know whether the probiotic they used in that study – or any probiotics – really can help people feel less anxious.

But Pria Tewari, the volunteer getting scanned today, was in that study too. She thinks maybe, just maybe, she might have noticed something. She was going for her Ph.D. at the time and thought she’d be totally stressed out.

TEWARI: I’d say I definitely, like my anxiety levels were low considering my, my own personal thing that I was going through.

STEIN: It’s clear scientists still have a long way to go in all this. But the evidence that’s starting to emerge suggests that we probably can’t ignore the possibility that our microbes may be affecting our minds.

Rob Stein, NPR News.

INSKEEP: For more about this series including an animation about our friendly microbes – something for your microbes to think about – go to

Copyright © 2013 NPR. All rights reserved. No quotes from the materials contained herein may be used in any media without attribution to NPR. This transcript is provided for personal, noncommercial use only, pursuant to our Terms of Use. Any other use requires NPR’s prior permission. Visit our permissions page for further information.

NPR transcripts are created on a rush deadline by a contractor for NPR, and accuracy and availability may vary. This text may not be in its final form and may be updated or revised in the future. Please be aware that the authoritative record of NPR’s programming is the audio.

Agamben el poder desconstituyente y la telecracia según Bernard Stiegler


La conferencia de Giorgio Agamben en Atenas el pasado año, 2013, resulta muy interesante para tratar de comprender los mecanismos de la actual técnica de gobierno que maneja la clase política europea, y quizá el texto sobre la telecracia, que se define desde los estudios del filósofo francés Bernard Stiegler, complementando uno y otro punto de vista, ayuden a trazar mapas – guía para apoyar la necesaria praxis , las vías posibles de acción social y política en la UE del momento presente, y quizá , adaptados a diversos países y regiones del mundo, ayuden a ese trabajo de praxis tan urgente como necesario


Una reflexión sobre el destino de la democracia hoy en Atenas parece algo inquietante, porque nos obliga a pensar el fin de la democracia en el mismo lugar donde nació. De hecho, la hipótesis que me gustaría proponer es que el paradigma gubernamental que prevalece hoy en Europa no solamente no es democrático, sino que tampoco puede considerarse político. Intentaré por lo tanto mostrar que la sociedad europea hoy ha dejado de ser una sociedad política: es algo completamente nuevo, para lo que carecemos de una terminología apropiada y que por lo tanto nos obliga a inventar una nueva estrategia.

Quisiera comenzar con el concepto que parece, a partir de septiembre de 2001, haber remplazado toda noción política: la seguridad. Como sabemos, la formula “por razones de seguridad” opera hoy en múltiples campos, desde la vida cotidiana hasta los conflictos internacionales, como contraseña para imponer medidas que la población no tendría por qué aceptar. Yo quisiera mostrar que el verdadero propósito de las medidas de seguridad no es, como se asume actualmente, prevenir riesgos, peligros, o incluso catástrofes. Por lo tanto, creo conveniente llevar a cabo una pequeña genealogía del concepto de “seguridad”.

Una forma de trazar tal genealogía sería inscribir su origen y su historia en el paradigma del Estado de excepción. Desde esta perspectiva, podemos rastrearlo en el principio romano Salus publica suprema lex, el bien del pueblo es la seguridad suprema, y conectarlo con el principio canónico la necesidad no reconoce ninguna ley en la dictadura romana, con los comités de salut publiquedurante la Revolución Francesa, y finalmente en el artículo 48 de la República de Weimar, que fue el fundamento jurídico del régimen nazi. Dicha genealogía es ciertamente posible, pero no creo que explique el funcionamiento del aparato y las medidas de seguridad hoy conocidas. Mientras que el Estado de excepción inicialmente se concibió como una medida provisional, cuyo propósito era superar el peligro inmediato con el fin de restablecer la normalidad, las medidas de seguridad constituyen hoy una tecnología permanente de gobierno. Cuando en el 2003 yo publiqué un libro en el cual intenté mostrar justamente cómo el Estado de excepción se normalizaba en el sistema democrático en Occidente, no imaginaba que mi diagnóstico fuese tan certero.  El único precedente era el nazismo. Cuando Hitler tomó el poder en febrero de 1933, proclamó inmediatamente un decreto suspendiendo los artículos de la constitución de Weimar sobre las libertades personales. El decreto no fue revocado, por lo que pudiéramos considerar el Tercer Reich como un Estado de excepción que duró doce años.

Lo que sucede hoy es completamente distinto. Un estado de excepción no es declarado formalmente, sino que aparecen vagas nociones no-jurídicas –como la de “medidas de seguridad”– instrumentalizadas para instaurar una estabilidad de emergencia ficticia sin una amenaza concreta. Un ejemplo de tal noción no-jurídica, instrumentalizada en tanto emergencia, la podemos encontrar en el concepto de “crisis”. Además del sentido jurídico de la sentencia en el juicio, dos tradiciones semánticas convergen en la historia del término que, como ustedes saben, proviene del verbo griegocrino:  una médica y otra teológica. En la tradición médica, crisis significa el momento en donde el doctor debe de juzgar y decidir si el paciente muere o sobrevive. Se le llama crisimoi al día o a los días en que se toma esta decisión. En la teología, crisis es el último juicio pronunciado por Cristo al final de los tiempos. Como pueden ver, lo que es esencial en ambas tradiciones es la conexión con un cierto momento en el tiempo. En el uso contemporáneo de este término, esta conexión es precisamente lo que queda abolido. La crisis, el juicio, es separado de su índice temporal, coincidiendo con el curso cronológico del tiempo, de tal forma que, no solamente en la economía y la política, sino que en todo aspecto de la vida social, la crisis coincide con la normalidad, transformándose de esta manera en un mero instrumento de gobierno. Por lo tanto, la capacidad de decisión definitiva desaparece, mientras que el proceso de toma de decisión no decide nada. Para ponerlo en términos paradójicos, podríamos decir que, teniendo que enfrentar un Estado de excepción permanente, el gobierno tiende a tomar la forma de un golpe de Estado (coup d’état) perpetuo. Por cierto, esta paradoja es una caracterización precisa de lo que sucede tanto en Grecia como en Italia, donde gobernar significa llevar a cabo una continua serie de pequeños golpes de Estado. El actual gobierno italiano es ilegítimo.

Es por esta razón que pienso que, para poder entender la gubernamentalidad en la cual vivimos, el paradigma del Estado de excepción no es del todo adecuado. Siguiendo a Michel Foucault, indagaré en el origen del concepto de seguridad al comienzo de la economía moderna, a partir de François Quesnay y los Fisiócratas, cuya influencia en la gubernamentalidad moderna no debe desestimarse. Comenzando con el Tratado de Westfalia, los grandes Estados absolutistas europeos comenzaron a introducir en el discurso político la idea de que el soberano tiene que encargarse de la seguridad de sus súbditos. Sin embargo, Quesnay es el primero en establecer la seguridad (sureté) como noción central en la teoría de gobierno de una manera particular.

Uno de los problemas que los gobiernos tuvieron que enfrentar en su momento fue el problema de las hambrunas. Antes de Quesnay, la metodología tradicional intentaba prevenir las hambrunas mediante la creación de graneros y limitando la exportación de cereales. Ambas medidas tuvieron efectos devastadores para la producción. La idea de Quesnay era la de revertir el proceso: en lugar de intentar prevenir las hambrunas, propuso dejar que ocurrieran para así regularlas una vez ocurridas, y de esta manera permitir el intercambio interno y externo. “Gobernar” retiene aquí su sentido etimológico de cibernético: un buen kybernes, como un buen piloto no evade tempestades, pero si la tempestad ocurre, debe poder gobernar su embarcación, utilizando la fuerza de las olas y el viento para navegar. Este es el sentido del famoso lema “laisser faire, laissez passer”: no sólo es la clave del liberalismo económico, sino que también es el paradigma de gobierno que concibe la seguridad (sureté, según Quesnay) no como medida preventiva, sino más bien como la habilidad de gobernar y conducirse por un buen camino.

No debemos ignorar las implicaciones filosóficas de esta inversión. Constituye una transformación epocal de la idea misma de gobierno, que invierte la relación jerárquica entre causa y efecto. Ya que gobernar las causas es difícil y costoso, es más seguro y práctico intentar gobernar los efectos. Me gustaría sugerir que este teorema de Quesnay es el axioma de la gubernamentalidad moderna. Elancien régime intentó gobernar las causas, la modernidad pretende controlar los efectos. Y este axioma se aplica en todos los campos: desde la economía hasta la ecología, desde la política exterior y militar hasta las medidas internas de seguridad. Debemos asumir que los gobiernos europeos de hoy han cedido en el intento de gobernar las causas. Ahora sólo buscan gobernar los efectos. El teorema de Quesnay hace comprensible algo que de otra forma sería inexplicable: me refiero a la convergencia paradójica en el presente de un paradigma liberal absoluto en la economía, con un paradigma igualmente absoluto y sin precedentes de control estatal y policial. Si los gobiernos atienden los efectos y no las causas, se verán obligados a extender y multiplicar los controles. Las causas demandan ser conocidas, mientras que los efectos sólo pueden ser revisados y controlados.   

Una importante esfera en donde este axioma opera es el de los aparatos de seguridad biométricos, que cada vez con mayor fuerza invaden todos los aspectos de la vida social. Cuando las tecnologías biométricas aparecieron por vez primera en el siglo XVIII en Francia con Alphonse Bertillon, y en Inglaterra con Francis Galton, el inventor de las huellas digitales, obviamente no buscaban prevenir el crimen, sino reconocer a los delincuentes reincidentes. Sólo cuando el crimen ocurre por segunda ocasión, la información biométrica identifica al ofensor.

Las tecnologías biométricas que fueron inventadas para criminales reincidentes, permanecieron por mucho tiempo como su privilegio exclusivo. En 1943, el Congreso de Estados Unidos rechazó el Citizen Identificacion Act, que pretendía introducir para cada ciudadano una credencial de identidad (Identity Card) con huellas digitales. Sin embargo, por una cierta fatalidad o ley no escrita de la modernidad, las tecnologías que habían sido inventadas para animales, criminales, extranjeros, o judíos, finalmente se harían extensivas a todos los seres humanos. De ahí que en el curso del siglo XX, las tecnologías biométricas hayan sido aplicadas a todos los ciudadanos, y la fotografía métrica de Bertillon y las huellas digitales de Galton sean usadas en todos los países como recurso de identificación.

Pero el paso extremo tan sólo se ha tomado en nuestros días y aún se encuentra en proceso de completarse. Con el desarrollo de nuevas tecnologías digitales, con escáneres ópticos que pueden fácilmente registrar no sólo las huellas digitales, sino también la retina o el iris, los aparatos biométricos parecen desplazarse más allá de las estaciones de policía y oficinas de migración hacia la vida cotidiana. En muchos países, el acceso a comedores estudiantiles o incluso a las escuelas es controlado por un aparato biométrico donde el estudiante debe posar su mano. Las industrias europeas en este sector, que crece rápidamente, recomiendan a los ciudadanos que se acostumbren a este tipo de controles desde temprana edad. Este fenómeno es realmente preocupante, puesto que las comisiones europeas para el desarrollo de la seguridad (como la ESPR, European Security Research Program), tienen como miembros permanentes a grandes corporaciones como Thales, Finmeccanica, EADS et BAE System, que se han volcado al negocio de la seguridad.

Es fácil imaginar los peligros que representaría un poder que tuviera a su disposición un acceso ilimitado a la información genética y biométrica de todos sus ciudadanos. Con un poder así, el exterminio de los judíos que se llevó a cabo dentro de un sistema menos eficiente en cuanto al registro poblacional, podría ser total e increíblemente expedito. Pero no me detendré en este aspecto importante del problema de la seguridad. Las reflexiones que me gustaría compartir con ustedes tienen que ver, en cambio, con la transformación de la identidad y las relaciones políticas que están inscritas en las tecnologías de seguridad. Esta transformación es tan extrema, que nos podemos preguntar legítimamente no sólo si la sociedad en que vivimos sigue siendo democrática, pero también si esta sociedad puede seguir considerándose política.

Christian Meier ha demostrado cómo en el siglo V a.C., una transformación conceptual de lo político tuvo lugar en Atenas, basada en lo que él llama la politización (politisierung) de la ciudadanía*.  Hasta ese momento, la pertenencia a la polis se definía por una serie de condiciones de estatus social de distinta índole –por ejemplo, pertenecer a la nobleza o ciertas prácticas rituales, ser campesino o mercader, ser miembro de cierta familia, etc.– a partir de ahí la ciudadanía devino en el principio fundamental de la identidad social.

El resultado fue una concepción nominal griega de la ciudadanía, en la que el hecho de que los hombres se comportasen como ciudadanos, alcanzó una forma institucional. La pertenencia a comunidades religiosas o económicas fue desplazada a un segundo plano. Los ciudadanos de una democracia se consideraban a sí mismos como miembros de una polis, siempre y cuando se dedicaran a la vida política. Polis y politeia, ciudad y ciudadanía se constituían y se definían mutualmente. La ciudadanía devino así en una forma de vida, mediante la cual la polis se constituye en una esfera claramente separada del oikos, la casa. La política se transformó, entonces, en un espacio público libre, que como tal se oponía al espacio privado, entendido como el reino de la necesidad”. Según Meier, el proceso griego de politización fue transferido a la política occidental, donde la ciudadanía permaneció como un elemento decisivo.

La hipótesis que me gustaría proponerles es que este factor político fundamental ha entrado en un proceso irrevocable que tan sólo podemos definir en tanto proceso de ascendente despolitización. Lo que en un principio fue una actividad de la vida, una condición esencial e irreduciblemente activa, se ha convertido en nuestros tiempos en un estado puramente jurídico pasivo, en el cual la acción e inacción, lo privado y lo público se vuelven imprecisos. Este proceso de despolitización ciudadana es tan evidente que no hace falta detenerse en ello.

Intentaré mostrar, en cambio, cómo el paradigma y los aparatos de seguridad han jugado un papel decisivo en este proceso. El incremento del uso de estas tecnologías que fueron concebidas para criminales tiene consecuencias inevitables en la identidad política del ciudadano. Por primera vez en la historia de la humanidad, la identidad deja de ser una función de la personalidad social basada en el reconocimiento de los otros, y deviene en función que se desprende de los datos biológicos, como los arabescos que dibujan las huellas digitales o la doble hélice del ADN. La cosa más neutral y privada se transforma en el factor decisivo de la identidad social, y la identidad social pierde de esta manera su carácter público. 

Si mi identidad está determinada ahora por características biológicas, que en forma alguna dependen de mi voluntad y sobre las cuales no tengo ningún control, entonces la construcción de una identidad política y ética se vuelve problemática. ¿Qué relación puedo establecer con mis huellas digitales o con mi código genético? La nueva identidad es una identidad sin persona, en la que el espacio político y ético pierde su sentido y exige repensarse nuevamente. Mientras que el ciudadano griego era definido mediante la oposición entre lo privado y lo público, el oikos, como el lugar de la vida productiva, y la polis, como espacio de la acción política, el ciudadano moderno parece entrar en una zona de indeterminación entre lo privado y lo público, o para ponerlo en términos de Hobbes, entre un cuerpo físico y  otro político.

La materialización en el espacio de esta zona de indeterminación son las cámaras de vigilancia que pueblan las calles y plazas de nuestras ciudades. Aquí tenemos un aparato concebido para las prisiones que se extiende al espacio público. Pero es evidente que un espacio público video grabado deja de funcionar como ágora, convirtiéndose en un híbrido entre público y privado, una zona de indeterminación entre prisión y foro. Esta transformación del espacio político es ciertamente un fenómeno complejo con causas diversas, pero sin duda el nacimiento del biopoder ocupa un lugar central. La primacía de la entidad biológica sobre la identidad política está claramente entretejida con la politización de la vida desnuda en los estados modernos. Pero no hay que descartar que la equiparación de la identidad social con la identidad corporal comenzó con el intento de identificar criminales reincidentes. No debería de asombrarnos si hoy la relación normativa entre Estado y ciudadanía se define por la sospecha, el registro y control policiaco. El principio no dicho que regula nuestra sociedad puede formularse de la siguiente forma: cada ciudadano es un terrorista en potencia. Pero,  ¿en qué acaba un Estado que se rige bajo este principio? ¿Sigue siendo un Estado democrático? ¿Sigue siendo político? En qué clase de Estado vivimos hoy?

Como ustedes quizás ya saben, Michel Foucault en su libro Surveiller et punir, así como en sus cursos en el Collège de France, trazó una clasificación tipológica de los Estados modernos. Él demostró que el Estado del ancien régime –al que llamó el Estado soberano o territorial, y cuyo lema fue faire mourir et laisser vivre– evoluciona progresivamente hacia un Estado poblacional y un Estado disciplinario, cuyo lema es ahora faire vivre et laisser mourir, haciéndose cargo de la vida de los ciudadanos para producir cuerpos sanos, manejables y dóciles.

Vivimos actualmente en un Estado que ha dejado de ser disciplinario. Gilles Deleuze lo llamó el “Estado de control” (État de controle), ya que lo busca no es gobernar ni disciplinar, sino más bien administrar y controlar. La definición de Deleuze es correcta porque administración y control no necesariamente coinciden con gobierno y disciplina. Ningún ejemplo es más claro que el de aquel oficial de la policía italiana quien, luego de los disturbios en Génova en julio del 2001, declaró que el gobierno no quiere que la policía mantenga el orden, sino que administre el desorden.

Los politólogos norteamericanos que han intentado analizar las transformaciones constitucionales delPatriot Act en las leyes promulgadas tras septiembre de 2001, prefieren hablar de un Security State(Estado de Seguridad). ¿Pero qué significa seguridad en este contexto? Fue durante la Revolución Francesa que la noción de seguridad (sureté, como se llamaba entonces) se asoció a la definición de policía. Las leyes del 16 de Marzo de 1791 y del 11 de Agosto de 1792 introducen en la legislación francesa la noción de police de sureté (policía de seguridad), que inevitablemente tendrá una larga historia en la modernidad. Si uno lee los debates que precedieron a la aprobación de estas leyes, uno constata que la policía y la seguridad se definen mutuamente, aunque ninguno de sus ideólogos (Brissot, Heraut de Sechelle, Gensonne) pudo definir esas categorías por sí solas.

Los debates se enfocaron en la situación de la policía con respecto a la justicia y al poder judicial. Gensonne sostiene que éstos son “dos poderes distintos y separados”, y sin embargo, mientras que la función del poder judicial es clara, se vuelve imposible definir el papel que juega la policía. Un análisis de este debate demuestra que el lugar y la función de la policía es indecidible, y debe permanecer indecidible, puesto que si realmente fuera integrado al poder judicial, la policía dejaría de existir. Éste es el poder discrecional que aún hoy define la praxis del oficial de policía, quien, ante una situación de peligro concreto que atente contra la seguridad pública, debe actuar casi como un soberano. Pero, incluso cuando éste ejercita su poder discrecional, no está tomando realmente una decisión, ni interviniendo en la decisión última del juez. Cada decisión tiene que ver con las causas, mientras que la policía actúa sobre los efectos que por definición son indecidibles.   

El nombre de este elemento indecidible es hoy, como lo fue para el siglo XVII, “raison d’État” (razón de Estado), sino más bien “razones de seguridad”. El Estado de Seguridad es un estado policial: pero, otra vez, en la teoría jurídica la policía es como un hoyo negro. Solamente podemos decir que en la llamada “ciencia de la policía” (que por vez primera aparece en el siglo XVIII), el concepto “policía” regresa a su forma etimológica “politeia” oponiéndose como tal a la “política”. Sorprende, sin embargo, que Policía coincida ahora con su verdadera función política, mientras que el término política hoy se refiera a la política exterior. Fue así que Von Justi, en su tratado Policey Wissenschaft, nombra la Politik (política) a la relación de un Estado con otros estados, y le llamaPolizei (policía) a la relación de un Estado consigo mismo. Vale la pena reflexionar sobre esta definición: “La policía es la relación del Estado consigo mismo”.

La hipótesis que me gustaría avanzar es la siguiente: al ponerse bajo el signo de la seguridad, el Estado moderno deja la esfera de la política y entra a la tierra de nadie, cuyas geografía y fronteras aun desconocemos. El Estado de Seguridad, cuyo nombre parece remitir a la ausencia de cuidados (securus de sine cura) debe, por el contrario, alertarnos sobre los peligros que se juegan en la democracia, ya que en ella la vida política se ha vuelto imposible, al mismo tiempo que democracia supone precisamente la posibilidad de una vida política.

Me gustaría concluir –o simplemente detener mi ponencia, ya que en la filosofía como en el arte no hay conclusión alguna, sólo el abandono del trabajo– con algo que, hasta donde sé, es quizás el problema político más urgente. Si el Estado en el cual vivimos es el Estado de Seguridad que he descrito, debemos pensar nuevamente las estrategias tradicionales de los conflictos políticos. ¿Qué hacer? ¿Qué estrategia llevar a cabo?

El paradigma de seguridad implica que cada disenso, cada intento más o menos violento de derrocar el orden, se vuelve una nueva oportunidad para gobernarlos, y por lo tanto le es redituable. Esto es evidente en la dialéctica que une estrechamente terrorismo con Estado en un interminable círculo vicioso. Comenzando con la Revolución Francesa, la tradición política de la modernidad ha concebido los cambios radicales en la forma de un proceso revolucionario que actúa como pouvoir constituant (poder constituido), el “poder constituyente” de un nuevo orden institucional. Creo que debemos abandonar este paradigma e intentar pensar algo así como un puissance destituante, un “poder puramente destituyente” que no puede ser capturado en la espiral de la seguridad**.  

Un poder destituyente de este tipo es el que Walter Benjamin tiene en mente en su ensayo “Para un crítica de la violencia”, donde trata de distinguir la violencia capaz de interrumpir la falsa dialéctica de la “violencia fundadora de derecho y preservadora de derecho”, ejemplificada en la huelga general proletaria de Sorel. “Con la ruptura de este ciclo” –escribe hacia el final del ensayo–, “que es mantenido por las formas míticas de la ley, con la destitución de la ley y todas las fuerzas que de ella se desprenden, y alcanzando finalmente la abolición del poder del Estado, se funda una nueva época histórica”***. Mientras que el poder constituyente destruye la ley para recrearla, el poder destituyente, en tanto que depone para siempre la ley, se abre hacia una verdadera época histórica.

Pensar un poder destituyente puro no es tarea fácil. Benjamin escribió en algún momento que nada es mas anárquico que el orden burgués. En este mismo sentido, Pasolini en su ultima película hace que uno de los cuatros amos de Saló le diga a sus esclavos: “la verdadera anarquía es la anarquía del poder”. Es justamente porque el poder se constituye a sí mismo a través de la inclusión y la captura de la anarquía y la anomia, que se dificulta el acceso inmediato a estas instancias. Es imposible pensar una verdadera anarquía o una verdadera anomia. Creo que la praxis que exitosamente haría visible la captura de la anarquía y la anomia en las tecnologías de seguridad de gobierno, actuaría a través de un poder destituyente. Una nueva dimensión política deviene posible sólo en la medida en que podemos identificar y deponer la anarquía y la anomia del poder. Pero ésta no es meramente una tarea teórica: implica, antes que nada, el redescubrimiento de una forma-de-vida, el acceso a una nueva figura de esa vida política cuya memoria el Estado de Seguridad trata de eliminar a toda costa.

*Ponencia leída por el filósofo Giorgio Agamben en el Instituto Nicos Poulantzas / Juventud SYRIZA, Atenas, Grecia, noviembre de 2013.

Notas de traducción:

*Giorgio Agamben alude aquí al libro de Christian Meier, Die Entstehung des Politischen bei den Griechen (Frankfurt am Main, 1990).

** Es muy probable que la expresión ¨poder destituyente” haya sido articulada teóricamente por primera vez por Colectivo Situaciones a partir de las revueltas argentinas del 2001. Véase 19 & 20: Apuntes para un nuevo protagonismo social (Tinta Limón, 2002). En los últimos años, el pensador italiano Rafaelle Laudani ha venido teorizando la categoría ‘destituyente’ a lo largo de la tradición de la filosofía política de Occidente. Ver Desobediencia (Proteus, 2002).

*** Traducida del inglés al español, de la edición de Marcus Bullock y Michael Jennings, “Critique of Violence” en Selected Writings, vol. I. (Harvard: Harvard University Press, 2004, 236-52). Después de revisar las traducciones al español de las editoriales Taurus y Abada, encontramos que la versión en inglés es más fiel al sentido original en el texto de Agamben.  Ver, “Comment l’obsession sécuritaire fait muter la démocratie”  (Le monde diplomatique, Enero de 2014).




Curso de introducción a la Filosofía de la Ciencia

Mural de Diego Rivera

Dr Eliseo Rabadán Fernández







La creciente influencia social de la Ciencia hace de ella un componente fundamental para las sociedades políticas actuales.

Se habla incluso de que vivimos inmersos en la sociedad del conocimiento,en la “Era de la Información”.Los aspectos sociológicos del conocimiento científico forman parte de los problemas filosóficos de la Ciencia,pero nosotros dedicaremos especial atención,por una

parte, a los problemas gnoseológicos de la Ciencia y por otra parte,a los problemas

ontológicos de la Ciencia.




El problema relacionado con los modos de trabajar que ha venido llevando a cabo la Ciencia,supone diversas cuestiones básicas previas a su estudio,a saber:

1-¿Qué métodos se han utilizado para explicar los fenómenos de la Naturaleza?

A esta cuestión debe responderse – para ello recurriremos a términos lingüísiticos- desde la perspectiva sincrónica como desde la diacrónica,esto es,la Historia de la Ciencia nos

mostrará los distintos métodos utilizados y cómo han ido perfeccionándose a partir de los modelos anteriores.

2-¿Cuál es, sincrónica y diacrónicamente considerado, el método en lo relativo a la

elaboración de los llamados modelos,o para utilizar una noción de Platón,“formas”,

para explicar cuestiones como el movimiento o el cambio cualitativo de los cuerpos de la “physis”(Naturaleza)


3-¿Cuál ha sido el proceso de elaboración de modelos gnoseológicos para llevar a cabo

la necesaria clasificación de los diversos entes naturales(o artificiales),incluídos en las

diversas “ramas” o campos de la Ciencia.

Esto nos lleva,además,al tema -muy actual-de la distinción entre lo que Dilthey denominara “Ciencias del Espíritu” / “Ciencias de la Naturaleza”.


4-Un problema central de la Filosofía de la Ciencia,lo encontramos en la cuestión relativa a

los procesos históricos que explican el desarrollo de nuestras concepciones acerca de la demostración.

La Ciencia ha de proceder por medio de demostraciones .Lo que implica serios

problemas epistemológicos,tales como : ¿qué es la causalidad?¿qué significado tiene en la investigación científica el proceso de inducción?¿qué papel juega en el problema científico

de las demostraciones la elaboración de “modelos” complejos,llamados sistemas?.

Estos y otros asuntos relacionados con el problema de las demostraciones en la Ciencia ,

nos llevan a la consideración ,para este curso sobre Filosofía de la Ciencia, de la enorme relevancia de este aspecto de dicho curso.Es decir,deberemos dedicar un esfuerzo especial

a la elaboración y exposición de un panorama de las diversas Teorías de la Ciencia hoy

más importantes.

Para ello proponemos utilizar la propuesta clasificatoria llevada a cabo por Gustavo Bueno,

a saber: se propone la clasificación de las diversas teorías de la Ciencia en cuatro grandes grupos:






5- El problema de la definición de categorías por parte de las diversas Ciencias.




Nuestro trabajo deberá desarrollar un método de estudio que incluya dialécticamente

estos cinco aspectos básicos de la  práctica científica.

Dividiremos el curso en tres partes :


Planteamientos fundamentales de cada modelo de Teoría de la Ciencia,con ejemplos

tomados de diversas Ciencias.

Para ello estableceremos un criterio consistente en aportar referentes históricos de teoremas,leyes,de los diversos campos de la Ciencia: Astronomía,Física,Biología,Antropología,&.

Los anteriorres referentes estarán relacionados con exponentes de las diversas teorías.Es decir,si hablamos del adecuacionismo,utilizaremos explicaciones aportadas por Mario

Bunge o Aristóteles.Cuando estudiemos el descripcionismo haremos referencia a las propuestas de Carnap.Lo mismo,al exponer las teorías teoreticistas haremos mención de propuestas de Popper,con lo cual hemos de introducir la teoría falsacionista popperiana y explicar por qué

la clasificamos en el grupo de teorías teoreticistas.Lo mismo habremos de hacer al exponer

y estudiar el circularimso dialéctico ,conocido también como Teoría del Cierre Categorial.

Consideramos de interés llevar a cabo un estudio detallado,en esta primera parte,de la obra

de Popper y Eccles : El Yo y su cerebro, ya que,pensamos,nos permite establecer,desde ella,una crítica filosófica sobre aspectos esenciales a la Filosofía de la Ciencia.


En esta parte se hará un estudio de diversas Ciencias , que proponemos reducir a las

siguientes: Biología,Física y Ciencias de la Comunicación.

Hemos decidido incluir en esta segunda parte una Ciencia considerada dentro de las

llamadas “Ciencias Sociales”.

Nos vamos a enfocar para este estudio en una temática general,por una parte,que desarrolle una introducción a los problemas que dichas ciencias plantean para la sociedad actual.

Hemos de considerar aspectos categoriales específicos de cada una de estas ciencias.Por

otra parte,criterios filosóficos para proponer investigaciones acerca del “impacto social”

de dichos problemas científicos.

Materiales de estudio fundamentales a utilizar y estudiar en esta parte del curso serían

algunos textos de Monod y el propio Popper,además de textos de Faustino Cordón,en

cuanto a la Biología.

En cuanto a la Física propongo utilizar textos de un filósofo español a mi juicio muy

importante y que propongo rescatar para la Filosofía española( y universal,naturalmente).

Se trata de Juan David García-Bacca,quien hace unos excelentes análisis filosóficos acerca

de la Física.Su dominio de la Matemática y de la Filosofía nos sirve de enorme ayuda para

el estudio de estas cuestiones.Considero también de utillidad textos de Popper o de Bunge.

Los aspectos de las “Ciencias de la Comunicación” quiero enfocarlos a través de un libro fundamental,del profesor de la Universidad Complutense Felicísimo Valbuena.Se trata de

su Teoría General de la Información.Algunos aspectos de la Información periodísitica

son tratados desde la Teoría de la Ciencia,por lo que considero que merece la pena dedicar

un esfuerzo a estudiar estos aspectos en un curso de Filosofía de la Ciencia,especialmente

en una época en la que la Información y los medios de comunicación son tan importantes

en nuestra vida e incluso para a propia “vida” de la Ciencia y de la Filosofía.

Pienso también en la conveniencia de manejar en este tema un libro de Gustavo Bueno que analiza ,desde la Filosofía,el medio televisivo,con un enfoque muy interesante ,dado que

trata de explicar el fenómeno desde la diversidad de teorías de la verdad.


Los avances de la Ciencia y las aplicaciones técnicas de la misma,además de una urgente demanda social y política de reflexiones sobre asuntos que afectan a todos los miembros de nuestras “sociedades de la información”,exigen de los filósofos una tarea que ,partiendo de

los saberes y del hacer de las Ciencias(tecnologías),aporte propuestas para el manejo ético,político,socioeconómico de dichas actividades.

Conocer dos aspectos esenciales de esta problemática es el objetivo de esta tercera parte.

1-problemas de la Bioética: aspectos legales,biológicos y éticos de la clonación,la

ingeniería genética,etc.

2-estudio de las principales investigaciones acerca de las llamadas “Ciencias cognitivas”.

Consideramos necesario,en cuanto a los contenidos a desarrollar en esta tercera parte,

proponer nuevos cursos específicos ,ya que lo que se estudiará en esta parte,debido a su aspecto introductorio,dejaría seguramente la sensación de habernos quedado en el umbral

de asuntos de crucial importancia.Ahora bien,sin duda,ello no resta relevancia gnoseológica

al propio estudio de estos problemas en el marco de un curso de Filosofía de la Ciencia.

Más bien,es fundamental para elaborar propuestas de interés , el previo desarrollo de una

base teórica de análisis,lo cual es el objetivo central de todo este curso.






El estudio de cualquier Ciencia y evidentemente el estudio de la Filosofía, precisan el

manejo y dominio de los conceptos pertinentes.


I – A lo largo del curso,los alumnos irán cconfeccionando lo que podemos definir como “diccionario de términos”,elaborado a partir de dos fuentes:


1-diccionarios especializados,enciclopedias,etc.

2-el propio estudio de los temas tratados en los contenidos de cada una de las tres partes

de que consta la propuesta para el curso de “Historia de la Ciencia y Filosofía de la Ciencia”.Esta fuente se nutre de los estudios llevados a cabo a lo largo del curso, y el modo

en que se lleve a la práctica supone un intento de que los propios alumnos vayan

desarrollando la capacidad de aportar planteamientos novedosos a los asuntos tratados.Proponemos la elaboración de comentarios,notas en forma de fichas de trabajo,


Se deberá diferenciar con plena claridad las dos fuentes terminológicas.


II – Algunos términos clave a considerar :&llt;<



Biología : (sociobiología),(filosofía de la Biología),(bioética)

Catástrofes(Teoría de las)


Cibernética(sistemas cibernéticos)

Ciencia(Teorías de la)

Cierre Categorial

Ciencias cognitivas

Comunicación(como sistema)

Conducta(“behaviorismo” , conductismo)(comportamiento etológico)


Cultura(relación Naturaleza/Cultura)



Entropía/Negentropía(leyes de la Termodinámica)

Espacio gnoseológico




I+D(Investigación y Desarrollo)

Lenguaje(teorías de la verdad)(funciones del)



Necesidad y azar(teleonomía e invariancia)



Orden (y caos)(teoría de catástrofes)











1.1 Definición del “descripcionismo”

En la TCC [1],se define así:

“Una de las cuatro alternativas consideradas básicas entre las concepciones gnoseológicas

de la ciencia,caracterizada por considerar el momento constructivo de las ciencias y,por tanto,los componentes formales de los cuerpos científicos,como subordinados enteramente

a la materia dada que habría de ser meramente descrita(sin duda,valiéndose de

instrumentos formales que se supone han de dejarla “intacta”),inventariada y archivada.

Al descripcionismo asociamos el concepto caracterísitico de la verdad científica,a saber,la verdad como des-velamiento(aletheia) o des-cubrimiento.”

Podemos mencionar el planteamiento de Carl Hempel,quien fuera uno de los líderes del movimiento del empirismo lógico en la filosofía de la ciencia,en especial durante los treinta

años siguientes del final de la Segunda Guerra Mundial.

Hempel veía la ciencia como una actividad cuya finalidad y tareas consisten en mostrar(“describir”) fenómenos de tal modo que estén en consonancia  con las leyes que

los explican y de las que ellos mismos(los fenómenos) son causas directas.,ya que derivan

de leyes.Se trata de establecer lo que en filosofía de la ciencia hempeliana se denominó

el “modelo de comprensión científica basado en “covering-laws”.[2]

La única diferencia entre explicación y predicción es temporal: mientras que lo que la ciencia explica ya ha ocurrido,lo que se ha de predecir aún está por suceder.

Las teorías de Hempel parecen estar en un momento en el que pocos filósofos de la ciencia

se ocupan de los problemas de la ciencia siguiendo este modelo.Más bien pareciera que lo

que se hace es caer en un teoreticismo donde sólo “lo último” que se está proponiendo es

lo que vale,es decir,parece ser que el falsacionismo de Popper es lo que hoy en día está en boga,pero ello,como veremos,puede resultar nefasto tanto para la ciencia como para la

propia filosofía.

El des-velamiento,supone que la ciencia,desde el descripcionismo,no tiene como meta

“la verdad”,sino ese des-velamiento de la verdad.Se investiga para lograr metas teóricas

como serían :

la simplicidad,el éxito productivo,la fertilidad heurísitica…

Visto desde el modelo hempeliano,el descubrimiento de Charles Gerhardt acerca de los componentes orgánicos y sus tipos,puede exponerse en estos términos :

Los experimentos describen que muchas reacciones orgánicas implican la eliminación de agua,de amoníaco y dióxido de carbono.Las reacciones químicas en estos procesos nos muestran que las sustancias eliminadas están compuestas de moléculas simples y no dobles.

Esto implicaba un regreso a la explicación llevada a cabo por Berzelius en su tabla de los

pesos atómicos.

Sin embargo,la explicación de Gerhardt supone que la fórmula del ácido acético es

C2H4O2 y no C4H8O4 o esta otra  ,con el peso atómico del carbono como 6 :

C8H4O2 + H4O2

La teoría de formación de alcoholes a partir de radicales orgánicos metilo(CH3),etilo(C2H5)propilo(C3H7),etc.,en combinación con el radical hidroxilo(OH),

son llamadas “series homólogas”.

Veremos cómo toda teoría de la ciencia implica el uso de definiciones,demostraciones,clasificaciones y modelos,pero ello no resulta suficiente para establecer una “crítica filosófica” de los diversos modos de hacer filosofía de la ciencia

(teorías de la ciencia).Es preciso además , recurrir,tal como nos lo propone el filósofo

Gustavo Bueno,a la distinción entre epistemología ,gnoseología y ontología.

La crítica de los grupos de teorías de la ciencia que denominaremos , siguiendo a Bueno,descripcionismo,adecuacionismo,teoreticismo y circularismo,ha de entenderse

como dada en la perspectiva gnoseológica,que parte de la distinción(compleja) , entre una “materia” y una “forma” de la ciencia.

En el caso de este asunto de los componentes orgánicos,vemos que hay una “forma”,es decir,unas fórmulas químicas,que “explican” y describen,en términos de Hempel,pero lo

que importa no es esa “formalización”,sino el proceso “material dado en los laboratorios,

por lo que tiene de “útil” o práctico para predecir los fenómenos,”,materialmente” dados

en la Naturaleza.

Lo que se pide en el caso de Hempel,es que la teoría no contradiga los hechos,sino que

ayude  a describirlos según los criterios de la “covering-law”.

En la época en que Gerhardt trabajaba(1853),escribe en estos términos:

“Para clasificar los componentes orgánicos en series,es decir,para determinar las leyes según las cuales las propiedades de un tipo dado de componentes son modificadas por sustitución de

uno de sus componentes o de un grupo de componentes,es el propósito constante del

químico filósofo.Esos cientos de componentes que él produce en su laboratorio son para

él,sin embargo,los términos que le sirven para construir sus series.Hoy,en el estado

imperfecto de la ciencia,hay todavía necesidad de nuevos términos,pero más tarde,el conocimiento de ciertas series eliminará el estudio directo de muchos otros términos(de

las series de elementos) cuyas propiedades podrá predecir con la misma certeza con la

cual hoy predice las propiedades de los alcoholes propinoicos o valéricos,aunque aún no

los haya obtenido.”[3]


2- Planteamientos teoreticistas de la ciencia :

2.2 Definición del “teoreticismo”

La definición aportada por la TCC es la siguiente :

“El teoreticismo engloba a todas aquellas concepciones  de la ciencia que tienden a desplazar el “centro de gravedad” del cuerpo científico hacia la forma del mismo,considerando a su materia como enteramente subordinada a aquella forma,ya sea por “reabsorción”,ya sea,al menos en el límite,por “eliminación”.”[4]

Haciendo referencia a lo que se viene conociendo como concepción popperiana de la ciencia como “falsacionismo de las teorías científicas”,Bueno insiste,precisamente,en la necesidad de delimitar con la mayor precisión y cuidado gnoseológico,lo que queremos decir al utilizar el término “teoría”.Así,nos plantea lo siguiente:

“quien acepte la posibilidad de hablar de una “teoría falsable” es porque aceptará la posibilidad de retirar,en un momento dado,una tal teoría del cuerpo de una ciencia,en elcual caso hubiera estado vigente durante siglos;pero quien acepte la posibilidad de hablar de “teorías científicas falsables”,no es sólo porque deba aceptar también que estas teorías han sido verificadas  (en la materia) sino porque (y es cuando tomamos el cuerpo [de las ciencias] como referencia) lo que acepta es que una teoría,que ha sido considerada científica,no puede ser “borrada” del cuerpo de la ciencia,como si no hubiera existido;sino porque se supone que la teoría ha de mantenerse perpetuamente como parte de ese cuerpo( lo que no significa que permanezca inmutable : también los cuatro dedos del Eohippus permanecen y se reconocen en los tres del Mesohippus y están en el dedo único del caballo reciente).En suma,la no falsabilidad de una teoría cuya naturaleza pueda ser acreditada por algún criterio – que,además,será un criterio de denominación distinto del criterio de la falsabilidad – y esto tanto en el supuesto de su verdad,como sin necesidad de tal supuesto(simplemente,por su no falsabilidad),se traducirá en una propiedad significativa que la teoría adquiere en el

cuerpo de la ciencia,considerada en su contexto histórico,sin perjuicio de su ulterior evolución.”[5]

Un célebre falsacionista,Karl Popper , hablaba en estos términos,cuando criticaba el convencionalismo de Poincaré :

“una buena adaptación de las condiciones hará casi a cualquier hipótesis concordar con los fenómenos.Esto hará sentirse bien a la imaginación,pero no hace avanzar nuestro conocimiento”.[6]

Popper ,como es bien sabido,ha sido acaso el más influyente teórico de la ciencia a lo largo del siglo XX.Pero,desde la propuesta de Bueno,no es el único representante del grupo de teorías de la ciencia denominado en TCC como teoreticismo.Bueno propone dos tipos de teoreticismo,a saber: primario y secundario.

A)El teoreticismo primario: tal como lo plantea Bueno en TCC, “engloba concepciones que suelen denominarse con los rótulos de “Convencionalismo” o de “Instrumentalismo”.En algunos libros denominan este teoreticismo primario “formalismo”.

Podemos considerar a Pierre Duhem como el adalid de esta concepción de la teoría de la ciencia.

Duhem separa la filosofía y las ciencias,de tal manera que son colocadas en dos planos de conocimiento distintos.Para él, una teoría física no es una explicación,es tan sólo un sistema de proposiciones matemáticas deducidas de un pequeño número de principios,que tienen por fin representar de la manera más sencilla posible,además de exacta y completa,un conjunto de leyes experimentales.

Lo que entiende el formalismo de Duhem,o el teoreticismo primario,por teoría:

Una teoría física ha de incluir cuatro operaciones fundamentales,a saber:

1)la definición y las medidas de las magnitudes físicas.

2)la elección de las hipótesis que relacionan entre sí las magnitudes definidas en unas pocas proposiciones arbitrarias,las cuales,a su vez,constituyen los principios fundamentales de la teoría.

3)el desarrollo matemático,lógico-deductivo de la teoría misma

4)comparación de la teoría con la experiencia.

El acuerdo con la experiencia es,en la teoría de la ciencia de Duhem,el único criterio de

verdad para una teoría física.

No debemos pensar,sin embargo,que su propuesta es similar a la del adecuacionismo,en el

que se hace consistir la verdad en la adecuación entre pensamiento y realidad.

Lo que propone Duhem es una correspondencia,armonía entre la construcción mental (forma,diríamos,en el sentido de la propuesta gnoseológica de Bueno) y la realidad experimental(materia).

El objetivo de la ciencia no es,pues,enseñarnos algo sobre la naturaleza de esta realidad experimental,sino sólo sustituir el conjunto de leyes experimentales ,derivadas de la

observación directa – espontánea o metódica – con un sistema lógico basado en unas pocas proposiciones elementales,lo cual permite una economía de pensamiento con la clasificación

y ordenación lógica de las leyes y la previsión de nuevos fenómenos.

Las teorías de Duhem buscan establecer una clara división entre una ciencia autónoma

respecto de la filosofía ,por una parte,y la reivindicación de la filosofía natural de cuño aristotélico,por otra.

En la termodinámica ve Duhem el modelo de desarrollo para sus

teorías ,tal como las había desarrollado respecto de la física.

El valor puramente “formal” de las teorías físicas,según Duhem,en tanto ellas son simples esquemas lógicos hipotético-deductivos,ajenos a toda pretensión de explicar o representar

la realidad,está ya en la tradición filosófica.Aristóteles distingue,las afirmaciones de la

filosofía natural de las teorías físicas de la astronomía.Con Kepler,Galileo,pero en especial

con Desacrtes y los mecanicistas,se habría producido confusión entre teorías físicas y

filosofía natural,con la tendencia a conceder a las teorías físicas un valor de verdad “objetivo”,mientras que la filosofía natural tendría un valor explicativo.Serán Newton y Laplace,Ampère,Fourier,quienes logren volver a reconocer a las teorías físicas su fuerza

formal en tanto esquemas lógicos abstractos,concepción que ha vuelto a imponerse

desde la segunda mitad del siglo XIX,a juicio de Duhem.

Según Duhem ,existen dos grupos de físicos,a saber: aquellos espíritus poderosos ,pero

de mentalidad estrecha que surgieron en Alemania y Francia y los espíritus amplios,pero

débiles que surgen en Inglaterra,a lo largo de la segunda mitad del siglo XIX.Los primeros construyen una ciencia a partir de un sistema lógico a partir de principios abstractos de los

que se deducen leyes.Los otros, principalmente ingleses, construyen imágenes y modelos mecánicos que hacen visibles y palpables los fenómenos y sus encadenamientos. Entre los principales científicos ingleses-que por cierto no son mecanicistas-menciona Duhem a Faraday,Thomson y Maxwell.Los modelos mecánicos son sustituídos por estos científicos ingleses por ecuaciones matemáticas.

El caso de la termodinámica, que define sus conceptos fundamentales: energía, potencial, entropía, como funciones matemáticas abstractas, a las que no corresponde representación alguna concreta.

Lo mismo sucede con las matemáticas, en las que el concepto de función proposicional no

es verdadera ni falsa: es tan sólo el molde de ciertas proposiciones. Una función

proposicional es un enunciado en el que figuran una o más variables, que pueden llegar

a ser una proposición para ciertos valores de esas variables.

La distinción entre verdad formal y verdad empírica se sigue manteniendo en los sistemas deductivos(algebraicos).Pero la nota esencial de la verdad formal ya no es la evidencia

racional de la proposición, sino- y esta es la idea central del teoreticismo duhemiano, y los afines en la clasificación de Bueno, es decir, los teoreticistas primarios- su coherencia, su suficiencia dentro del sistema en que está encajada.

El problema que suscita el teoreticismo de Duhem y otros similares,como Mach o

Meyerson,es el de establecer una distinción- que no deja de ser problemática,debido a su debilidad argumentativa- entre ciencias formales y ciencias materiales.Consecuencias de

esto son ,como constatamos en la práctica, a través de numerosos artículos,conferencias,libros,&,hoy en día,que se presentan “universos de discurso”,en los

que se presentan como ciencias,modelos matemáticos que sólo se ocupan de construir sintácticamente sistemas formales verdaderos,pero que al estar desvinculados de la

semántica de la experiencia,se quedan en meras apariencias de constructos científicos.

El problema de Duhem , al querer comprender “las dificultades derivadas de los intentos de aplicar la teoría de la gravitación de Newton al desarrollo de la teoría científica del calor”,

surge al plantearse esta pregunta: “¿Por qué empeñarse en tratar de reducir la temperatura

a la condición de una fuerza viva de un determinado movimiento( o en una cierta cantidad

de un fluído libre)en lugar de considerarla simplemente como esta propiedad que tiene un cuerpo de hacer subir más o menos arriba la columna de mercurio del termómetro?.¿Por

qué no renunciar a ese ideal  de las teorías que consiste en representar a los fenómenos por medio de hipótesis[modelos mecánicos], para, en su lugar, atenernos a aquellas nociones

que tengan un sentido físico directamente mensurable?.Las teorías físicas no debieran proponerse la explicación de los fenómenos, sino su clasificación.” [7]

Para terminar este apartado, pongamos a su consideración esta reflexión de Gustavo Bueno acerca del teoreticismo primario,que nos será de gran utilidad al estudiar críticamente las cuestiones de la Segunda Parte.

“Las teorías científicas, en general, y las teorías físicas, en particular, serán vistas como “construcciones ideales, que habría que valorar por su coherencia interna y que, en

principio, erían tan poco falsables como pudiera serlo un poema sinfónico; sin perjuicio

de que pudiera tomar contacto de vez en cuando, puntualmente, con la materia real(por

lo que cabría decir que se “verifica” en ella).Este tipo de teoreticismo se encuentra disuelto

en los científicos de aquélla época: Eddington,Milne,G.Withrow,Weyl; pues ellos

mantuvieron posiciones que podrían ser consideradas aquí. Dirac llegó a decir(refiriéndose

a la función de onda de Schrödinger):” es más importante que una ecuación tenga belleza

que pretender,a la fuerza,que coincida con la experiencia”.” [8]

En su libro Filosofía de las matemáticas y de la ciencia natural ,

comenta, en el apartado *6,del capítulo 2 titulado “número y continuo, el infinito”, que es precisamente en el campo de los números donde nos encontramos “las siguientes

modalidades básicas de conocimiento constructivo”.Veamos cuales son, según Weyl,

esas bases :

“ 1. Adjuntamos a lo que es dado ciertos caracteres no manifiestos en el fenómeno,pero que son el resultado de ciertas operaciones mentales. Es esencial que la actuación de estas operaciones sea universalmente posible y que su resultado esté inequívocamente

determinado por los datos. Pero no es esencial que las operaciones que definen el carácter


realmente llevadas a cabo.

2. por la introducción de símbolos los asertos son separados de tal forma que una parte de

las operaciones es transmitida a los símbolos haciéndose independientes de los datos y de

su existencia continuada, por lo tanto la libre manipulación de los conceptos contrasta con

su aplicación, las ideas se separan de la realidad y adquieren una independencia relativa.

3. Los caracteres no se exhiben individualmente en la forma en que se manifiestan ,pero sus símbolos se proyectan en la pantalla de una variedad ordenada de posibilidades que puede generarse por un proceso fijo y está abierta hasta el infinito.” [9]

B)El “teoreticismo secundario” : lo que diferenciaría a Popper- representante principal

de este teoreticismo secundario- en términos de la TCC) de Duhem,precisamente,es su propuesta de criterio de demarcación,la “falsabilidad de las teorías”. El teoreticismo

primario mantenía la condición de no falsabilidad de las teorías. Popper sí acepta la tesis

de que las teorías no proceden de una inducción completa de fenómenos; los cuerpos de

las ciencias se construyen a partir de cómo “gigantescas” formaciones(teóricas),que

muestran gran independencia respecto a los materiales factuales empíricos.

Acepta también Popper la tesis de la no verificabilidad de los enunciados constitutivos

del cuerpo de las ciencias. Ahora bien,a aportación de Popper ,en cuanto al mencionado criterio de demarcación resulta fundamental.

Los problemas gnoseológicos de la teoría de Popper, en cuanto al criterio de falsabilidad

radica en los siguientes puntos,a saber : si ,siguiendo la propuesta popperiana, una

proposición universal(del tipo: “la clase de enunciados equivalentes en torno al evento

volcar un vaso de agua”) no puede ser verificada por proposiciones singulares;

pero, en cambio puede ser falsada por ellas, parece como si coincidiera con el positivismo

del Círculo de Viena,pero existe una gran diferencia, ya que ,puesto que esos enunciados singulares, de los que algunos establecen las condiciones iniciales de los fenómenos,” no

dejan de ser universales”.[10]

Popper plantea las cuestiones, según Bueno, de la relación entre universal y particular,

por medio de una distinción- que el mismo Popper no explicita-entre “totalidades

distributivas y totalidades atributivas”[11]

Popper no ha tenido en cuenta implícitamente la distinción, pero sí se ha decantado por

poner ejemplos desde la perspectiva distributiva:”la clase de enunciados equivalentes en

torno al evento “volcar un vaso de agua”.Pero veamos un caso que el mismo Popper cita en su libro The logic of scientific discovery. En el Nº38 “Grados de testabilidad

Comparados por referencia a las “dimensiones”.Menciona Popper que en algunos casos es valiosa la aportación del recurso metodológico a las sub-clases,tal como ocurre en el caso

del principio de exclusión de Pauli, altamente satisfactorio en cuanto hipótesis auxiliar,ya

que aporta un alto grado de precisión y testabilidad respecto de la vieja teoría de los

cuantos .Así sucede en lo relacionado con la correspondiente proposición de la nueva

mecánica cuántica que propone que los estados anti-simétricos son realizados por

electrones , lo ssimétricos por descargados o sin caraga y por partículas con cargas múltiples.Pero el mismo Popper advierte que este recurso a las relaciones de sub-clases es insuficiente en muchos casos.Por ejemplo,el caso , citado por Popper a partir de un texto

de Frank de 1931(Das Kausalgesetz und seine Grenzen)(La causalidad y su fundamento),Popper menciona lo siguiente,que resulta sumamente clarificador en este


“proposiciones de un elevado nivel de universalidad-tal como el principìo de conservación

de la energía en la formulación de Planck- son aptos para ser establecidos como

tautológicos,y perder su contenido empírico, a no ser que puedan establecerse las

condiciones iniciales,por medio de pocas mediciones,por ejemplo,por medio de un

pequeño número de magnitudes caracterísiticas del estado del sistema”La cuestión relativa

al número de parámetros que ha de ser establecido, y sustituidos en la fórmula, no puede

ser elucidado por medio de la relación de sub-clases,a pesar de estar evidentemente

conectado con el problema de la testabilidad y la falsabilidad, y sus grados. Cuantas menos magnitudes son necesarias para determinar las condiciones iniciales,menos “composite”

serán las proposiciones básicas suficientes para la teoría de la falsabilidad;porque una proposición básica falsable consiste en la conjunción de las condiciones iniciales y la

negación de la predicción derivada.”[12]

Dado que Popper no acepta que hay inducción,sino meras “conjeturas”,el papel de la

teoría de la ciencia es ,como hemos señalado,hacer aproximaciones lo más exactas posibles para describir los hechos,mientras no tengamos otra teoría “mejor”.Al parecer,Popper

advirtió el hecho de que la ciencia está compuesta de lo que él denominaba “conjeturas”,

a través del reto de Einstein a Newton.La física newtoniana era la teoría más importante- al mismo tiempo que fructífera- que jamás había sido propuesta y aceptada.Todo,dentro del mundo observable,parecía confirmar la teoría newtoniana.Durante más de dos siglos sus

leyes fueron corroboradas no sólo por medio de la observación,sino también por el uso creador que de ella se hizo,ya que se convirtió en el fundamento de la ciencia y la tecnología occidentales,facilitando predicciones maravillosamente exactas en todos los campos,desde

la existencia de nuevos planetas hasta los movimientos de las mareas y el funcionamiento de

la maquinaria.Si algo era conocimiento científico era eso : el conocimiento más cierto y


que el hombre había adquirido sobre su medio ambiente físico.Si algunas leyes habían sido verificadas por incontables millones de observaciones y experimentos hasta ser confirmadas inductivamente como leyes de la naturaleza,eran las de Newton.

Teniendo en cuenta el criterio de demarcación de Popper y el de falsación,se desprenden

toda una serie de proposiciones que vendrían a ser como las tesis centrales de este teoreticismo secundario,entendido como teoría gnoseológica de la ciencia,es decir,en

cuanto se enfoca desde la relación entre materia y forma,y en cuanto se prioriza a la forma frente la materia.Proposiciones medulares de la teoría popperiana pueden ser las siguientes:

Una ciencia unitaria con lenguaje unitario es un sinsentido.

La filosofía no puede reducirse al mero “análisis lógico”.

El lenguaje no puede reducirse a símbolos y cálculos matemáticos.

No hay “un” método,sea éste el que fuera,que haga científicas a las disciplinas.

El inicio de la elaboración teórica no puede prescindir de conceptos imprecisos.

Hay problemas genuinamente filosóficos y que no pueden ser dilucidados con los métodos

de las ciencias naturales.

El artículo de Popper “la reducción científica y la esencial incompletud de toda ciencia”,con ocasión de un simposio en el que participaron biólogos como Monod,Ayala , Dobzhansky,Bernard, Rensh,Eccles,&,nos aporta interesantes cuestiones por medio de las que,pensamos,podremos terminar de aportar una primera aproximación suficientemente

clara , en cuanto a la “definición” de lo que entendemos por teoreticismo secundario.El resultado de dicho congreso,celebrado en 1972 en la Villa Serbelloni,Italia,fue el libro

Studies inthe philosophy of biology.

Comienza Popper por preguntarse lo siguiente:

1-¿Podemos reducir,o al menos tener la esperanza de reducir,la biología a la física,o cuando menos a la física y química?.

2-¿Podemos reducir la biología,o al menos esperar reducir a biología,aquellas experiencias subjetivas consientes que podemos adscribir a los animales y,si la cuestión primera fuese respondida afirmativamente,podemos reducirlas posteriormente a física y química?.

3-¿Podemos reducir,o esperar hacerlo,la conciencia del yo y de la creatividad de la mente humana  a una experiencia animal y,si las cuestiones uno y dos son respondidas de manera afirmativa,,a física y química?.

La respuesta a estas cuestiones,nos dice Popper,dependerá del significado que se de al concepto de reducción.

Pero , antes de continuar con ello,debe hacerse hincapié,a juicio de Popper,en que no se

puede aceptar- y él mismo se muestra en este punto muy severo – un método en el cual el análisis de significados  y el intento de resolver problemas complejos por medio de

definiciones sea aceptable,en términos gnoseológicos.

Veamos,pues,cuál es su propuesta al respecto.Aunque reconoce que una teoría,como la de Newton,tiene éxito,si consigue reducir las teorías de Kepler y Galileo a una nueva.Pero

esto no es la “base” del método científico.Más bien,en su propuesta de la teoría falsacionista,Popper considerará que un problema conocido es tratado de resolver

mediante un teorema desconocido,al cual llama “conjetura”.

El considerar la extensión de un modo “esencialista”,dice Popper,tal como lo hiciera Descartes,suponía una teoría sobre el movimiento que implicaba un error , que fue mostrado como tal por la ley de la inercia de Newton y la ley de la gravedad .Pero ,en opinión de Popper,la teoría de Newton seguía siendo sustancialista y no será hasta la teoría de Einstein

que se logre una nueva teoría más probable,es decir,Einstein falsa la teoría de Newton,en cuanto a lo que se refiera al movimiento de atracción de los cuerpos.El problema de la

acción a distancia de Newton fue resuelto,nos dice Popper,” no tanto por la acción gravitacional einsteiniana de la velocidad finita,cuanto por la reducción de la materia inercial

a materia gravitacional.”

En el contexto de lo que Lakatos ha denominado “programas de investigación”,Popper comenta que no fue por medio de una reducción de lo electromagnético a lo mecánico que

se resolvieron los problemas de un programa de investigación acerca del electromagnetismo,sino que Hertz y J.J. Thomson desarrollan el programa de investigación opuesto,es decir,buscan reducir la mecánica a la teoría electromagnética.

De este modo – continúa argumentando Popper en su artículo sobre los límites del reduccionismo – “la teoría electromagnética de la materia – es decir , la reducción tanto de la mecánica como de la química a una teoría electromagnética del atomismo – fue

enormemente exitosa desde aproximadamente 1912 , el  año del modelo del átomo nuclear

o planetario elaborado por Rutherford,éxito que duró hasta 1932.”


3- Planteamientos adecuacionistas de la ciencia :


3.1              Definición del “adecuacionismo”

La definición que encontramos en el glosario del Vol.5 de TCC de Bueno es esta:

“Una de las cuatro alternativas consideradas básicas entre las concepciones gnoselógicas

de la ciencia,caracterizada,en primer lugar,por distinguir,en los cuerpos de las ciencias,una forma(lingüísitica,conceptual,teórica,&.) y una materia(empírica,real,&.),y,en segundo lugar,por definir la verdad científica como correspondencia(adequatio) entre las

construcciones formales de las ciencias y la materia empírica o real de sus campos.”

Bueno distingue entre el adecuacionismo realista,en el que incluye a Reichenbach y a

Tarski, de cuya teoría de la verdad hace un exhaustivo análisis,que vamos a considerar

como fundamental en esta primera parte , ya que ella es de gran relevancia gnoseológica

y por

tanto, necesaria para hacer de la filosofía de la ciencia algo realmente dialéctico.

En una segunda categoría,incluye el adecuacionismo estructuralista o neutro.Desde

esta perspectiva,Bueno propone establecer las relaciones , o conexiones,que,según él,

pueden establecerse entre “ciertos aspectos del estructuralismo(el de Sneed o el de

Stegmüller) y de sus conexiones con el teoreticismo historicista de Kuhn que,de otro modo,pasarían desapercibidas.”

Bueno propone tres tipos de adecuacionismo realista,a saber:

1)adecuacionismo realista de orientación naturalista .

2)adecuacionismo realista de orientación esencialista .

3)adecuacionismo realista de orientación dialógica .

En el primer grupo se encuentra Mario Bunge.

En el segundo grupo considera Bueno que el principal representante sería Leibniz,pero

teorías como la Gestalt,que considera que las estructuras que presiden el funcionamiento

del cerebro y las estructuras conformadoras de la realidad son isomórficas.[13]

Veamos algunos aspectos de la teoría de la ciencia de Mario Bunge,como modelo del adecuacionismo realista “naturalista”.

En el capítulo tres ,titulado “Naturaleza de los objetos conceptuales”,esboza Bunge lo

que será su propuesta de teoría de la ciencia.[14].Dado que ninguna de las filosofías tradicionales de lo conceptual es,pues ,satisfactoria”,Bunge nos propone la que denomina “materialismo conceptualista y ficcionista”.

Las tesis básicas serían estas:

“a)Los objetos materiales no son materiales ni mentales : no son signos,ni procesos

cerebrales,ni sucesos que ocurren en una mente inmaterial.Son en cambio  objetos que

poseen una naturaleza peculiar e irreductible.Ésta es una primera tesis conceptualista.

b)Los objetos conceptuales no existen como objetos materiales ni como objetos mentales

y por lo tanto no están sometidos a las leyes de unos u otros.Existen en la medida en que pertenecen a ciertos contextos(p.ej.teorías).Por ejemplo, el número 2 existe en matemática

pero no en mitología, y Blanca Nieves existe en mitología pero no en matemática. Ésta

es una segunda tesis conceptualista.

c)La existencia conceptual, lejos de ser ideal(platonismo),o mental(empirismo),es fingida o convencional. Hacemos de cuenta que hay conjuntos, relaciones, funciones, números , estructuras, proposiciones, teorías, hadas, brujas ,etc. O sea, no sólo inventamos los

objetos conceptuales sino también su modo de existencia: pedimos, exigimos, estipulamos

que existen en determinados contextos. Esta es la tesis ficcionista.

d)El concebir un objeto conceptual y asignarle existencia conceptual(por decreto) son dos aspectos de un mismo proceso que se da (por decreto) en el cerebro de algún ser racional humano,subhumano,o superhumano).Los objetos conceptuales no existen de por sí no son idénticos a los signos que los designan,ni se confunden con los pensamientos que los

piensan; la propuesta de Bunge insiste en que se justifican sus teorías mediante lo que él

llama “constructos”,que consisten en “creaciones mentales(cerebrales),habrá que criticar

estas teorías en base a ello.Bien,su definición de “constructo” aporta cuatro clases básicas

de constructo: conceptos;proposiciones;contextos y teorías.

Los conceptos son “átomos conceptuales”,según la propuesta de Bunge.Por ejemplo,en la proposición “los números son constructos”,los conceptos son : “los números”,”son”, y “constructos”.

Las proposiciones son los constructos que satisfacen algún cálculo proposicional  y que

pueden ser evaluados en cuanto a su grado de verdad.

El contexto es un conjunto de proposiciones formadas por conceptos con referentes


Una teoría es un contexto cerrado respecto de las operaciones lógicas.

Aclara al respecto Bunge,antes de exponer la relación entre “existencia material y existencia formal”,que “cualquier constructo que viole nuestro postulado de la partición de los objetos

en cosas y constructos se dirá ontológicamente mal formado”.

El ejemplo que cita Bunge es el siguiente: “La atribución de propiedades conceptuales

a objetos físicos , y de propiedades físicas (o químicas, o biológicas o sociales ) a objetos conceptuales, pertenece a la categoría de los objetos ontológicamente mal formados.

Ejemplo 1: “Un campo electromagnético es un tensor antisimétrico” en lugar de “Un campo electromagnético puede ser representado por un tensor antisimétrico”.

Veamos un ejemplo propuesto por Bunge para explicar ,desde una categoría de la causalidad,un tema de la termodinámica.[16]

El caso que cita Bunge para poner un ejemplo de lo que sería una autodeterminación

cualitativa: “la transformación espontánea de un sistema termodinámico aislado son de tal

índole que lo conducen a estados de entropía creciente.La autodeterminación cuantitativa

es la categoría de determinación que prevalece en el continuo desarrollo de estados que difieren entre sí sólo  en sus aspectos cuantitaivos en algunos casos,sobre todo en termodinámica,puede observarse que la autodeterminación cuantitativa surge de procesos caracterizados por otras categorías de determinación,entre ellas la de causación”.[17]

Nosotros proponemos a continuación un análisis de esta “teoría” adecuacionista,que

supone que la “causación” explica el fenómeno de la entropía,como se explica el cambio en Aristóteles ,desde una relación causa/efecto,que supone que el intelecto lo que hace es adecuarse a la realidad , como dice aquí Bunge, cuantitaiva.El asunto es que,como vamos

a demostrar,la “construcción” de la teoría no se lleva a cabo por medio de una materia dada que ha de ser adecuadamente adaptada al intelecto,sino que supone un proceso de “construcción material” que implica tanto a la materia como a la forma.Una forma que no se corresponde con lo que Tarski o los positivistas lógicos entienden por “sintaxis lógica” de un lenguaje que explica/formalmente),los hechos y datos empíricos(la materia).[18]

Podemos pensar que Bunge tiene razón cuando leemos en Angris y Hepler que : “A causa

de que la segunda ley de la termodinámica puede ser establecida en tantas formas distintas,puede ser que muchos la consideren una teoría mal construída,por lo cual no sería

una ley importante dela naturaleza”.Pero no es así,ya que ,como afirma Eddington en 1927 :

“la ley acerca de que la entropía siempre decrece- la segunda ley de la termodinámica –contiene,en mi opinión,la más relevante ley de la Naturaleza.Si alguien te propone que tu

teoría del universo está en desacuerdo con  las ecuaciones de Maxwell.Si se encuentra que

es contradicha por los datos observados –bien,estos experimentalistas hacen a veces cosas estrafalarias.Pero si tu teoría va contra la segunda ley de la termodinámica,no te doy ninguna esperanza;caerás en la más honda humillación sin remedio”.

Cuando los científicos quieren discutir sobre la naturaleza del calor,deben utilizar al menos

dos números: uno para medir la cantidad de energía y otro para medir la cantidad de desorden.La caloría se ha aceptado como adecuada para medir la cantidad de energía. La cantidad de desorden es medida en términos de entropía.[19]

Una manera de definir la entropía es en términos del número de estados que son posibles

en un sistema en una situación dada. El desorden surge porque no sabemos en qué estado

se encuentra el sistema.El desorden es lo mismo que la ignorancia,que es el modo en que la entropía se relaciona con la teoría de la información.De un modo no sofisticado podemos

definir entropía como la medida del número de grados independientemente de la libertad

que tiene un sistema.Podemos hacer este punto un poco más claro examinando el valor de entropía por “mol” para algunas sustancias diferentes bajo presión atmosférica y temperatura ambiente.


SUSTANCIA                                   ENTROPÍA[cal./oK.mol]

DIAMANTE                                             0.6

PLATINO                                                10.0

PLOMO                                                    5.5

AGUA(líquida)                                         16.7

GAS HILARANTE                                   62.6

Esto  nos ayuda conocer estos hechos , porque comprobamos que los sólidos son menos entrópicos que los líquidos y éstos menos entrópicos que los gases.

Pero el concepto de entropía tiene otras útiles funciones,porque nos puede proveer de una definición rigurosa de la temperatura.

La temperatura T puede definirse como la razón del cambio de  energía de un sistema  E a

su cambio en entropía  S

Para un volumen constante (trabajo cero) en el proceso.



Incremento en energía                     E

T =                                                     =

Incremento de entropía                     S


Dejando en este momento el proceso histórico que  explica el desarrollo del “cuerpo de la ciencia del calor”,desde Lavoisier,Thomson, Rumford, Sadi Carnot, Robert Mayer, Helmholtz o Kelvin, nos interesa detenernos en  Willard Gibbs quien es reivindicado por los ingenieros mecánicos por sus investigaciones en ese campo, o por los matemáticos por sus investigaciones en el análisis de vectores, o los físicos que lo consideran uno de lo suyos por sus aportaciones a la mecánica estadísitica,los químicos lo reconocen como un pionero por sus trabajos sobre la aplicación de la termodinámica a la química.Su trabajo publicado en 1873 supone el intento de unificar desde una perspectiva lógica la energía y la entropía en un sistema con su presión,temperatura y energía,además de la entropía de un sistema con su presión,temperatura y volumen.Por cierto,para comprobar que no se construye la ciencia sino a través de un proceso de “identidades sintéticas” [20],como plantea Bueno,podemos recordar que la llamada “tercera ley de la termodinámica” no se presenta sino hasta mediados del siglo XX,con las aportaciones hechas entre otros por William Giauque acerca de la termodinámica,basándose,en gran parte en los trabajos de Gibbs.

Un importante físico nos puede aportar , desde su libro The direction of time , interesantes elementos para comprender mejor este modelo adecuacionista, realista .Pero antes,quisiera citar un texto de la TCC de Bueno ,que nos permitirá ,me parece,contrastar conceptos .

“(…)supuesto que todo conocimiento físico se obtiene mediante una “construcción  mental”

a ,apoyada en percepciones a´ ;cualquier proposición sobre cosas objetivas podría ser transcrita en una proposición sobre vivencias perceptivas : a – a ´  .Ahora bien (dice Reichenbach),cabe interpretar la flecha doble de dos modos : (1) como una identidad

(a    a ),, uy estamos en el positivismo,para el cual – Reichenbach cita a Mach como

precursor y a Russel y Carnap como expositores – las cosas de la naturaleza se alcanzan por “constitución” (método que consiste en definir una “constitución de grado superior” mediante “elementos”).(2)como relación que no es de identidad,puesto que se supone que el lado izquierdo contiene un “plus de significación”, estamos en el realismo.Pero Reichenbach

sostiene que no es posible decidir entre ambas posiciones (positivismo o realismo) con los medios de la ciencia natural;ni siquiera se trata de la cuestión de si existen realmente

las cosas del mundo exterior,sino de qué es lo que propiamente queremos decir cuando hacemos esa afirmación de existencia.Sin embargo,Reichenbach, – gracias a su importante distinción entre “configuraciones homogéneas con sus elementos”(la configuración muro respecto de sus ladrillos) y “configuraciones heterogéneas” ( la configuración casa y las percepciones de la misma) – se sitúa en la posición del realismo y utiliza un lenguaje abiertamente adecuacionista en su teoría de la verdad como correspondencia,que incluso

llega a atribuir al propio Schlick.”[21]

El libro de Reichenbach(publicado después de su muerte en 1953),contiene un capítulo de sumo interés para nuestra exposición,dedicado a la termodinámica.[22]

Citemos al propio Reichenbach :

“Que la entropía se incrementa durante los procesos físicos significa ,en esta

interpretación [23] , que  agrupaciones ordenadas de moléculas se transforman en desordenadas.Se observa con sencillez que la probabilidad de los últimos estados [desordenados] excede con mucho a la anterior;el orden es una excepción en un mundo de probabilidad.”

Bien,para tratar de resumir diremos que el problema ,para la teoría de  la ciencia,viene dado por la distinción entre dos “tipos” ,digamos,de leyes físicas: las que son estrictamente

basadas en la causalidad y las que se basan en la probabilidad.Aquí surge un problema,

al que Reichenbach tratará de aportar alguna luz desde el análisis de la macrofísica de la relatividad.Por eso Russell insistió tanto en discutir la noción de probabilidad de Reichenbach,pues de ella se derivan consecuencias gnoseológicas y metodológicas fundamentales para las ciencias, y no sólo las naturales,sino,en la opinión e Russell,las

ciencias sociales. Acaso,sugerimos,la propuesta de Bueno en este aspecto,acerca de que

hay metodologías alfa y metodologías beta operatorias,[24] sea un modo de enfrentar

el problema, pero desde luego, no lo soluciona, al menos eso me parece. Claro que si consideramos que las ciencias sociales son más bien “técnicas”,se puede pensar que

estamos en el camino de una solución al problema de la inducción y de la probabilidad.

No es posible ahora desarrollar íntegramente la prolija formulación de teorías que aporta Reichenbach en el libro citado,pero al menos podemos destacar que ,tras su modo de

exponer los conceptos de las leyes de la entropía,hay esa cuestión del tipo de lenguajes que utilizamos,es decir,la cuestión dela “verdad”,que a continuación expondremos,siguiendo para ello las investigaciones de Bueno,tal como las plantea Tarski.

Esto es relevante para la filosofía d ela ciencia,porque tras estos problemas se encuentra

el desarrollo de la matematización de modelos.Pongamos por caso,el célebre libro de

William R. Ashby,Proyecto para un cerebro.Se habla en este modelo del cerebro,de

sistemas homeostáticos.Lo que queremos mostrar,es que este método ,basado en modelos

para la ingeniería de sistemas,que implica la hipótesis de que estos sistemas cerebrales

son funcionalmente concebidos como “base para el comportamiento adaptativo”.Pero al establecer este modelo , se olvida,por una parte,que existen mecanismos biológicos,tales

como los que Faustino Cordón explica en su obra sobre la evolución de los organismos a

partir de la alimentación. Lo que es evidente,en estos momentos de nuestra exposición,es

que resulta urgente la tarea gnoseológica para evitar reduccionismos que levantan falsas expectativas acerca de los alcances de cada “campo de las ciencias”,en cuanto a su

capacidad “explicativa” de los fenómenos.La no consideración de la distinción – clave en

la teoría del cierre categorial – entre las Ideas filosóficas y las Categorías científicas – lleva

a caer en esas interpretaciones reduccionistas de la ciencia.

La concepción tarskiana de verdad en el contexto del adecuacionismo :

Tarski trata de definir la verdad a través de las proposiciones.Distingue entre un lenguaje formalizado L,cuyas propsiciones satisfacen y un criterio puramente sintáctico de “estar bien formados”.Por otra parte,establece una interpretación  T , de L,que es una estructura que consiste en dominios de individuos definidos  y predicados y relaciones definidos en estos dominios.Los dominios proporcionan los valores de variables de tipo apropiado en el

lenguaje , y los predicados y las relaciones de T son relacionados con predicados y símbolos de relaciones de L.Se puedo,entonces,establecer una caracterización de la verdad en T

porque las proposiciones en L pueden ser especificadas por medio de la relación  de satisfacción,definida inductivamente.La definición requiere en la teoría de Tarski ,de un metalenguaje.

Si cada uno de los conjuntos Q de proposiciones de L es verdadero en T, se dice que T

es un modelo de Q.La teoría de la consecuencia lógica propone que : una proposición s es consecuencia de un conjunto P de premisas,cuando ambos están formalizados, en el caso

de que cada modelo de P es un modelo de s .

La crítica de Bueno en TCC a la teoría adecuacionista de Tarski nos aclara que no debe ser confundida la teoría con la tomista,ya que mientras la adequatio intellectus et rei de Santo Tomás es claramente metafísica,pues la adecuación se establece entre el entendimiento

(el juicio intelectual,mental:”la verdad reside en el juicio”) y la cosa(la realidad).En elcaso

de Tarski-explica Bueno- “la correspondencia se establece entre un metalenguaje y el

lenguaje objeto . ( En el párrafo anterior,sería el lenguaje objeto L y el metalenguaje T ).

La diferencia,sería,pues,que la definición de verdad tarskiana,en principio,sería positiva.[25]

Bueno reconoce la “habilidad” de Tarski para lograr ,mediante la “condición modular”

de la verdad,lo que Ayer y otros positivistas querían: eliminar el concepto “metafísico” de verdad ,de las ciencias.Pero Tarski lo hace de un modo más elegante,es decir,de alguna

manera logra “salvar” este concepto estableciendo que lo que debe hacerse es definir la

verdad a través de los metalenguajes.Veamos como lo expone Bueno:

“gracias al criterio T de Tarski,sin necesidad de apelar al supuesto carácter “metafísico”,”mísitico” u “oscurantista” de la idea de verdad,sino,por el contrario,de un

modo mucho más “elegante”,apelando a su carácter modular(carácter que,en principio,permitiría eliminar el término de manera mucho más radical y,por decirlo así,sin

dejar adherencias y además sin comprometer opiniones filosóficas explícitas).”[26]

Y lo más importante,dentro de la perspectiva en que nos hemos situado,gnoseológica,esta definición de verdad de Tarski “asigna al lenguaje(al metalenguaje de los lenguajes formalizados) el papel de forma de los cuerpos científicos”.Por tanto,el papel del lenguaje objeto es el de la materia . Y quizá a los propios objetos de ese lenguaje.

Lo que habrá de ser criticado es el criterio de adecuación.

Para ello,consideramos que resulta conveniente introducir la definición de circularismo,ya

que es desde ella ,desde donde podremos emprender la crítica ( que debe necesariamente

ser “dialéctica” ) a las diversas teorías de la ciencia,entre ellas,la de Tarski.




4- Propuestas circularistas de la ciencia :

4.1              Definición del “circularismo”

En el glosario de TCC encontramos esta definición del circularismo,una de las cuatro “familias básicas de las teorías de la ciencia” :

” Cualquier tendencia a concebir a los sistemas(proposicionales o causales)como multiplicidades de elementos que se relacionan entre sí,no tanto según el orden lineal(de principios a consecuencias,de causas a efectos),sino según un orden circular,en el que las “consecuencias” o los “efectos” puedan desempeñar a su vez,en un momento dado, el papel de “principios”( o de “causas”).En la teoría del cierre categorial el término circularismo se especifica por respecto a los sistemas científicos categoriales en la medida en la cual puedan ser descompuestos en multiplicidades formales y materiales.El “circularismo” alude a la concepción de la ciencia que concibe la unidad entre esas multiplicidades según nexos circulares y no de mera yuxtaposición ni de reducción mutua.”

A partir de esta “definición”, es preciso ,digamos,”pulir” conceptos .Podemos comenzar recordando que,frente a descripcionismo,adecuacionismo y teoreticismo,que llevan a cabo diversas “hipóstasis” de materia y forma, el “materialismo gnoseológico”(se suele utilizar indistintamente cierre categorial,circularismo,para referirse a la teoría de la ciencia de Bueno,pero hay que aclarar además que hay otras variantes).

Veamos el modo en que Bueno expone estas ideas acerca d ella relación entre materia y forma:

” “Negar” (la sustancialización o hipostatización en)la materia y la forma no significa,en modo alguno,intentar prescindir de sus conceptos respectivos,poner entre paréntesis la distinción,ignorándola,a fin de iniciar un análisis de los cuerpos de las ciencias susceptible de llevarse a efecto con plena independencia e inmunidad de tan,al parecer,peligrosa distinción.

Si nuestra negación tomase un sesgo tan radical,sus consecuencias alcanzarían al sistema mismo de alternativas gnoseológicas que estamos exponiendo,puesto que no solamente las tres primeras(descripcionismo,teoreticismo,adecuacionismo)habrían de ser consideradas como meros “errores circunstanciales”(vinculados a una distinción oscura y prescindible)sino que la misma cuarta alternativa,el circularismo,perdería toda posibilidad de ser presentada como una concepción de la ciencia con estructura o enjundia propia(tan sólo podría ser presentada como “Gnoseología negativa”, y negativa de determinaciones externas,erróneas y poco relevantes…”

No se propone que la materia y forma sean yuxtaposionables(adecuacionismo), o que la forma se considera reducible a la materia(descripcionismo),o la materia reducible a forma(teoreticismo).El papel unificador de la forma es ejercido,según plantea el cierre categorial, ” a través de la determinación de identidades sintéticas que se encadenan y entretejen(a esto se le da el nombre,tomado de Platón, de Symploké)en el cuerpo material de la ciencia.[27]

Una interesante propuesta que puede ser de utilidad para explicar el modo en que el “circularismo” concibe “gnoseológicamente” la relación materia/forma la encontramos en el concepto de forma algebraica,lógico matemática : el caso del “teorema de Hauber”,mediante el cual Bueno muestra cómo es un error pensar que la “materia” es tan sólo un caso particular de una “estructura formal”(…)cuando en realidad lo que ocurre es que  la llamada “estructura formal “ es ella misma una estructura material algebraica coordinable con otras y que desempeña,a lo sumo,el papel de canon,ni siquiera el de prototipo.

“Si (p,q,r,s) constituye una enumeración completa de antecedentes considerados verdaderos de (p1,q1,r1,s1) consecuentes que se excluyen entre sí,entonces podremos escribir no sólo  [ (p –  p1),(q –  q1),(r –  r1),s –  s1) ] sino también sus recíprocas : [ (p1 –  p),(q1 –  q),(r1 –  r),(s1 –  s),(t1 –  s) ]”. Como demostración “formal” podemos proponer la siguiente : la “recíprocas”  pueden escribirse,por definición,de este modo : [ (¬p1 v p),(¬q1 v q), (¬r1 v r),(¬s1 v s) ].Todos los elementos de este conjunto han de ser evaluados como 1 (verdaderos),dado que,por hipótesis,las alternativas todas tienen un miembro 1; asimismo todas las letras negadas han de evaluarse 0,pues son transformaciones de elementos evaluado s1(no pueden agruparse como antecedentes,porque hemos supuesto que la enumeración era completa).Luego habrá que evaluar como 1 a sus negaciones : [ (¬¬p1,¬¬q1,¬¬r1,¬¬s1) ],por lo cual podremos transfromar los paréntesis (¬p v p)en (p1  –  p),&c.Ahora bien,supongamos que tenemos dadas una circunferencia de radio r y una recta distante d del centro de aquélla(consideremos la recta y la circunferencia como conjuntos de puntos A y B).Podríamos construir el siguiente sistema de proposiciones (utilizando al subconjunto constituído por los tres primeros del conjunto N,es decir : { 0,1,2 }) :

(1)(d>r) –  A  B = o [la recta es exterior a la circunferencia]

(2)(d=r) –  A  B = 2 [la recta es tangente]

(3) (d<r) –  A  B [la recta es secante)

Como los antecedentes del conjunto de implicaciones {(1),(2),(3)} constituyen una enumeración completa, y como los consecuentes se excluyen entre sí,podremos “aplicar” el teorema de Hauber

y concluir circularmente (según algunos,”formalmente”,es decir,sin intervención de ulteriores principios geométricos)las recíprocas :

(1)´ ( A  B) = 0) –  (d>r)

(2)´ (A  B) = 1 –  (d=r)

(3)´ (A  B) = 2 –  (d<r)

¿Hasta qué punto la circularidad-reciprocidad es formal?Desde luego no lo es la determinación de las condiciones que constituyen el sistema {(1),(2),(3) } en tanto está formado por un conjunto de antecedentes que son enumeración completa y por un conjunto de consiguientes que se excluyen : los criterios de completud y de exclusión son estrictamente geométricos.Por tanto,y esto es lo decisivo,el sistema { (1),(2),(3) } es un sistema de alternativas geométricas,como lo son cada uno de sus miembros-proposiciones (d>r),(A  B)=2,&c.Peroel sistema recíproco {(1)´ ,(2)´ ,(3)´ }puede ser obtenido sin necesidad de “aplicar”el teorema de Hauber ,pues bastaría aplicar el teorema general de la transitividad del signo “ –  “ en situaciones de reducción al absurdo (por ejemplo si suponemos que (A  B)=1 –  (d>r),como (d>r) –  A  B= 0 ).Nos encontramos aquí con una utilización,en contextos geométricos ,de un functor más general ( el “ –  “).Pero el absurdo al que conduce la falsa hipótesis es un absurdo geométrico ( al margen de que sea también una contradicción algebraica con el resto de las fórmulas utilizadas).Asimismo,la aplicación del teorema de Hauber tampoco requiere ser entendida como una norma interna,puesto que es suficiente interpretarla como una “guía” sistemática,una vez establecidas las correspondencias entre (1) y

(p –  p1),(2) y (q –  q1) y (3) y (r –  r1).Aquí,la “forma” es tan sólo una “forma algebraica” que representa las relaciones formales lógicas ejercidas en la interconexión de los miembros del sistema geométrico.” [28]

El problema suscitado por el asunto de “cierre” o “clausura”,lleva a GustavoBueno o introducir un “postulado de finitud”,para evitar,precisamente,caer en la “aporía del estadio , de Zenón de Elea.

Nos dice Bueno que “ una sentencia aplazada indefinidamente por la investigación de condiciones previas,necesarias para confirmar el jucio firme ,no podrá ser nunca una sentencia probada,no que no significa que la determinación de las concatenaciones precursoras carezca de toda función,no sólo en los procesos jurídicos,sino también en los científicos:lo que no significa que la “cadena cerrada” haya de ser,por ello mismo,una cadena aislada o clausurada,es decir,separada de toda otra realidad y fija en sí misma en cuanto al número de eslabones,como si no fuera posible sustituir un eslabón por otra serie de eslabones dados a otra escala,intercalar nuevos eslabones entre otros dos,no sólo distantes,sino también contiguos,formar bucles o divertículos , e incluso rodear la cadena de referencia con otras cadenas más amplias.”[29]

El ejemplo puesto para explicar este postulado de la finitud,nos parece esclarecedor.El zinc,visto desde la Química clásica,parece estar incluido en el campo “cerrado” el de la tabla periódica de los elementos de Mendeléiev,pero al surgir la termodinámica y la Física cuántica,parece como si el “cierre” se deshiciera.Esto no es así,desde la teoría del cierre categorial,ya que “ese cierre permanece en la misma medida en la que permanecen los eslabones de la cadena,los elementos químicos.”En la explicación de Bueno tenemos que : “Que el átomo de zinc haya de resolverse en una configuración orbital electrónica determinada no significa que deba ser borrado como mera apariencia fenoménica,reabsorbida en la esencia o estructura de la configuración Zn=(Ar)4s2 3d 10.El átomo de zinc,a la escala de la tabla periódica,desempeña ya el papel de una configuración esencial(por su concatenación con los otros elementos de la tabla)respecto de los fenómenos dados a un nivel de experiencia y tecnología operatoria plenamente definidos;puesto que lo que llamamos “esencias” o “estructuras” del eje semántico no tienen por qué entenderse metafísicamente,como entidades absolutas,sino como círculos que se constituyen precisamente a una escala fenoménica de la construcción tecnológica.


Otro ejemplo de interés,para aproximarnos a la comprensión de las propuestas de la teoría circularista de la ciencia,es el que expone el caso de la Genética mendeliana.Cuando la ciencia de la herencia ha comprobado que sus cadenas no son elementos simples,no por ello ha “aflojado” el rigor de sus cierres .Como menciona Bueno,no perdieron fuerza “tras el descubrimiento de los cromosomas en el núcleo de la célula y más aún,tras los descubrimientos ,en 1944,de Oswald T.Avery y colaboradores (lo que venía llamándose el principio transformador o Tp de las bacterias causantes de la neumonía,era,en realidad,un constituyente de los cromosmas que,lejos de ser una proteína,era el ADN).Pues toda la genética molecular se ha mantenido en los círculos de concatenación dibujados por eslabones dados a la escala de la tabla periódica.Por medio de estas “esencias”(los genotipos como principia media dentro de los genomas de la Genética)se estructura,determinísticamente,masas ingentes de fenómenos relacionados con la herencia de los seres vivos.[30]

La cuestión ,en este punto,de la pretensión de una “ciencia unitaria universal”,es desde la perspectiva de los cierres categoriales,inacpetable,ya que se construyen a partir de distintas categorías las distintas ciencias,aunque el problema de la relación entre ellas,es de enorme relevancia,como vemos en estos casos.En la próxima parte de este escrito,veremos las dificultades para establecer un criterio categorial de la evolución,tal como la explica Faustino Cordón,en la cual es necesario explicar el paso de unos niveles a otros .

Para terminar esta Primera Parte,,y enespecial,la definición de circularismo,queremos recordar que,al ser equivalente a “materialismo” y no ,por ejemplo,a otras teorías circularistas posibles,el “cierre categorial” ,como “núcleo más claro” de su teoría,establece “la doctrina de los contextos determinantes”,lo que supone que la propuesta del circualrismo implica la “negación conjunta” de la materia y la forma ,negación que nose reduce a una mera posibilidad combinatoria,sino que es presentada como “un modo positivo de “reabsorción” de la forma y la materia según la conjugación diamérica que tiene lugar en un contexto finito susceptible de ser desconectado de la totalidad del mundo.” [31]



I – La Biología

Decíamos en la introducción que los modos de funcionar de las ciencias incluyen :definiciones,demostraciones,modelos y clasificaciones.Por otra parte,se construyen los

cuerpos de las ciencias ,teniendo en cuenta principios y reglas,que,en la teoría del cierre categorial,se han,digamos,organizado en torno a lo que se llaman “ejes” del “espacio gnoseológico.Dichos ejes ,el sintáctico,el semántico y el pragmático,incluyen a su vez ,los siguientes aspectos,a saber:

Eje sintáctico:a)térrminos;b)relaciones;c)operaciones.

Eje semántico:a)referentes fisicalistas o fisicalismo;b)fenómenos y c)esencias o estructuras esenciales.

Eje pragmático:a)autologismos;b)dialogismos y c)normas.

En el caso de la Biología , si tomamos,pongamos por caso , el libro divulgativo de John D.Bernal,encontraremos un glosario de términos.Tomemos,por ejemplo el término

“pentosa”.Su definición es la siguiente ,en el citado libro de Bernal:

“Carbohidrato (fórmula general : [CH2O]m )que contiene cinco átomos de carbono ,por ejemplola ribosa,que forma parte del ARN,y la desoxiribosa , que froma parte del ADN.




Ribosa                                              Desoxiribosa


Bien,tenemos una definición,que nos remite a otros conceptos que son definidos a su vez:

Para ribosa,se nos remite a   la definición de azúcares:

“azúcar: un glúcido;fórmula general Cn(H2O)n.Los azúcares simples más importantes son

los que contienen cinco y seis átomos de carbono en una estructura cíclica(pentosa y hexosa).Los azúcares simples forman la base para la construcción de los polímeros del

azúcar,o polisacáridos,como la cadena lineal de la celulosa y de los polímeros de reserva almidón y glucógeno.”

ADN (ácido desoxirribonucleico), se define como:”Véase ácidos nucleicos.El ADN está constituido por nucleótidos  que tienen desoxirribosa y una de las cuatro bases nitrogenadas siguientes: adenina,timina,guanina y citosina(ver figura)









Están unidos por un enlace entre el fosfato de un nucleótido y el azúcar del siguiente.La estructura en que suele presentarse el ADN es la de una doble hélice formada por dos polímeros simples arrollados uno en torno del otro.En esta hélice los nucleótidos están dispuestos de tal forma que la columna vertebral de azúcares-fosfatos de los dos polímeros

está en el exterior; en el interior se disponen las estructuras cíclicas planas de las bases que

se encuentran en planos casi perpendiculares a los ejes de las hélices,estando unidas a otras bases del polímero opuesto.El apareamiento de las bases opuestas no es arbitrario;una base con dos anillos(purina) se aparea siempre con otra de un solo anillo(pirimidina),y,además,

la adenina siempre se une a la timina y la guanina a la citosina,siendo estos dobletes purina-pirimidina los más estables.Ello significa que,aunque la secuencia de bases a lo

largo de un polímero cualquiera pueda variar mucho según la procedencia del ADN,los filamentos de cada hélice tienen secuencias estrictamente complementarias.Esta teoría de la estructura del ADN es conocida como hipótesis de Watson y Crick que explica el funcionalismo de la duplicación cromosómica.”

Para comprender el primer concepto , ha sido necesario introducir otras definiciones, y

nos falta aún la de ARN,y la de “ácidos nucleicos”.Pues consideramos que es preciso introducirlos ,con el fin de entender un tema complejo como el que queremos proponer,

a través de la obra,inmensa,de Faustino Cordón.

“Ácidos nucleicos : Polímeros formados por nucleótidos que se encuentran en todas las

células vivas.El ácido desoxirribonucleico(ADN) se halla principalmente en el núcleo y constituye el material genético de la mayoría de los organismos.El ácido ribonucleico

(ARN) se encuentra tanto en el núcleo como en el citoplasma y aparece en tres formas,

cada una de las cuales desempeña un papel en la síntesis de proteínas.Véase ARN,código genético,cromosomas.En algunos virus,el ARN constituye la totalidad del material genético;

no se conoce ningún caso en que otro tipo de compuesto distinto a los ácidos nucléicos

forme el material genético.”

“ARN : El ARN está constituido por cadenas de polinucleótidos similares a los del ADN,

pero que contienen ribosa en lugar de desoxirribosa y uracilo en vez de timina.En las

células se encuentran tres formas de ARN: ARN mensajero(ARNm),ARN de transporte (ARNt) y ARN ribosómico (ARNr).Ninguna de ellas posee la estructura helicoidal regular

del ADN,si bien se cree que existen cortas regiones de hélice en el ARNt y ARNr.”

“Código genético : Las cuatro bases nitrogenadas (A,C,T y G : adenina,citosina,timina,

guanina , en elADN ; y A,C,U,G : adenina,citosina,uracilo,guanina, en el ARN)constituyen

un alfabeto de cuatro letras, y su secuencia a lo largo de la molécula de ADN o ARN

forma un código que contiene la información genética de acuerdo con la cual la célula

sintetiza nuevas proteínas.Se sabe que este código consta de “palabras” de tres letras,por ejemplo GAC,UUA,cada una de las cuales codifica a un determinado aminoácido.Así,la secuencia de amonoácidos en cada proteína de la célula depende de la secuencia de nucleótidos en una parte del ADN del núcleo de esta célula.La transcripción del código se realiza con la mediación de moléculas de ARN.Se sintetiza ARNm utilizando las secuencias

de bases del ADN como molde.La molécula mensajera se une a un ribosoma.Un enzima activador ocasiona la unión de aminoácidos determinados a moléculas de ARNt específicas

que son capaces de reconocer las tres letras que forman el codón del ARN mensajero

para su aminoácido específico. Los complejos aminoácido-ácido-ARNt se alinean a su

vez a lo largo de la molécula mensajera según el orden dictado por los codones, se

establecen enlaces peptídicos entre los aminoácidos adyacentes y queda constituída la

cadena protéica.”

“ATP : Adenosintrifosfato.Trifosfato de adenosina.



Trifosfato de nucleósido,compuesto,por ejemplo,de adenina,ribosa,y tres grupos fosfato.

Es un compuesto de alto contenido energético,de modo que cuando transfiere un fosfato

a un receptor,se libera gran cantidad de energía(7kcal/mol).La pérdida de un fosfato

convierte el ATP en un difosfato,el ADP;la pérdida de dos produce un monofosfato,el


Faustino Cordón nos aporta una “Teoría de integración de niveles de la materia”. Esos tres niveles ,tal como los expone en su magna obra en tres volúmenes , el Tratado evolucionista de Biología.(Historia natural de la acción y experiencia),son los correspondientes a un primer nivel: basibiones , proteinas globulares); la célula, segundo nivel y el primer animal. La evolución de unos niveles a otros supone el estudio del origen, naturaleza  y evolución  de cada uno de ellos y,lo que Faustino Cordón define como “evolución de la acción y experiencia”(basibiónica,celular o animal).El principal papel en la evolución corresponde a estos últimos aspectos,pero , además , al “ambiente trófico celular”.

No resulta labor sencilla analizar este enorme trabajo,que incluye,no sólo una base biológica muy fundamentada, sino análisis críticos(gnoseológicos),que incumben al ámbito de la

crítica filosófica,(lo que venimos denominando “teoría de la ciencia”).

Vamos a intentar mostrar cómo la evolución ,en los términos de la teoría propuesta por Cordón,puede ser interpretada,gnoseológicamente,desde las coordenadas de la teoría circularista de la ciencia.

Veremos cómo el propio Faustino Cordón está ejercitando su crítica ,al elaborar su teoría evolucionista de la Biología,propuestas que encuadramos en la Teoría del cierre categorial.Es decir, cuando habla de relaciones entre términos del campo de la Química y el reduccionismo de los químicos del siglo XIX,que,según él,dejan en el siglo XX,digamos,el prejuicio teórico derivado de concepciones reduccionistas de la célula y del organismo vivo.Los componentes del campo de la ciencia Química y de la ciencia de la Biología,en cuanto a los referentes fisicalistas,cuya expresión fenoménica es organizada en torno a sus estructuras esenciales(recordemos que en el cierre categorial,estos componentes gnoseológicos los establece Bueno en el eje semántico de lo que hemos definido como “espacio gnoseológico”. En cuanto a las normas,autologismos y dialogismos de los químicos del siglo XIX y el XX,veremos cómo Cordón los interpreta ,en una symploké,una red que ,construida materialmente,va “conformando” el cuerpo de la ciencia,estableciendo,desde los “contextos determinantes” y los “contextos determinados”,los cierres correspondientes.No,en el sentido del “falsacionismo” popperiano,o en el sentido de un adecuacionismo,sino,como veremos,desde una relación problemática entre “materia “ y “forma”,en el sentido de que hay aportes que se mantienen,que son además necesarios para comprender aspectos que la misma materia,desde los laboratorios,va planteando al hacer nuevas y necesarias comprobaciones.Lo que interesa destacar es el hecho,mostrado detalladamente por Cordón,de que la teoría debe ser corregida,los modelos deben ser adaptados y readaptados,en ese “tejerse” de las teorías,modelos,hipótesis,en el que los conceptos de materia y forma aparecen como “conjugados”,como los dióscuros,en el sentido en que Bueno lo propone en TCC.

Vamos a entrar al tema desde la Parte segunda del Vol.II del libro de Cordón,a saber: origen,naturaleza y evolución de la célula,más por motivos de espacio,que por el método más riguroso que exigiría,evidentemente,empezar por las primeras etapas de la evolución(basibiones).Nos ha parecido,en el contexto de este trabajo(Historia de la Ciencia y Filosofía de la Ciencia),de mayor interés,por tanto,comenzar desde este punto,que hace una referencia a la Historia de la Química que nos será de utilidad para nuestro objetivo expositivo y crítico de las diversas teorías de la ciencia en el contexto de la Historia de la misma.

Algunas teorías de Faustino Cordón:

Los biólogos aparecen divididos,según Cordón entre dos reduccionismos , a saber :

Aquellos que admiten que “el animal es la unidad absoluta de vida”,como los que “prosiguen desarrollando la taxonomía zoológica,la filogénesis animal,los etólogos,los psicólogos asociacionistas,los psicólogos evolucionistas,los psicólogos de la Gestalt,etc.”.Por otra parte,tendremos,en la propuesta crítica de FaustinoCordón,aquellos otros reduccionistas que “consideran la célula como unidad absoluta de vida”,entre los cuales tendremos a “los que se dedican a la genética clásica y a la de poblaciones,a la embriología,los psicólogos experimentales,los fisiólogs del sistema nervioso,etc.”. [32]

Me parece de enorme importancia para la filosofía de la ciencia recordar,antes de continuar con esta brevísima exposición de las teorías de Cordón,una advertencia suya alrespecto de loque se señala:

“Parece un síntoma de grave disolución del espíritu crítico que convivan en la biología actual los dos reduccionismos biológicos sin que el hecho perturbe ni menos estimule a nadie a intentar entenderlo y superarlo.”[33]

En los primeros años del siglo XIX ,Virchow y su precursor Schwann  consideraban a los tejidos como conjuntos de células “de carácter idéntico para cada tejido”.

La tesis de Cordón introduce la definición de célula ,no como Virchow acertadamente expone en términos fisiológicos de la célula,sino,además,como un ser vivo de segundo nivel de integración, “un foco unitario de acción y experiencia que resulta de la acción cooperante-conducida por él [la célula] de unidades de integración del nivel inmediato inferior,unidades que,por razones de muy diverso tipo,no pueden ser moléculas .”

Sobre este ser vivo del segundo nivel de integración,la célula,se constituye directamente la unidad animal,y él mismo(la célula) está constituído por la actividad cooperante de los basibiones,que sí surgen directamente de moléculas. [34]

La propuesta de Cordón es tan precisa que nos expone,en un brevísimo párrafo,toda una leccón,tanto para la biología como para las teorías de la ciencia.Me refiero a lo siguiente :

“En definitiva,desde comienzos del siglo XIX  y a lo largo de todo el siglo,los átomos son considerados como las unidades absolutas de materia,en las que se verifica la ley de conservación de ella,descubierta por Lavoisier,que mejor podría denominarse la ley de conservación de los tipos absolutos de materia.”Y una nota que explica esta idea con más detalle,nos ayuda a plantear algunos aspectos de la biología en el contexto de nuestro planteamiento de la filosofía de la ciencia(gnoseológico),a saber :

“Pocos decenios después se establece la ley de la conservación de la energía,básica de la termodinámica,que,como la de la conservación de la materia,es perfectamente aplicable a las reacciones químicas.Como se sabe desde comienzos de nuestro siglo [se trata del siglo XX],ni una ni otra ley son absolutas,aunque sean perfectamente aplicables al estudio y gobierno por el hombre del nivel molecular.Es sabido que,con generalidad,se unifican ambas leyes en la transfromación de materia en energía y viceversa según la ecuación formulada por Einstein,


m =


donde m es la masa en gramos,E la energía en ergios y c es la velocidad de la luz en cm/seg;el enorme valor de c2 (9  10 20)hace que los pequeños cambios de E en las reacciones químicas,en los cambios de estado de las sustancias,etc.,sean inapreciables conrespectoa los ingresos y pérdidas que afectan alsistema termodinámico constituido por la superficie de la Tierrra que se encuentra en estado molecular(corteza,hidrosfera,atmósfera).”

Las cuestiones de física aquí expuestas por Cordón,las veremos con detalle a través del siguiente apartado de esta Segunda Parte,al considerar la aportación de García Bacca a esta temática de la energía,etc.

Lo que nos interesa es señalar cómo se construye el “cuerpo” de las ciencias .Los dialogismos ,discusiones entre científicos,constituyen un elemento fundamental del “espacio gnoseológico” que en el cierre categorial se   incluyen en el “eje pragmático “.Las propuestas mismas de Faustino Cordón,en este aspecto,son no sólo dialogismos,sino que tratan de “regresar” (“regressus”) a la construcción esencial de los fenómenos de la biología, para proponer ,a través de lo que Bueno define como “progressus”, [35]

nuevos modelos que expliquen los fenómenos,según leyes,teorías,demostraciones,que desde luego ,están determinadas o limitadas,en cuanto a su “cierre categorial”,que se produce por medio de identidades sintéticas,por las relaciones y operaciones con los términos de la ciencia o ciencias en cuestión.

De acuerdo con la propuesta de la TCC de que cada ciencia tiene sus categorías,podemos recordar ,siguiendo el estudio histórico crítico de Cordón,cómo la química orgánica surge , separándose de la inorgánica,en los años que van desde 1845 a 1865,y constituirse como ciencia especializada,por el “orden de problemas y conceptos,teorías y métodos”.El estudio del átomo de carbono y sus propiedades especiales,destaca la de su tretavalencia fija,la aptitud de combinarse en largas cadenas mediante enlaces recíprocos en los que pueden aplicarse una,dos o tres de sus valencias,la existencia de cadenas cerradas(anillos aromáticos y ciclos),la aptitud de fijar agua en los dobles enlaces,su capacidad de enlazarse,por una o más valencias,con el oxígeno y el nitrógeno,etc. [36]

Y los logros de Mendeléievque l epermiten correlacionar un criterio físico(pesoatómico) y propiedades químicas y asíprever la existencia de átomos,de propiedades determinadas ,que llenarían los huecos del sistema.

No sería hasta el siglo XX ,cuando se logra una “estructura esencial” ,una explicación causal del átomo,de tal manera que se “deja atrás” el nivel de los fenómenos.Y no sólo en el eje semántico se dan estas transformaciones,ya que ,desde la perspectiva circularista de la teoría de la ciencia,los principios y reglas de las relaciones y de los términos(eje sintáctico),van transformándose al mismo tiempo que se suceden los cambios semánticos(en el sentido de Bueno).Claro está que todo se organiza dialécticamente en el campo de la pragmática,en el cual dialogismos entre científicos y autologismos,suponen la búsqueda de nuevas normas.Así se van “construyendo” esas concatenaciones de categorías bioquímicas,sin las cuales es incomprensible que pueda “avanzar” la ciencia.

El siglo XX inicia,con el descubrimiento de las partículas elementales  del nivel subatómico de integración(los modelos del átomo).Lo que se hacía hasta ese momento es como una casi perfecta clasificación taxonómica de elementos,pero faltaba la justificación de la misma mediante un “árbol filogénico,producto de la evolución”.

Liebig se forma en las ideas de Berzelius que ya había aportado a la química orgánica conceptos como el de “isomería”.Sentó Liebig las bases de la dietética y la agricultura científicas,con sus estudios sobre la relación entre lo orgánico y lo inorgánico de dos maneras: dedicando esfuerzos ,en colaboración con Wöhler,a aislar y transformar unas enotras ,clasiificándolas,moléculas orgánicas.Sus estudios sobre los intercambios de materia entre vegetales y animales.Trabajando sobre el radical del ácido benzoico ,lograron Liebig y Wöhler aislar elementos del mismo: a partir del aceite de almendras amargas logran el benzaldehido,que tratado a su vez con potasa alcohólica da benzoato potásico.El producto simultáneo,alcohol bencílico,no se descubriría sino hasta 1853 con los experimentos de Cannizaro,es decir,veinte años después.

Abrió el camino a la “teoría de la sustitución”,al constatar que el oxígeno electronegativo no puede formar parte de un radical electropositivo ni el hidrógeno sustituido por cloro o bromo.

Sólo podemos citar algunos de sus relevantes descubrimientos,pero nos interesa señalar que se “construyen” desde esa perspectiva gnoseológica que venimos denominando,con Bueno,de conjugación entre materia y forma.

La cuestión de los procesos dados en la fermentación se llevó a cabo con aportaciones empíricas de Schwann y Pasteur.Este último,químico opinaba ,al igual que el biólogo Schwann,que las transformaciones de azúcar en alcohol son una reacción sencilla que se formula así:

C6H12O6  –     2CH3 — CH2OH + 2CO2

La cuestión a debatir giraba en torno a la característica de dicha reacción: meramente química(molecular),en opinión de Liebig, y algo más que eso,según Schwann y Pasteur,es decir, la fermentación es un proceso intracelular, y para ellos ,por tanto, dado que células y átomos son orgánicas e inorgánicos,respectivamente,la reacción al interior de la célula es parte de algo vinculado a la vida,”a la fuerza vital”. Lo que desencadena la fermentación es ,como había postulado Traube (1826-1894) ,debida ala acción de una sustancia química, a la que por cierto,Kühne llamó enzima,con lo cual Liebig tiene parte de razón.Esto sería una cuestión sin aclarar sin la aportación de Buchner en 1897,cuando observó que “ultrafiltrados de levadura desmenuzada conservan la capacidad de fermentación propia de la levadura”.

Los conceptos de peso molecular y peso atómico aportados a la química por Cannizaro logran abrir paso a la solución de problemas empíricos que no podían ser explicados por la “forma teórica” digamos. Las aportaciones Kekulé(1829-1896)a la química orgánica abren paso a los avances de comienzos del siglo XX. El concepto de valencia, que expresa la capacidad de fijación de un átomo por otros átomos, y el concepto de afinidad química, la fuerza que estabiliza a las moléculas, con toda la imprecisión que tienen, incluso hoy en día, resultan fundamentales para construir ese cuerpo de la ciencia, y aunque sea de modo abstracto, se  busca solucionar un hecho empírico al que no es posible explicar con los datos teóricos incompletos de que se dispone en un momento determinado. Ante las explicaciones imprecisas, como Cordón las denomina, en el caso de la “fuerza vital” que explica los fenómenos cuya estructura el científico aún desconoce ,aunque sí explica elemento fenoménico como un proceso empírico “repetible”. La postura de Berzelius es considerada por Cordón como “cientifista”[la aplicación imprecisa de datos de otra ciencia a la propia]; mientras que la postura de Kekulé sobre la valencia y la afinidad química, es definida como una postura “científica” por Cordón [prescindiendo de lo concreto y sabiendo mirar lo que no se podía precisar pero que era pertinente con respecto a las unidades del nivel de integración en que entiende la química, las moléculas].A todo este proceso lo llama Cordón “la inflexión de la química orgánica, desde el empirismo a teoría experimental”. El “descripcionismo” [37],como modelo de teorías de la ciencia que establecen como criterio para establecer la relación materia/forma, la implicación de la forma en la materia (subordinación de la forma a la materia dice Bueno, pero, cuidado , subordinación no significa negación), es sustituido, al parecer de Cordón,y ello lo mostrará a lo largo de su propia obra, por otro en el cual materia y forma se “desconectan”(gnoseológicamente),para establecer entre ellas una relación de conjugación, que, pensamos, es equivalente a lo que Faustino Cordón explica como “inflexión del empirismo a teoría experimental”.[38]

Para Cordón,Pasteur significó un ejemplo de científico que fue capaz de “sostener puntos de vista opuestos de antemano a ideas que persisten en la bioquímica,como consecuencia de su reduccionismo erróneo de su sistema interpretativo a la mera química”.La célula no es ,pues,la unidad biológica más sencilla,para Pasteur,ya que hay seres vivos de nivel subcelular,que persisten en los ultrafiltrados y que de hecho gobiernan las transformaciones químicas.Hechos comprobados hoy por la bioquímica en el campo del metabolismo,dan la razón a Pasteur.La discusión sobre el hecho de que los cristales enantiomórficos del tartárico,en caldos de levadura,producen alcohol amílico ópticamente activo,le llevó a postular que “la actividad óptica es propia de moléculas vinculadas a la vida”.La discusióntiene fundamento en cuanto a que es posible ,en cuanto a que “en moléculas con carbonos asimétricos producidas fuera de la vida(laboratorio)se originan los dos estereoisómeros enla misma proporción,y que,además,hay cristales naturales fromados por uno de ellos”.Esta es la crítica de los reduccionistas(de lo bioquímico a lo meramente químico).A continuación ,veamos el modo en que Faustino Cordón explica esta cuestión,ya que es , a mi juicio,de una capacidad gnoseológica para la confrontación entre teorías de la ciencia,que en ninguna otra parte he encontrado.

“parece obvio que estos dos hechos no son sino,,la condición química y la ventaja selectiva,respectivamente,para que el basibión pueda hacer lo que está a su alcance y es privativo de su nivel,a saber,inclinarse a producir,ante sus coyunturas filogenéticas,,una determinada molécula entre dos químicamente posibles( en este caso un estereoisómetro y no el otro)por convenir al ejercicio de su acción y experiencia”.[39]

En su documentado modo de exponer la historia de la bioquímica,Cordón nos aporta muy interesantes comentarios,pero lo relevante,creemos,en nuestro caso,es el modo en que estos comentarios históricos,son puestos bajo la luz “crítica” .

El caso del holandés van ´t Hoff(1852-1911),discípulo de Kekulé,puede resultar

interesante en relación a lo que se planteaba acerca del metabolismo y los isómeros(estereoquímica).Los logros de van ´t Hoff permiten entender la diferencia del comportamiento de las moléculas en el ámbito inorgánico e invitro,del que desarrollan cuando actúan en cuanto moléculas gobernadas por basibiones,lo que nos permite entender el modo de acción y experiencia de éstos en tanto agentes biológicos de lo que Cordón define como primer nivel de integración biológica. Descubre ,en sus trabajos , que la presión osmótica es “con toda probabilidad” la forma de energía que realiza el trabajo celular. Demostró en un escrito de 1886 que “en las soluciones diluidas se cumple una ley que corresponde a la de los gases perfectos y se representa por la misma fórmula pv = RT,en la que p representa la presión osmótica(proporcional a la concentración molar de los solutos)”.Introdujo el concepto moderno de “afinidad química”, definido como “el trabajo máximo obtenido de una reacción, y el modo de calcularla en operaciones realizadas a partir de : medidas de presión osmótica, presión de gas, y fuerza electromotriz de células galvánicas reversibles”.

La referencia a von Baeyer,en la que Cordón nos advierte de su “pretensión realmente ilusa,que le aparta tanto de su maestro Kekulé,de mantenerse como empírico y experimentador puro”,resulta de sumo interés ,dado que comprobamos la teoría descripcionista de la ciencia .[40]Es decir,la forma lingüística teórica y la materia lingüística observacional,,como opción gnoseológica,desde la crítica de la TCC , se lleva a cabo,por el descripcionismo de von Baeyer,de tal manera que ,dada la alternativa cuasialgebraica [(0,1)],en la cual se da una subordinación (reducción) de la forma a materia,tendremos que “el núcleo de la ciencia no consiste en el discurso teórico sino en u contenido observacional”.[41]La crítica de Bueno se desarrolla a partir de estas cuestiones que a su juicio,plantea el descripcionismo :

“es de señalar la circunstancia de que en la mayoría de los programas metodológicos-gnoseológicos descripcionistas el “término clave”, a saber,”descripción”,es antes usado que definido o analizado : “el fin de la ciencia – decía Schlick -no puede ser otro sino el de “dar una descripción verdadera de los hechos” “;también Husserl presentaba el ideal de la fenomenología como “descripción pura”.Pero,¿qué describir?.Se exige que las descripciones sean verdaderas,ajustadas…,como si se supiera ya de antemano qué es una “descripción” y que lo que importase fuera su verdad o su justeza”.[42]

Hasta aquí lo que consideramos,dado lo extenso del asunto,importante para nuestro propósito de mostrar la concatenación entre teorías de la ciencia y la propia práctica y reflexión de los científicos.Ahora bien,no quisiéramos terminar este apartado, ( que se verá ampliado en lo que se verá acerca de la física a continuación -debido a la relación entre los átomos yyy las moléculas en el nivel biológico – )sin hacer referencia a una importante cuestión que menciona Cordón , a saber : el problema del concepto de “sistema”.

Muy brevemente, aceptando las leyes de la termodinámica expone Cordón que :

“todo sistema molecular general (como es la biosfera aun sosteniendo sus seres vivos) tiende a transcurrir con aumento de la entropía”, por lo que “parece incontrovertible :

a)Que la multiplicación de las levaduras tenía que implicar síntesis químicas anteriores que habían de exigir una fuente de energía química exterior, y

b)Que en un sector de la realidad elevado a unidades moleculares como nivel de integración superior, la ley de acción de masas, que vincula, en todo punto de él, reacciones de demolición exergónica, determina que, por el segundo principio de la termodinámica, el conjunto desordenado reaccional se produzca con aumento global de energía y

degradación de energía en calor, y , por tanto, no puede personificar el ser vivo”.

Lo importante es su crítica,decíamos,a la teoría de von Bertalanffi.Para Cordón,la consideración “rigurosa” del nivel molecular “nos debe poner en guardia frente a la interpretación de la célula como un sistema ,sea de moléculas, sea de fermentos, y, en general,f rente a la concepción “organímica” del ser vivo de von Bertalanffi, de hecho, mecanicista “.[43]

Reproducimos textualmente la tesis de Faustino Cordón respecto de este asunto, por considerar que ella nos aclara muchos de los problemas que se suscitan al considerar esas cuatro familias básicas de teorías de la ciencia:

“Todo ser vivo(la propia individualidad humana) ha de considerarse un foco unitario de acción y experiencia que surge continuamente de un conjunto cooperante de unidades del nivel inmediato inferior, guiando su cooperación para explotar un ambiente trófico, en concurrencia con otros seres vivos libres de la misma especialización. Distinguir estos conjuntos de individuos del nivel inmediato inferior( a los que corresponde la designación precisa de soma, no de sistema)de la unidad del alto( el organismo, en nuestro sentido, opuesto al de mecanismo, de campo unitario circunscrito) y explicar el origen y sostenimiento el uno por el otro me parece la tarea esencial del biólogo”.

Sobre la crítica de Cordón a la Teoría general de los sistemas dinámicos de von Bertalanffi, podemos añadir lo que Bueno comenta en el Vol.3 de su TCC citado:

“El “formalismo” propio de la teoría general de los sistemas dinámicos no es (pese a lo que podría sugerir su caracterización como formalismo)una condición que pudiera ser derivada de una “forma pura”(¿mental?,¿matemática?),puesto que tal formalismo,en tanto incluye un parámetro temporal t ( que está geometrizado, sin duda, pero en el contexto del desarrollo de una trayectoria sucesiva viene a ser un modelo físico material estilizado, antes que una pura forma matemática”.


2 – La  Física

Los problemas gnoseológicos que presenta la física han dado lugar,sin duda,a una mayor cantidad de trabajos teóricos, hasta la fecha,que los dedicados a la biología. Este hecho puede obedecer al mayor auge de ésta durante los primeros años del siglo XX y , acaso,al impacto social de la física a través de la bomba atómica, los desastres nucleares y en menor escala, el impacto de la teoría de la relatividad y “la indeterminación” cuántica. Las dificultades para entender los problemas proceden de dos fuentes fundamentalmente, a saber : una de ellas, la dificultad inherente a la propia ciencia física, que ha llegado a desarrollar un “aparato matemático” tan complejo que dificulta incluso a algunos físicos su comprensión de fenómenos también contradictorios .Por otra parte, la diversidad de teorías de la física, que incluye en ocasiones lo que podemos definir como “la filosofía espontánea” de los científicos, muchos de los cuales, al menos en los primeros años del siglo XX, tenían nociones de filosofía y de historia de la filosofía que, derivadas de la filosofía alemana que partiendo del siglo XIX ,dio lugar a desarrollos tales como la fenomenología e incluso, desde la psicología de la Gestalt, se hacen propuestas teóricas sobre las ciencias, como es el caso de Ernest Nagel en su libro La estructura de la ciencia. Por lo pronto, establece una clasificación en la cual tendríamos cuatro modelos de explicación. Su definición de explicación es la siguiente: “respuestas a la pregunta “¿por qué?” “.Ejemplos: ¿Por qué es siempre un cuadrado perfecto la suma de cualquier sucesión de enteros impares consecutivos que empiece con 1(por ejemplo 1+3+5+7 = 16 = 4 2 ).

¿Por qué se cubrió de humedad la parte exterior del vaso, cuando se lo llenó de agua helada?. ¿Por qué durante el último cuarto del siglo XIX hubo un porcentaje de católicos suicidas menor que el de los suicidas protestantes, en los países europeos?.  ¿Por qué flota el hielo en el agua?. ¿Por qué la adición de sal al agua disminuye su punto de congelación?. ¿Por qué sucede que la progenie de guisantes híbridos obtenidos cruzando progenitores redondos y arrugados aproximadamente 3/4 de los guisantes son siempre redondos y 1/4 arrugados?.¿Por qué Casio tramó la muerte de César?. ¿Por qué Enrique VIII de Inglaterra trató de anular su matrimonio con Catalina de Aragón?.

Bien, los cuatro tipos de explicación o respuestas al por qué de estas preguntas, son los siguientes, según Nagel :1- modelo deductivo;2-explicaciones probabilísiticas;3-explicaciones funcionales o teleológicas y 4-xplicaciones genéticas.

Nagel propone diferenciar entre “leyes experimentales ” y “teorías”. El caso que cita es la ley de Boyle sobre los gases, en que se explica un fenómeno,los gases mantenidos a temperatura constante cuando se hacen variar las presiones, a partir de cuyas observaciones experimentales “afirmó con carácter general la variación inversa de la presión y el volumen basándose en el supuesto de que lo que era verdadero en los casos observados es verdadero universalmente”, sin embargo cuando se incorpora la ley experimental a un vasto sistema de leyes, “es posible basar una ley experimental no solamente en datos confirmatorios directos sino también en elementos de juicio indirectos”. Otro ejemplo, la ley de Galileo sobre la caída libre de los cuerpos, que puede ser fundamentada en experimentos directos con datos relativos a distancias recorridas en tiempos distintos, o puede ser confirmada la ley de caída libre de cuerpos, mediante experimentos sobre los períodos de los péndulos simples, ya que ambas leyes se hallan vinculadas,”en virtud de su inclusión en el sistema de la mecánica newtoniana”.[44]

La cuestión de Newton y su teoría.

Newton ha de entenderse en el marco de la geometría como método, pero que ya incluye ,tras Descartes, la geometría analítica, el cálculo mediante derivaciones e integraciones, el cálculo infinitesimal.

Veremos cómo Khun analiza la llamada “Revolución copernicana” desde su perspectiva de las “revoluciones científicas”, y trataremos de contrastar este modo de entender las cosas,con el modo que Bunge propone, pero deberemos , en el contexto de la dialéctica entre esas cuatro familias de teorías gnoseológicas de la ciencia que venimos manejando, también ver cómo lo presenta Popper, para relacionar los tres modelos con el propuesto por Bueno, en el que, como decíamos, se conjugan materia y forma, no, como el adecuacionismo , yuxtaponiéndolas, sino negando que la ciencia las relacione como elementos cuya adecuación basta para establecer las teorías sobre los hechos empíricos, o como Popper defendía, la teoría define criterios, que mientras no sean falsados, son “válidos”, o como el caso del descripcionismo,la teoría sirve de respaldo “formal” a la mera descripción de fenómenos(lo que mencionábamos sobre Nagel, por ejemplo).

También, como mencionamos en la introducción y en la Primera Parte ,queremos introducir el modo en que García- Bacca maneja los conceptos de la física en la concepción ,que podemos ver muy cercana a la de Husserl.En este sentido, a saber:  “Si “positivismo” quiere decir tanto como fundamentación , absolutamente exenta de prejuicios, de todas las ciencias en lo “positivo”, en ,pues, lo que se puede aprehender originariamente entonces somos nosotros [los fenomenólogos ,(añade Bueno) ] los auténticos positivistas”.[45]

En el capítulo  VI de su La estructura de la ciencia , Nagel ,dentro del apartado “el papel de la analogía”,pone el  caso de la propuesta de Poincaré(Elecrticité et optique,1890) sobre la afirmación de que “si es posible dar una explicación mecánica de un fenómeno,entonces también es posible construir una infinidad de otras explicaciones”.

Con detalle,que merece la pena reproducir íntegramente aquí,se explica así Poincaré:

El número de ecuaciones que relacionan las coordenadas de posición y cantidad de movimiento de las masas del modelo hipotético con los parámetros determinables experimentalmente del fenómeno es mayor que el número de estos parámetros.De esto se desprende que es posible elegir las coordenadas del modelo a voluntad, sujetas solamente al requisito de que las mismas satisfagan alguna ley atinente a ellas que sea compatible con las ecuaciones. En detalle, el argumento es el siguiente:

Sean q1,q2…,qn los parámetros que pueden ser determinados experimentalmente y que especifican el fenómeno en investigación. Estos parámetros están relacionados entre sí y con el tiempo t por leyes de las que podemos suponer que pueden ser expresadas como ecuaciones diferenciales. Supongamos que hay un modelo consistente en un número muy grande de p moléculas, cuyas masas son mi y cuyas coordenadas de posición es ,xi,yi,zi (i = ,1,2…,p).Suponemos que rige para el modelo el principio de conservación de la energía de modo que exista una  función potencial V de las tres p coordenadas xi,yi,zi ; entonces,las 3p ecuaciones del movimiento de las moléculas serán :


d 2 xi          V


mi                 =


dt 2                     t


con ecuaciones similares para i y z ;mientras que la energía cinética del sistema será :



T =    –     mi (x2 + y2 +z2)


de modo que :


T + V = constante.

Entonces el fenómeno tendrá una explicación mecánica si podemos determinar la función potencial V y podemos expresar las 3p coordenadas x,y,z como funciones de los parámetros q.

Pero si suponemos que existen tales funciones , de modo que

xi =   i(q1,…,qn)

yi =   i(q1,…,qn)

zi =   i(q1,…,qn)

la función potencial V puede ser expresada como función  de los q1 solamente,la energía cinética T sería una función cuadrática homogénea de los qi y sus primeras derivadas qi , y las leyes del movimiento de las moléculas pueden ser expresadas mediante las ecuaciones lagrangianas :





Por consiguiente ,la condición necesaria y suficiente para que pueda darse una explicación mecánica del fenómeno es que haya dos funciones V (q1,…,qn) y T (q1,…,qn , q1,…,qn) que satisfagan estos requisitos ,con la estipulación obvia  de que las leyes del fenómeno puedan ser transformadas de modo que adopten la forma lagrangiana indicada.Tales funciones pueden ser especificadas si y sólo si









Y análogamente  para



Pero puesto que puede tomarse el número p tan grande como nos parezca, siempre es posible satisfacer esta condición,y hasta en un número infinito de maneras diferentes”[46].

El filósofo y físico mexicano Jorge Serrano explica con estos términos la postura de Poincaré :

“para Poincaré, la experiencia es por completo singular y concreta; y por lo tanto, la ciencia exige la intervención del entendimiento,que alcanza la universalidad introduciendo las hipótesis.(…)las hipótesis más generales,esto es ,los principios de  la física,del mismo modo que los principios de la matemática, son también construcciones del espíritu -libres convenciones – que no pueden ser confirmadas o invalidadas por la experiencia -no pueden ser verdaderas o falsas – sino sólo más o menos cómodas para sinnnntetizar los datos de la experiencia” .[47]

Será Kepler el primero que utilice con claridad la distinción entre “tendencia hacia” y “atracción por”. Los cuerpos graves(ponderables) y su atracción mutua son un axioma de Kepler, quien lo explicaba así en su carta a Maestlin de 1605: “la piedra atrae a la Tierra tanto como ella es atraída y dos piedras colocadas en el espacio,fuera del campo de atracción de un campo de acción de un tercer cuerpo emparentado (cognati corporis) se atraen el uno al otro”.[48]

No podemos deternos en los detalles de la transformación de los conceptos físicos de la célebre “revolución copernicana”,pero sí quisera recordar un comentario de Koyré,en el que se explica por qué, con la teoría de Newton,se mantiene una concepción teista o

Deista de la Naturaleza: el mismo Voltaire lo dice así: el reloj implica el relojero (“La razón me prueba que existe un ser que organizó la materia de este mundo(…)”).Salvo,señala Koyré, Laplace,esa visión newtoniana ,es interpretada de este modo.

Laplace dice a Napoleón: “no necesito esa hipótesis”, la hipótesis de un relojero(Dios ) para explicar el orden del mundo.

Koyré se lamenta de que,si bien Newton unificó dos mundos separados,el celeste y el terrestre,al aplicar el modelo matemático,se llega a disociar la teoría y la práctica,de tal manera que la geometría “reificada”(cosificada) y el mundo de la cantidad,hay en ese modelo lugar para todo lo existente, pero a costa de desplazar al hombre. Dice Koyré que “así,el mundo de la ciencia -el mundo real – se separó y se separa cccompletamente del mundo de la vida,que la ciencia ha sido incapaz de explicar – incluso por una explicación disolvente que haría de ella(la vida)una apariencia “subjetiva” “.[49] Dos mundos, dos verdades, o acaso, ninguna ,es el modo en que lo expresa Koyré.[50]

García-Bacca : espacio y tiempo newtonianos .


Para este filósofo, que ha sido definido por José Luis Abellán como ” un gran filósofo independiente “,el planteamiento de la llamada “física clásica”, al contrario de lo que sucedía hasta Newton ( y sus predecesores,Galileo,Kepler [51], Copérnico, Tycho Brahe ), ” toda la física clásica y moderna es física formulada con leyes analíticas,con puras estructuras de orden entre variables y constantes, sin esencial referencia a cuerpos concretos, fuera de la referencia indeterminada a “mobile quodam”, a un móvil cualquiera, como cualquiera es la constante (a) o la variable (x)”. “el Espacio se presta a tal tipo de tratamiento analítico puro. El Espacio es una “variedad” (Mannigfaltigkeit) ,no una multitud actual ; que algo muy diverso es que sobre esta mesa haya “muchos” libros y otra el que el agua pueda estar en muchos “estados”.Y por ser el Espacio algo absoluto, indivisible,único, (wessentlich einig, de Kant ) es de tipo

” variedad” , multiplicidad ni múltiple ni multiplicable en “muchos” : lo irremediable ya en plural.

De ahí que el Espacio se exprese por constantes y por variables (a,b,c…,x,y,z…) y que sus estructuras,las del puro al lado de ,fuera de,desde,hacia,distancia…deben ser expresadas por funciones entre constantes y variables,vgr.,por la fórmula del elemento de distancia infinitesimal ,

Ds2 = g (m,n) dx2 dx2 ;

o que la línea “espacial”, la que no es de ninguna cosa, como lo es la línea que hace de canto de este lápiz, se exprese por

y = ax +b , o por F (x, y) = 0 ,

tratándose de una línea cualquiera ; o que la superficie “espacial” ,la que no puede llevarse como piel, tenga por fórmula

z = ax + by + z ,o F (x,y,z) = 0 ,etc.

Por esto dirá sutilmente Newton que “los espacios” – así, en plural,según las pretensiones apropiatorias de las cosas – ,son “semilugares” (quasi loca),es decir : no pueden llegar a ser lugares -de las cosas,o espacios-de-cada-cosa. Las cosas quedan,a lo más, colocadas en el Espacio ; son caso espaciales,o quisiespacio.(Y,tal vez,como descubrirá la física moderna cuántica,las cosas no pasaban de ser quisicosas,casi-casi cosas)”.Lo mismo dirá García-Bacca acerca del Tiempo newtoniano,en tanto es un tiempo “absoluto”, y cita al propio Newton :”El flujo del tiempo absoluto no puede ser alterado. La misma es la duración o perseverancia de la existencia de las cosas tanto que los movimientos sean veloces, como tardos, como nulos”. “El tiempo relativo, aparente y vulgar es una medida sensible y externa de una duración cualquiera por medio del movimiento,y de la que se sirve el vulgo en vez del tiempo verdadero;cual la hora,el día,el mes,el año”.[52]

De gran interés gnoseológico consideramos la siguiente constatación de García-Bacca sobre las Ideas de “masa” y de “fuerza” : “La física newtoniana se integraba de dos conceptos indefinibles : Masa ,como sustituto “real” de causa material ; y Fuerza , como sustituto “real” de causa eficiente”.[53]

García-Bacca lleva a cabo un “regressus”( en el sentido de Bueno [54] ) para tratar de determinar la “estructura esencial” de conceptos como Espacio y Tiempo en la física de Newton.

En primer lugar, dice Bacca , “precedió en la historia del pensamiento físico clásico un período de eliminación de la causa material antes de llegar al concepto de “masa”.” Al contrario de lo que sucedía con la física en Sto.Tomás, de la que la unión real de materia y forma resultaba el compuesto real del ser físico real, Newton hace desaparecer esa separación entre pasividad y actividad al establecer que ya no pertenecen las leyes físicas ni a los individuos ni a las especies, diferencias específicas y accidentes individuales son eliminados de la “forma” de la física.

El concepto de causa es sustituido por el de fuerza, y en este sentido podemos entender las palabras de Newton, en el libro III de la Optices :

“estos principios,por ejemplo,la gravitación,no los considero cual si fuesen cualidades ocultas que se finja provenir de las formas específicas de las cosas, sino como leyes universales de la naturaleza por las que se forman las cosas mismas”,y añadía ” no dudo en proponer los antedichos principios (inercia, gravitación…)como principios del movimiento porque están difundidos amplísimamente por la naturaleza toda; pero dejo de lado la investigación de sus causas”.

Newton ,al relacionar a través de la “igualdad”, la fuerza F y la masa m y la aceleración a,(Segunda lex),está dejando atrás la explicación causal aristotélica, para introducir una explicación situada en un “campo”, que deberá ser complementado, la fórmula F = m.a , con la introducción de potencial cinético (Helmholtz),de energía potencial, en la formulación de Lagrange  y las funciones de Hamilton ,es decir, en expresión de García-Bacca: “los aspectos cósmicos, las magnitudes físicas en cuanto acampadas en el Campo del Mundo”. [55]




Crisis de las ciencias europeas y la física clásica . Nuevos paradigmas


Edmund Husserl plantea el hecho de que Locke y Hume llevan a la situación de un escepticismo tal que no hay fundamento gnoseológico par ala “verdad científica”.Según Husserl,lo que sucede es que se olvida el planteamiento gnoseológico para caer en el problema “psicológoco” ,es decir,concebir nuestro conocimiento de los datos empíricos con nuestro proceso psicológico y no con nuestra relación ontológicamente dada con los mismos lleva ,en el caso de Kant , a errores de tal magnitud que Husserl llega a hablar de una especie de construcciones míticas, como sería la idea kantiana del noúmeno. [56]

Quisiera ahora recordar la obra de otro filósofo español que murió en el exilio en México, se trata de Eduardo Nicol. En su libro Los principios de la ciencia , hace una importante reflexión, que a mi juicio, debe ser tenida en cuenta en el ámbito que nos ocupa.” La historicidad de la física compromete el fundamento en que había creído constituirse esta ciencia tradicionalmente.[Transcribo aquí su nota explicativa sobre esta idea]:

“Lo grave no es que la relatividad y la mecánica cuántica obligaran a cambiar por otro el esquema teórico de Newton. Lo grave ha sido comprobar que unos esquemas como éstos puedan y deban cambiarse; pues el valor de la ciencia física se fundaba, al parecer, precisamente en el supuesto de que tales esquemas eran inalterables. La confusión entre principios y esquemas de teoría ha producido ahora entre los físicos el convencimiento opuesto, de que la ciencia no tiene principios, por consiguiente, puesto que la ciencia sigue prosperando sin tenerlos, una investigación de los principios parecería tan superflua que no tendría siquiera carácter científico: sería una mera “especulación metafísica”.[57]

El cambio de paradigma(utilizando el modo de expresión de Kuhn),de Newton a Einstein,supone que el describir los fenómenos del espacio y tiempo como absolutos,en Newton, ha de explicar el movimiento y el reposo,no como sustancias, sino desde las coordenadas de dos variables separadas,digamos,a saber,las variables del lugar que ocupa el cuerpo en movimiento y la de la fuerza con que se mueve en cada momento. El definir la masa de un cuerpo en relación a su “vis insita”(inercia),supone que debe ser calculada “geométricamente” su posición en el espacio en un momento dado .Y esto supone que ha de calcularse el tiempo, pero siempre dentro de la relación a su distancia y la gravedad, que es una constante que está relacionada con la masa.

Lo que hace que la teoría de Newton sea ” falsada “, si vemos la cuestión bajo la perspectiva gnoseológica de Popper,es ,no que Einstein llegue a plantear la relación entre fuerza ,masa y aceleración de manera distinta radicalmente, sino que la separación


( mecanicista) entre espacio y tiempo, haciendo cálculos separados para la causa sin tener en cuenta que la masa es un elemento cuyo papel en el cambio resulta crucial, supone una limitación, que ya vio Leibniz, y que Huygens ya trata de solucionar al hablar de “fuerza viva” e introducir la proposición de que la fuerza que para newton era proporcional al cuerpo que la posee , según la propuesta de Huygens era el producto de la masa por el cuadrado de la velocidad.

Einstein, en la relatividad restringida supone que “la energía de un punto material con masa m ya no se expresa con la fórmula tradicional


M =



sino con la fórmula


la cual [la masa]se aproxima al infinito en la medida en que la velocidad v se acerca al valor constante y límite de c . La velocidad es, pues, factor definitorio de la masa, cosa que no ocurría en la física de Newton ,y la fuerza no es sólo una propiedad inercial de la materia, sino que, en forma de energía, es un equivalente ontológico de la materia. Materia y energía son una misma realidad con dos formas fenoménicas : son la realidad física”.[58]

El asunto,en la Historia de la Ciencia, implica introducirnos en el tema de lo que se denomina la “dinámica”, y superar el campo restringido de la mecánica ,dicho en los términos de Nicol,” en una dinámica del tipo de la leibniziana , por el contrario [que la de Newton] ,la energía es irreductible a los conceptos de fuerza inercial, de acción mecánica, de trabajo, de energía cinética,  etc., porque es algo más radical, algo cuya existencia permite conocer el ser de lo físico, y que procede de este ser mismo; de tal suerte que el despliegue de fuerzas que se produce durante el movimiento puede ser referido a esa energía radical como a su causa primitiva “.[59]

El problema de la “invención de las hipótesis” del que hemos mencionado anteriormente su complejidad, surge aquí nuevamente a raíz de la distinta concepción de la mecánica y el modo de manejar los fenómenos de la extensión y el reposo y el movimiento. El estudio llevado a cabo por Koyré es imprescindible, como ya hemos mencionado, aunque aquí no podemos extendernos en su detallada argumentación, pero el caso es que Newton sí introduce “hipótesis”, cuando le hacen falta ,y ello no es ,si nos olvidamos de los prejuicios psicológicos  a los que se refiere Husserl cuando tiene en cuenta a Locke y Hume, si de lo que se trata cuando se hacen esas hipótesis ,es de buscar lo que Bueno define como “identidades sintéticas”. La teoría de Newton no queda “falsada” por la nueva manera de entender la relación entre la masa y la energía, sino que se corrigen algunos de los aspectos que no habían llevado a cabo el “cierre” categorial, es decir, si Newton no fue capaz de establecer algunas de las “categorías” de la física, no significa ello que toda la física de Newton esté equivocada en sus principios y reglas .Y los principios de los términos y las relaciones ,podemos decir ,son dialécticamente construidos, no resultan absolutamente independientes de los fenómenos, cuya estructura esencial se trata de explicar a través de leyes, de cuya concatenación se llega a teorías generales, pero ello no supone que esas teorías no son históricas. En el sentido dicho de que los contextos determinados son necesariamente dependientes de contextos determinantes que se pueden variar ,y ello no es debido a cuestiones de “construcción de teorías” ,desde leyes formales sometidas a la lógica matemática, sino que son los fenómenos los que hacen necesario, al irse comprobando datos y sometiéndolos a los dialogismos necesarios, esas variaciones en las teorías, pero la “forma” lógica no es el motivo de las variaciones, sino nuestra manera de construir el cuerpo de las ciencias a través de la propia construcción material de las categorías que lo conforman.

La causalidad como problema en la filosofía de la física :

Cuando se considera que los cuerpos materiales están formados por átomos y moléculas comienza a adoptarse en la física la tesis de Leibniz,” según la cual las leyes dinámicas de la materia dependen de la composición interna de la materia misma”, explica Nicol, y esto supone que el problema se expone en relación con el estudio del calor. Lavoisier y Laplace en su célebre Mémorie sur la chaleur, ” declaran que el calor es la fuerza viva que resulta de los movimientos insensibles de las moléculas, y que el valor que lo representa es la suma de los productos de la masa de cada molécula por el cuadrado de la velocidad”.

La ecuación


P= 1/3   mn V2

Donde p es la presión, n el número de las moléculas por unidad de volumen, m la masa de cada molécula , y V2 el cuadrado de la velocidad. El producto mn del número de moléculas por la masa total del gas , por unidad de volumen , y constituye la medida de su densidad “.

En esta ecuación queda el factor decisivo  no está determinado unívocamente porque el factor V2 representa “el promedio del cuadrado de la velocidad”.Aquí se empieza a utilizar el cálculo de probabilidades en la física.Tanto Maxwell como Boltzmann emplean la ley del error de Gauss, [60] es decir, el término “azar” se introduce en la ciencia. Pero las leyes estadísticas siguen siendo leyes causales, la capacidad de predecir los fenómenos sigue siendo igualmente una de las actividades de la ciencia.

Un asunto muy polémico, en este contexto, es el siguiente: si al establecer las medidas y sus cálculos, en el nivel macroscópico son aceptables “errores” estadísticamente controlables, en el caso de las medidas de los niveles de la materia microscópica, esos “errores” pueden resultar enormes, de tal modo que ya no es posible establecer viables cálculos que puedan predecir los fenómenos, en base a tales estadísticas.

Energía y materia : ondas y partículas .

En el nivel atómico, la energía y la materia aunque son distintos componentes de la misma materia, están “ligados” de tal manera que, al hablar de discontinuidad, se está hablando no sólo de esa discontinuidad entre el mundo macroscópico y el microscópico, en cuanto a lo que respecta a que la discontinuidad entre materia y energía que se advierte en el nivel microscópico no se advierte en el macroscópico Pero hay que establecer con claridad que es imposible que esta dualidad en la discontinuidad real no puede tener un fundamento teórico, pues es imposible, tal como Nicol lo plantea, que “la causalidad sea vigente en un sector de la realidad y no en otro sector”.

La constante de Planck, que no es sino un factor de proporcionalidad sirve para expresar esta discontinuidad de la energía de la que venimos haciendo referencia.Las emisiones de radiación no se producen como un fluido continuo , (a esto se refiere la discontinuidad entre materia y energía, que es otra cuestión diferente de la discontinuidad entre macro y micro física),sino en cantidades finitas proporcionales a la frecuencia de la onda. La expresión matemática de este fenómeno aportada por Einstein es la siguiente

E = hv

Donde v es una variable que expresa la frecuencia de una emisión de energía(número de vibraciones por segundo); h es un factor constante y E es el cuanto de energía que es siempre múltiplo de h.

En cuanto a lo relacionado a la discontinuidad corpuscular , los átomos están compuestos, como es sabido, por los electrones, cuya carga es negativa, que giran en torno a un núcleo pesado de protones, partículas con carga positiva. No se trata de unidades simples, sino de una tal complejidad en su estructura que va aumentando al descubrirse constantemente nuevos elementos nucleares.

Se ha demostrado que el electrón se comporta como un corpúsculo cuando se mueve en un campo magnético o eléctrico exterior, pero al ser difractado por un cristal, se comporta como si fuese una onda. La luz, pues , parece ser a la vez corpuscular y ondulatoria. La discontinuidad es un factor irreductible en ambos casos. Cuando un electrón gira en torno a un núcleo, emite ondas electromagnéticas de la misma frecuencia que la rotación. Pero por otro lado, a ecuación de Einstein muestra que la energía de la onda depende de su frecuencia. Por lo tanto, si la frecuencia es discreta también loes la energía.

Así, tenemos la posibilidad de mostrar que de tal ecuación se deriva otra que tiene en cuenta el factor longitud de onda y no el factor frecuencia, se trata de la ecuación que nos propone De Broglie

p =  h lambda

en la que p representa el estado de movimiento del electrón y lambda la longitud de onda .El factor lamba es inversamente proporcional al factor v , es decir, la longitud de onda es inversamente proporcional a la frecuencia, el aspecto corpuscular pues, en ambas ecuaciones, está asociado al aspecto ondulatorio .   Lo que sucede en este asunto , es que la física cuántica ya no estaba en posibilidad de utilizar los esquemas de la física clásica, ya que era imposible aplicar el mismo esquema newtoniano del punto material”, porque lo impiden tanto el factor de discontinuidad de la  constante de Plank h como el factor ondulatorio v y lamba. A esto se le ha venido denominando “principio de indeterminación de Heisenberg .

La Idea de causa y la relación materia / forma .

Causalidad en el sentido de la física ,y desde las coordenadas gnoseológicas que hemos propuesto, siguiendo a Bueno en ello,

Supone que ,en el caso de la teoría del cierre categorial , materia y forma, como venimos diciendo, son “conceptos conjugados” ,en el sentido siguiente, a saber :

“Consideramos, en resolución, a la forma y a la materia como partes del cuerpo conformado. Al cuerpo conformado le atribuiremos el papel de “todo”. Esto nos lleva a entender las relaciones de unidad entre forma y materia en términos de una conjugación de conceptos. Si tratamos a la materia y a la forma como conceptos conjugados, la forma(que ya no se concebirá como principio global)equivaldrá a la misma codeterminación de las diferentes partes que constituyen la materia del todo. Por ejemplo: el alma de los seres vivos, como forma, equivaldrá a la misma “armonía entre las partes del cuerpo”, según leemos en el Fedón  platónico. O bien : el espacio-tiempo de  Minkowski ,en la teoría de la relatividad general, asumirá las funciones de forma como expresión física de la codeterminación de las masas materiales ligadas por la gravitación; y, por ello, el espacio-tiempo de Minkowski consistirá íntegramente ( en tanto sea un contenido físico con curvatura positiva y no un concepto meramente matemático) en la codeterminación diamérica de las masas gravitatorias. Por ello sólo cuando el espacio-tiempo de Minkowsi alcance el límite 0 de su curvatura, se convertirá en forma pura separada, carente ya de entidad física (precisamente, para ese valor de su curvatura, la materia ha desaparecido, y el espacio-tiempo es un espacio-tiempo absolutamente vacío). “…Para llenar nuestra finalidad – decía Einstein – es necesario vincular los conceptos fundamentales de la Geometría con objetos naturales, pues sin esa vinculación esta ciencia no tiene ningún valor ni significación para el físico”. Por tanto, la presencia de las funciones diaméricas de forma y materia podrá advertirse también en las ecuaciones relativistas que ligan los tensores métricos y los tensores energéticos. En efecto, aquéllos se refieren a la estructura geométrica(“formal”) o curvatura del espacio tiempo de una región considerada, y éstos al contenido material (energía/impulso) de la región que es fuente de la curvatura ligada a los fenómenos”. [61]

El reconocimiento hecho por Einstein, de la enorme importancia que las consideraciones de la “nueva geometría” ,llamada por algunos no euclideana, en la que puede haber la posibilidad de que no sea sólo el lugar determinado en las coordenadas planas(espacio de curvatura nula o euclideano) ,no implica que puede ser estudiado el problema, como, a mi juicio, hace Nagel , sin tener en cuenta, como lo hace el propio Einstein, el problema de la necesidad meramente formal de introducir una cuarta dimensión, sabiendo que no es factible fuera de la construcción matemática formal. Es decir, cuando se deja de tener en cuenta la relación entre materia y forma de la física. Einstein tiene mucho cuidado en no caer en teoreticismos o en descripcionismos, cosa muy delicada tanto desde la gnoseología como desde la propia ontología de la ciencia. Comentamos esto porque en el libro La estructura de la ciencia, Nagel analiza las “otras geometrías” y sus relaciones ,como si de problemas “teóricos” se tratase,  sin tener presente la relación de conformación o conjugación con la materia. Es decir,la física, cuando debe recurrir a los tensores, por necesidades derivadas de los nuevos problemas surgidos al estudiar el comportamiento de partículas atómicas, no determinables, en cuanto a su masa, aceleración , etc., desde las coordenadas euclidianas, este recurso es sólo una necesidad derivada de los contextos determinantes ,materialmente dados ,en los que el físico opera, en términos de la teoría circularista.[62]







Un ejemplo para la crítica gnoseológica :









Pongamos como muestra de esta experiencia, el modelo del teoreticismo .

Según Popper, la ley aquí experimentada, es expresada a través una formulación teórica, que será verdadera, siempre que no exista una nueva manera “ formal ”de explicar los fenómenos experimentados ,y desde su teoría de la ciencia, lo que hará que la teoría en cuestión(hipótesis o ley científica)sea “falsada” por el surgimiento de nuevas experiencias “inductivas”, que llevan a proponer otras “conjeturas”. Es decir, como es sabido, para Popper, lo que se da en la ciencia no son leyes(en cuanto a que su verdad pudiera ser considerada como  universal y verdadera), sino meras conjeturas, que al ser refutadas o “falsadas”, aunque la lógica de su construcción fuera impecable(su formalización), los hechos empíricos acaban mostrando que su capacidad de explicar los fenómenos de un modo plenamente satisfactorio, es una mera quimera epistemológica.

Este experimento no es un caso aislable,desde la Historia de la ciencia. Se trata de un problema relacionado con el llamado número de Avogrado, y una hipótesis(la de Avogadro), que quedó confirmada un siglo después de ser enunciada.

Muchos elementos y compuestos se estudian en estado gaseoso. Se ha encontrado que en una reacción en que las sustancias iniciales y finales son gaseosas ,los volúmenes de los elementos y sus compuestos que intervienen están relacionados por una expresión muy sencilla. Para explicar la conducta de los gases Avogadro (1811)estableció su hipótesis de que volúmenes iguales de diferentes gases, en las mismas condiciones de presión y temperatura, contienen igual número de moléculas. Ampère apoyó esta hipótesis le hizo observar que, de ser correcta, debía conducir a un método para determinar las masas relativas de los átomos, y las proporciones en que deberían combinarse. ”  [63]


El número de Avogadro puede determinarse por dos métodos,  a saber : el estudio de la electrolisis y el estudio del movimiento browniano de partículas suspendidas en un fluido.

Esto muestra cómo puede,desde el cierre categorial , ser una propuesta para la gnoseología de la ciencia, el concepto de identidad sintética, en este caso, tenemos que hay dos modos de llegar a un mismo cierre, es decir, el número de Avogadro no resulta una hipótesis ,eventualmente “falsable”, sino que se trata de una constatación a la que se llega, cerrando categorialmente el campo fenoménico de las partículas de los distintos componentes de los cuerpos , mediante leyes que responden a estructuras esenciales de dichos fenómenos.

Es por ello que queremos mostrar aquí el modo en que se construye mediante esa conjugación entre materia y forma de la que venimos hablando,el “tejido” gnoseológico de la ciencia,


Volviendo a nuestro ejemplo, que tiene relación con el problema de los pesos atómicos y masas de los elementos, además de sus cargas electrónicas, tenemos que,si se elige el estudio de movimiento browniano de partículas ,es preciso, además, para relacionar los términos del campo operatorio(que incluye además de los elementos,los aparatos y todos sus componentes ,definidos y clasificados en ese “históricamente dado” complejo de modelos y demostraciones)con las normas ya propuestas en el eje pragmático. Por ejemplo, en el caso de este experimento de Hopper y Laby para determinar la carga del electrón ,hay que tomar en cuenta el problema del llamado “movimiento browniano”.[64]

No se trata de algo tan sencillo, sino que es preciso tener en cuenta,para comprender el alcance del número de Avogadro y su relevancia para la ciencia física y química ,es necesario tener en cuenta las llamadas leyes de Faraday, que explica el comportamiento de partículas en las cubas electrolíticas , a saber: M= kQ (la cantidad de una sustancia liberada en una solución sólo depende de la carga total que pasa a través del circuito.

M es la masa depositada en el electrodo; Q la cantidad de carga que ha pasado a través del electrolito y k un factor de proporcionalidad llamado equivalente electroquímico de la sustancia.

La segunda ley de Faraday                A    1

M = Q   ——–

V    F

Para cada sustancia, la masa depositada al circular cierta cantidad de electricidad es proporcional al equivalente químico de la sustancia

La razón del peso atómico a la valencia del elemento , A/v , es el equivalente químico de éste , y F es una constante de proporcionalidad llamada constante de Faraday , o simplemente faraday .

Hemos propuesto este caso de una “célula gnoseológica” del “cuerpo de la Física”, porque consideramos que a través de él, podemos hacer una crítica de Popper y de Bunge ,al menos de un modo muy general, sin entrar en detalles, pero que puede muy bien servir como modelo crítico,en el sentido mencionado de la perspectiva de cuatro “familias” de teorías de la ciencia.

Estas mediciones ,cuya precisión en cuanto a las medidas se va perfeccionanado ,no supone que se esté dando un “falsacionismo”,alestilo de lo que Popper propone,ni tampoco que los planes, -en el sentido de la heurística (negativa o positiva) que forma parte de los llamados “programas de investigación”,de los filósofos de la ciencia Popperianos,Lakatos y Musgrave- sean dejados de lado ovariados,lo que sucede es que se va llevando a cabo lo que Bueno define como”cierres” operatorios .Aquí vemos que el concepto de “inducción” de Popper tiene poco que ver con la práctica de los físicos atómicos y nucleares.Se parte de determinadas “teorías”,que no son “aproximaciones altamente probables”,sino que son teroías que se han ido “construyendo” al conjugar las formulaciones “formales”(matemáticas),que ,apoyadas siempre ,en los datos observados o en sus efectos observados, van dando lugar a leyes: las “normas” de que habla Bueno, en tanto partes constitutivas del eje gnoseológico pragmático.Debemos recordar que la teoría falsacionista de Popper no es ni psicología ni sociología de la ciencia.Como explica acertadamente Jorge Serrano:

“Es cierto que lo que ocurre en la mente del científico puede interesarle a él y a su familia,a quien escribe su biografía,o a quienes se interesan por ciertos aspectos de la psicología y/o de la sociología, pero no influye en la valoración de su obra. Frente a la obra de un científico lo que uno debe preguntarse es: ¿qué nos dice la teoría? ¿Es internamente consistente? ¿Es genuinamente empírica o analítica? ¿Cómo resiste la comparación con otras teorías ya contrastadas? ¿Nos dice más que ellas? ¿Cómo puede ser contrastada? El mundo científico la aplicará en condiciones particulares y mediante procesos deductivos, derivará consecuencias lógicas en forma de enunciados particulares que puedan ser contrastados por la observación y el experimento. Cuanto mejor parada salga de estas constataciones con otras teorías tanto mejor será considerada como corroborada”.[65]

Para terminar este apartado sobre la filosofía de la física, quisiera comentar que ,dado el programa propuesto y la necesidad de pasar a las cuestiones relativas a la filosofía y las ciencias sociales, y la Parte Tercera, quiero terminar este apartado comentando que los planteamientos de Kuhn acerca de los “paradigmas” y las revoluciones científicas, suponen un modelo de hacer filosofía de la ciencia que se enfoca más a criterios históricos que a criterios gnoseológicos y que no podemos tratar in extenso aquí,por falta de espacio y por considerar una cuestión gnoseológicamente implícita en nuestra crítica a otros modelos, la crítica ala posición de Kuhn; considero, sin embargo ,crucial el estudio de este autor, para la Historia de la Ciencia.

En cuanto a la filosofía de Bunge y su insistencia en la “metodología” como elemento fundamental de la ciencia, quiero sucintamente comentar que resulta poco interesante su insistencia en la cuestión de la metodología, pues se dejan de lado probelmas muchomás relevantes,tales como esta realción entre la “forma” y la “materia” de la ciencia. El caso de la utilización de “modelos”, por ejemplo,lo que interesa no es criticar el uso de modelos como parte de la metodología de la ciencia, sino el reduccionismo creciente de la ciencia a la elaboración de modelos,”formales”,que dejan en muchas ocasiones,a la experiencia,a la materia,en segundo plano.Esto sucede, como veremos en el próximo apartado de esta Parte Segunda, en la que hemos de analizar la cuestión de la “demarcación” entre ciencias físico naturales y ciencias sociales o humanas. Es el momento en que resulta interesante introducir algunos elementos no comentados hasta el momento ,de la Teoría del Cierre Categorial. Nos referimos en concreto a la concepción de las metodologías alfa y beta.


3- La ciencia social :la teoría general de la información

Uno de los problemas que encontramos al tratar cualquiera de las llamadas ciencias

sociales o ciencias humanas, es el de la objetividad de las mismas.Como es sabido,

este fue uno de los principales “puntos de crítica” que hacía el Círculo de Viena y todo

el neopositivismo del siglo XX a la “metafísica” ,en cuanto ella trataba de ser ,

digamos,el modelo para la ciencia social(e incluso la natural).

Desde el circularismoo Teoría del Cierre catgeorial,se ha hecho un planteamiento que se

muestra en este apartado.Sin embargo,quiero introducir un tema muy puntual en este

momento.Se trata de la cuestión de la metodología,en cuanto a criterio para diferenciar dialécticamente ambos tipos de ciencias.[66]

Parte Bueno del concepto de “operaciones apotéticas”( de separar/aproximar)Todas las operaciones se dan en un “ámbito proléptico”,esto es: no hay operaciones al margen de

una estrategia teleológica”.

Tenemos,además,que la ciencia parte ,en general,de dos tipos de situaciones que Bueno

propone denominar como “alfa” y como “beta”.

Uno de los criterios del cierre categorial consiste en “el proceso de neutralización” de

las operaciones.[67]

Se propone el principio gnoseológico general que “prescribe” :a) el regressus de los

fenómenios a las esencias y b) el progressus de las esencias a los fenómenos.

Dentro de loque Bueno concibe como “Teoría general de los estados internos de equilibrio” encontramos las siguientes propuestas gnoseológicoas:

(I)                 metodologías alfa-operatorias : el estado límite de ellas ,por ejemplo,la Ciencia

histórica dejará de serlo para ser Ciencia Natural.

Situación alfa 1 : se da “en aquellos casos en que el regressus conduzca a la eliminación

total de las operaciones y de los fenómenos humanos(“de escala humana”).

Situación alfa 2 : no está dicho que todo curso operatorio tenga que dar resultados

operatorios. La Etología,puede servir como ejemplo de esta situación.También podemos

concluir un camino de progressus que partiendo de las operaciones y sin regresar a sus

factores naturales anteriores considere los eventuales resultados objetivos ( no operatorios)

a las que esas operaciones puedan dar lugar.Tendremos dos modos inmediatos de abrirse

camino las metodologías alfa dos ,a saber:

Las metodologías I alfa dos: se parte desde situaciones beta,pero se llega a alfa dos:

Pavlov,la Etología.

El modo segundo,modo II alfa dos: cuando las estructuras o procesos puedan considerarse específicas de las Ciencias Humanas o Etológicas.

Tanto en I alfa dos como en II alfa dos,las operaciones beta están presupuestas,no ya ordo cognoscendi sino ordo essendi por las estructuras o procesos resultantes,los cuales

neutralizarán las operaciones “envolviéndolas”,pero una vez que han partido de ellas.[68]

Entre la metodología alfa y beta se produce una antinomia.Al respecto señalemos que no

se acepta la distinción entre Cultura y Hombre ni entre Espíritu objetivo/Espíritu subjetivo

de Hegel. Bueno propone la siguiente idea: ” las estructuras culturales se parecenmás a las geométricas o a las aritméticas que a las etológicas o psicológicas”.

El estado límite en las metodologías beta es designado como beta dos.”Las disciplinas práctico-prácticas no tienen un campo disociable de la actividad operatoria, puesto que

su campo son las mismas operaciones(…)en tanto están sometidas a imperativos de orden moral,económico,político,jurídico/…(estamos ante “tecnologías” o “praxiologías” en

ejercicio”.En esta situación se encuentran la Jurisprudencia,la ética includens prudentia,

la política económica, etc.

En cuanto a la situaciónbeta uno,la determinación de las operaciones se puede dar de dos modos,que son los siguientes:

a)Un modo genérico(I-Beta 1) : en estos casos,en los que se determinan las operaciones

a través de contextos objetivos (objetuales),aparentemente estamos en II-alfa2,pero no es así,puesto que se regulan ,en la situación I Beta uno,las disciplinas científicas por el criterio

del verum est decir,se regulan por el conocimeinto del objeto que consiste en

regresar a los planos operatorios de su construcción. Un ejemplo de ello sería el caso de las ciencias de estructuras tecnológicas.

b)un segundo modo de la determinación de las operaciones ,que denomina el circularismo

como II-Beta uno,en el que las operaciones aparecen determinadas por otras operaciones(procedentes de otros sujetos gnoseológicos).Este sería, pongamos por caso,

el problema de la Teoría de juegos.Cabe preguntarse si es una disciplina matemática o no

lo es.La característica más importante ,su imposibilidad de una perspectiva neutral,no partidista,que abarque a todos los jugadores a la vez.La imposibilidad de que una persona

juegue al ajedrez consigo misma.

A continuación expondré dos diferentes proyectos ya realizados ,(con prioridad a la

elaboración de este Proyecto Docente), y que simplemente pongo a la consideración

como dos tipos de propuestas para el estudio de los problemas en ellos expuestos,en

tanto que “guía de estudio”,pues considero que en ellos hay una serie de problemas que

resultan interesantes para ser puestos bajo la crítica gnoseológica de la filosofía de la ciencia,

que considero ,debe tener en cuenta el estudio de las llamadas ciencias sociales,no sólo,

como parece ser que ha venido siendo tradicional en muchas ocasiones,el estudio de las

ciencias naturales.

El hecho de centrarme en la llamada ciencia de la comunicación social o de masas,es

sencillamente que puede ser más asequible y puede ayudar a centrar ,digamos,el objeto de estudio,además de haber sido parte de mis investigaciones en los últimos años,por lo que considero que puedo manejarlas con mayor soltura.

3.1 Proyecto de una crítica a Mc Luhan



(Algunas cuestiones sobre “El Hombre de la Galaxia Electrónica”)

“(…)Formulado por seudoo-pensadores,y popularizado en todas las formas posibles,se ha generalizado el convencimiento de que la civilización es privilegio de una élite,y que el hombre de la masa es sólo un medio para realizarla.Al mismo tiempo la ayuda espiritual a que tienen derecho les es negada a esos hombres que deben librar una dura lucha para conservar su naturaleza humana(…)(…)El hombre ahora tiene que afirmarse solamente contra las circunstancias que encuentra,y ya no más contra sus semejantes también(…)”.

SCHWEITZER,Albert; Kultur Und Ethic; Munich;1923.Traducido al español como Civilización y Etica;Sur Ed.B.Aires;1963)


“(…)el alma tiene aversión a imaginar lo que disminuye o reprime su potencia o la del cuerpo”.

SPINOZA,B.;Etica,demostrada según el orden geométrico.Parte III;Proposición XIII,Corolario.


El propósito que persigue este trabajo consiste en analizar los problemas de los llamados medios de comunicación,que presentan situaciones que han llevado a algunos “especialistas”-(profesores e investigadores de Facultades de Ciencias de la Información”,o en ocasiones llamadas “Facultades de Ciencias de la Comunicación Social”,o de “Ciencias y Técnicas de la Información”)-a plantear la necesidad de organizar “racionalmente”,desde los criterios de la “Ciencia”-en tanto garante de la “objetividad” y “verdad” de nuestros juicios al respecto-una Ciencia encargada de estudiar los fenómenos de la “Información” y de la “Comunicación”.

Este trabajo sería,posiblementte,poco creíble para aquellos que,como especialistas o “técnicos” o simplemente profesionales de los llamados “medios de comunicación”,en tanto que pudiese ser considerado por ellos como un “intruso” el autor de este trabajo,teniendo en cuenta que su “profesión” es la de profesor de filosofía y ética en un instituto de bachillerato.Simplemente quiero comentar dos cosas al respecto de esta posible crítica:

1)Mi interés por los medios dee comunicación-(considerando como tales la TV,la radio,la prensa y revistas escritas,el cine y el vídeo,pero también el ordenador,vídeo interactivo,internet,etc.,y claro que aunque algún lector de Mc Luhan pudiese haberse cegado por la novedad del llamado “hombre electrónico”,sigue habiendo un medio de comunicación que es el libro)-viene de tiempo atrás,ya que hace casi veinticinco años comencé a estudiar una carrera universitaria que me hubiese llevado a poder trabajar en el cine o la televisión,pero que por causas que no viene en este momento al caso,cambié por los estudios de filosofía “oficiales”.Quiero decir que aunque no he sido nunca periodista-sí he escrito artículos en prensa,sin percibir dinero a cambio-pude haberlo al menos intentado o lo que más me interesaba en esa época de juventud(a los veinte años)dirigir películas de cine.Por otra parte,la propia legislación no exige un título universitario para ejercer profesionalmente,por ejemplo,como director de cine,etc.

2)Considero que dado que cualqquier ciudadano de la “Aldea Global”-en el sentido de Mc Luhan-,aunque no sea emisor de mensajes,sí es receptor,y como tal,cualquier “ciudadano” de esa inmensa aldea electrónica,en cuanto es un sistema,puede participar o al menos debiera hacerlo.Si realmente la comunicación,para ser eficaz,en tanto mecanismo de adaptación al medio ambiente,implica la “retroalimentación”(o en inglés “feed-back”),en cuanto ella implicaría ,digamos,el intento de equilibrar el mensaje a través de la información,en el sentido de que el sistema busca-como causa final-mantener el orden,en tanto éste supone la garantía de mantenimiento de entropía “negativa”,es decir,que sirve para mantener el orden,frente al caos.

La participación en el análisiis de esta problemática,por lo tanto,no puede ser considerada como exclusiva de algunos expertos en medios,sino que afectaría a los diversos especialistas que tengan algo que ver con lo que genéricamente se llama “El Hombre”,o el “Ciudadano”,ahora bien,ello supone que habrá diversas maneras de considerar la cuestión que nos ocupa,y lo que parece primeramente pertinente es establecer unas coordenadas desde las que quede claro al menos “dónde situamos nuestro estudio”.Vamos a considerar dos cosas muy sencillas,pero fundamentales en este trabajo,a saber:

a)consideraremos el estudio dee la información y comunicación en la “Galaxia electrónica”-por contraposición a la “Galaxia Gutenberg”,en el sentido expuesto por Mc Luhan-desde la perspectiva de la filosofía crítica,una alternativa que supone que consideramos necesario partir de los saberes de nuestro tiempo que tienen relación con el problema que abordamos,y además será una filosofía materialista y no idealista.

b)Partiendo de la base mencionnada en a),planteamos la necesidad crítica de utilizar,para una mayor “fertilidad” de nuestro análisis,el concepto de “espacio antropológico”,ya que nos permite “ver” con mayor claridad el problema de los “medios”,en tanto que éstos y su actual desarrollo-vinculado,como es bien sabido,a la industria y las finanzas,dentro del llamado “neocapitalismo”,y por supuesto,a los intereses políticos y militares-no pueden ser considerados,nunca-so pena de incurrir en análisis que,por decir medias verdades,o verdades a medias,al dejar fuera cualquiera de los elementos del “sistema” en tanto que forman una red interactiva de carácter permanente-como aislados,en el sentido de funcionar autónomamente.Me refiero en este momento al caso de un artículo publicado en la revista “El Basilisco”,titulado “Filosofía y comunicación:de la polis a la telépolis”.()El artículo firmado por Eugenio Moya Cantero-que no debemos olvidar que fue presentado como ponencia en un Congreso de Filosofía celebrado en Granada,España,en septiembre de 1995 bajo el tema general:”)Para qué Filosofía?”-plantea tres “hipótesis” o ,como él las denomina,”conclusiones”.La primera consiste en afirmar que la filosofía surge a partir de los textos escritos como una reflexión sobre ellos y a partir de dicha interpretación,se habría dado el surgir de la filosofía como interpretación de las cosas a que dichos textos harían referencia.

La segunda conclusión de Moya Cantero sería que al surgir la imprenta,el individuo podía ya ilustrarse al leer por sí mismo el libro escrito por el “sabio” elegido por el lector,sin necesidad de esperar que alguien se lo leyera en voz alta.El progreso engendrado por la época de la Galaxia Gutenberg sería debido,además de al progreso de la técnica y las ciencias,al esfuerzo por “ilustrar”,es decir,por alfabetizar a los ciudadanos.

La tercera conclusión es que &”(…)Es la pérdida del libro impreso como soporte de la cultura y su sustitución por medios electrónicos lo que amenaza hoy tanto con la deriva tecnológica de la conciencia moderna como con convertir a la filosofía en una actividad anacrónica y disfuncional(…)”.

No quiero entrar en discusionees acerca de cuestiones defendidas por el autor del citado artículo muy discutibles,como son:la afirmación de que la escritura alfabética trae consigo una progreso en cuanto que las culturas anteriores(pensamiento pre-lógico)fueran más atrasadas respecto a su “capacidad de pensamiento lógico”.Por cierto,el propio Mc Luhan plantea la cuestión en el libro “póstumo” La aldea global,de manera más convincente que Levi- Strauss o Levy-Bruhl.

Afirmaciones como la de que el <homo typographicus sería un “pensador solitario”,tal como plantea Moya citando a Apel,nos parece absurdo,ya que dicha afirmación olvida que el libro era ya desde los primeros años,un modo de “comunicar” las ideas de su autor.Por ejemplo,la lectura de Rousseau en el México del siglo XVIII influyó en los hombres que harían del movimiento revolucionario de independencia que el nuevo modelo político,educativo,afectase al modelo alternativo,en el cual la Iglesia era considerada la monopolizadora,por ejemplo,de la educación de los “ciudadanos”.Los filósofos,como Locke,no eran solitarios sabios que “parían modelos políticos” en sus paseos matutinos o vespertinos,sino que eran partes de un todo en el que había implicados intereses de diversos grupos o clases sociales,de los que en un momento dado podían llegar a ser una especie de “portavoces”,en cuanto serían,podemos decir,”forjadores de opinión pública”,al estilo de los periodistas en la actualidad.

Mc Luhan no afirmó-y ello quedda bien claro en el libro La aldea global,el cual por cierto Moya ni siquiera menciona,lo mismo que sucede con el importante libro posterior a The Gutenberg Galaxy,titulado Understanding Media-que los medios

“trabajaban para acercar a los ciudadanos de todos los pueblos”,en el sentido que lo plantea Moya.En todo caso,Mc Luhan,tal como se plantea en Understanding media,temía,en los años sesenta,cuando publicó ese libro,-quizá fuera influido por el “ambiente cultural y político de esa época”-,que el mensaje fuese utilizado como “masaje”,en su célebre afirmación de que “el medio es el mensaje”,pero llegó a plantear este juego de palabras:”message is massage”,el mensaje es el masaje.El planteamiento de Mc Luhan en Understanding Media,no se limitaba a la afirmación de que los artefactos son prolongaciones de nuestro cuerpo,cuestión que tendría que ver con la relación entre las Ideas de Naturaleza y Cultura.El planteamiento de ese libro crucial-(que por cierto está agotado y es una pena ya que a mi juicio es muy valioso para el estudio de los medios de comunicación,)será acaso considerado como “políticamente incorrecto”?)-,insiste en una cuestión que no resulta,para el estudio crítico de la comunicación,secundario,como parece al leer algunos libros sobre el tema.Me refiero a la teoría de Mc Luhan de que hay medios “cálidos” y medios “fríos”.Los medios cálidos serían aquellos en los que el receptor del mensaje participa “activamente” en la interpretación y descodificación del mensaje,como sucede en la gente que lee un periódico de los considerados no de “masas” sino de “élites”.Un medio de comunicación frío sería el que supone por parte del receptor del mensaje una participación “decodificadora” baja o prácticamente nula.

Como plantea Jesús Timoteo Alvvarez,en el libro Historia y modelos de la comunicación en el siglo XX,habría medios “masivos” de comunicación y medios de “élite” de comunicación.Según él,un diario como El país,o el Washington Post,serían diarios de “élite” y otros diarios de tipo “amarillista”-(que venden los “escándalos,las imágenes llamativas”)-serían “de masas”.Lo mismo sucedería con los programas de radio o de TV.Sería el caso,pongamos,de Tele 5,que vende imágenes,más que dar informaciones serias o dirigidas a “élites” de espectadores “no masivos”.Considero que esta afirmación es muy discutible,porque los medios de comunicación son parte de intereses políticos,financieros,religiosos,muy determinados,y no en vano se les ha denominado como “el cuarto poder”.Quiero decir que,aun aceptando que hay ciertos medios “elitistas”-o quizá mejor habría que pensar en medios “mixtos”,que en ocasiones parecieran dirigir su mensaje a “élites” y en ocasiones a la “masa”-considero que un diario como el Washington Post o el New York Times,dirigen sus mensajes a lectores de “élite”,pero el lector no siempre está preparado para manejar o descodificar adecuadamente esa información,que ha sido “cribada” porque el diario está al servicio de determinados intereses políticos y financieros.Cuando se ve esto con claridad,es en el caso de la información sobre política exterior del gobierno de los Estados Unidos,tal y como trata de demostrar Noam Chomsky en varios de sus libros sobre la cuestión.

Volviendo a los planteamientoss de Moya,creo que las teorías de Mc Luhan han de ser analizadas desde la perspectiva de la Idea de “espacio antropológico”,tal y como lo intentó-sin ser consciente de que utilizaba ese “modelo” de análisis materialista propuesto por Bueno-el propio Mc Luhan.

Para Mc Luhan,resulta muy clarro el poder económico y político de los nuevos medios de emisión y control de información.Pone como ejemplo,en el libro La aldea global,el poder gigantesco que les da a las compañías que manejan el flujo de crédito en los diversos países de la “aldea global”,al extremo de que podrían llegar a provocar la caída de gobiernos.No hay más que recordar el caso de la ITT en Chile,que buscó por todos los medios “desestabilizar” el gobierno socialista de Allende.Pero eran otros tiempos.Lo que sí está claro es que los medios electrónicos de comunicación han de ser considerados como inmersos ellos mismos en un determinado modelo político y económico y de ninguna manera como exentos,es decir,que suponen una red de intereses económicos y políticos de los que forman una parte mucho más dependiente de lo que se nos quiere hacer ver.Cuando se plantea la utilización de las autovías de la información como una posibilidad de lanzar mensajes,por ejemplo,desde la filosofía,puede resultar ingenuo pensar que ello es una “esperanza” más.Lo que sí puede ser es imprescindible entrar a esa “vía de comunicación”,y hacerlo sabiendo que se trata de un modo diferente al tradicional.Pero pensar que el libro impreso quede obsoleto es una necedad.La diferencia entre medios cálidos y fríos no es una mera metáfora,se trata de una afirmación con base en experiencias científicas.() Esta cuestión resulta muy importante para analizar el papel de la filosofía en la enseñanza,en cuanto que cada vez hay más niños y adolescentes-así como ciudadanos en general,que son “educados” por la televisión,lo que acaso sea uno de los motivos del aparente crecimiento en las aulas de los centros de enseñanza tanto primaria como secundaria,de lo que algunos sociólogos han llamado “analfabetos funcionales”.Yo propondré aquí el concepto de “ilustrados electrónicos”,que supone que cualquier ciudadano de lo que Marcuse-por ejemplo,en su libro El hombre unidimensional-llamaba “sociedades tecnológicamente avanzadas”,está ilustrado en cualquier cuestión científica,política o religiosa o sobre ética y moral,si dedica algunas horas al día a ver la televisión,que jugaría el papel de transmitir la Gracia,no ya a través del púlpito y el confesionario y la oración en común o solitariamente,sino a través del “púlpito electrónico” que sería la pantalla de su televisión.Cuando un alumno que ya ha sido debidamente ilustrado por la televisión tiene que someterse a un modo de ilustración “anticuado” y “trabajoso” como es el estudio de libros,revistas especializadas,y además argumentar racionalmente sobre,pongamos por caso,la eutanasia o el aborto,o la “ingeniería genética” o las teorías políticas defendidas por el Nobel de Economía Hayek, labor del profesor será considerada superflua,ya que el alumno ya ha conocido el tema a tratar en el aula a través de un debate de televisión entre “expertos en el tema”,o a través de un vídeo o de una serie televisiva,e incluso a través del “telediario” o de un vídeo de campaña electoral realizado por un partido político,como sucedió en la campaña electoral de marzo de 1996 en España,en la que ni siquiera se consideró necesario hacer debates en TV,bastó con la emisión de imágenes para influir en la decisión ciudadana de votar.

No estoy de acuerdo con la ideea defendida por Moya,siguiendo en ello al parecer el planteamiento de Derrick Kerckhove,director del “Mc Luhan Programm”,en la Universidad de Toronto,que mantiene que la idea de Mc Luhan de “aldea global” electrónica,ya es hoy obsoleta,porque el sujeto individual es “nadie”,porque los individuos han sido desbordados por la sociedad “informática”.Esa afirmación de que “todos somos nadie” me parece que es “orwelliana”,en el sentido de que está escrita en “novolenguaje”,y hay que traducirla a un lenguaje que exprese algo entendible tal y como son las cosas:)qué significa esta expresión?,a mi juicio,puede significar que pertenecemos a ese ochenta por ciento de ciudadanos que son dirigidos por el restante veinte por ciento-(la gente importante que da las órdenes,dice Chomsky al respecto en su libro Lo que realmente quiere el Tío Sam)- de controladores del “rebaño de los perplejos”,o del rebaño de los “ilustrados electrónicos”.

Acerca de esta última cuestiónn,en la aldea global,Mc Luhan explica cómo sería esa sociedad que podemos,en el sentido de Marcuse,denominar como “unidimensional”,pero no en su totalidad,sino atributivamente,se trataría de la unidimensionalidad del ochenta por ciento de los ciudadanos.

Para Mc Luhan,el hombre de la “Galaxia elctrónica”,que volverá a un modo de vida “mítico”,habitará un mundo en el cual

“(…)Se quebrarán las viiejas reglas del fondo de una lógica punto-por-punto-[[la cultivada por Occidente a través del modo impuesto por el libro impreso,etc]]-.Surgirá el holismo como una forma de pensamiento dominante,gobernada por un grupo considerablemente más pequeño de una élite directiva.

Del mismo modo que ningún ingeeniero puede concebir una red de costa a costa de los Estados Unidos en otra cosa que no sea una dimensión de 360 grados,el software(en el ordenador),se convertirá en sí en una forma de arte,con firmas humanas individuales altamente reconocibles.Sin embargo,se pueden falsificar con facilidad las formas humanas.Por lo tanto,uno de los elementos del pensamiento holístico en el futuro,será la necesidad de encerrar redes de datos enteras y sistemas de satélites para proteger áreas clave de información.sin las cuales las corporaciones y los gobiernos no podrían funcionar.Una pequeña élite se convertirá en guardián de las puertas del templo(…)”.()

La manipulación de las masas,aa través de teorías de la ciencia como el operacionismo de Bridgman en colaboración con lo que el influyente psicólogo conductista Skinner(ver su libro Más allá de la libertad y la dignidad),es cada vez más eficiente en lo que se refiere al éxito en conseguir equilibrar libertad y planificación.En este asunto han jugado un papel crucial los medios de comunicación,sean de “élite” o de “masas”,en el sentido que maneja esta distinción Timoteo Alvarez.La importancia de los medios radica en el uso de lo que se ha conocido como “propaganda”,ahora llamado eufemísticamente “publicidad”,en tanto que ella misma forma parte de ciencias como la psicología social o la economía,viendo el asunto desde las conexiones materialmente dadas entre las llamadas técnicas de marketing y las técnicas psicológicas manejadas por los publicistas.()

El título que hemos puesto a eeste escrito no implica tanto la importancia de saber a qué tipo de filósofo pertenecería Mc Luhan,cuanto a qué tipo de filosofía pertenecerían aquellos que se colocaran en su misma línea explicativa cuando tratan de explicar cuestiones relacionadas con los medios de comunicación de la “Galaxia electrónica”-en tanto que esta supone una etapa “superior” respecto de la anterior etapa cultural,la llamada Galaxia Gutenberg-.Bien,según propone Gustavo Bueno()Qué es la filosofía?;1995),las teorías-[“filosóficas”,en el sentido de que son “críticas”,es decir,inmersas en los saberes,tecnologías digitales del presente,etc.]-de Mc Luhan,)son una filosofía inmersa,pero “adjetiva o genitiva”?,)o se trataría más bien de una filosofía que pudiera considerarse como efectivamente crítica?.

A mi juicio,se trataría de fillosofía adjetiva,en el sentido de que la técnica sería el sustrato,que al ampliar metafóricamente los supuestos contenidos implícitos en el saber técnico o científico,daría lugar a la “filosofía de(…)”-[en este caso de los medios electrónicos de comunicación]-.Bueno plantea la cuestión en los siguientes términos:

“(…)Acaso pudiera serviirnos como criterio el concepto de “intuición social y cultural del presente”,es decir,un “estado del mundo” que,a partir un cierto nivel de desarrollo tecnológico y científico,experimenta un proceso de confluencia con otras corrientes sociales o culturales que hacen posible la aparición de una actitud crítica(dentro de este estado del mundo,ocupará un puesto importante el desarrollo del lenguaje jurídico,científico,técnico,etc).

Las filosofías adjetivas se opponen,por tanto,principalmente,a toda forma de filosofía exenta,tanto a las de índole histórica,por arcaicas,como a las de índole escolástica,por ideológicas;pero también a cualquier forma de filosofía crítica(en el sentido en que la entendemos aquí,como filosofía crítica que defiende una sustancialidad,al menos actualística,para la filosofía)(…)”.()

Estas cuestiones son claves poorque acaso el planteamiento de Moya en el citado artículo de “El Basilisco” sigue el hilo argumental propuesto por Mc Luhan en su libro The Gutenberg Galaxy,respecto de la inutilidad de la Filosofía,como un producto de la “cultura impresa”,que sería obsoleto,en el sentido que “sistemas” del estilo del propuesto por Descartes,por ejemplo,son obsoletos,podemos decir,porque su modo de pensar,”lineal”,queda inutilizado,según Mc Luhan,por el modo “holístico”,de entender el mundo,que es el que definirá las culturas post Gutengerg.Pongamos a la consideración de los lectores estas palabras de Mc Luhan respecto de la filosofía “anticuada” de la era de Gutenberg,para que se comprenda mejor el alcance de la crítica propuesta por Mc Luhan:

“(…)Esta especie de balllet del pensamiento coreografiado por Gutenberg mediante el sentido visual aislado está levantado tan filosóficamente como lo está la asunción del espacio euclideano como a priori por Kant.(…)”.()

No creo que el concepto de &quuot;cibernautas” que utiliza Moya sea de utilidad para una filosofía crítica,ya que es excesivamente “vago”.Ni considero que la llamada “era electrónica”,o era de la “aldea global”,sea tan novedosa en el terreno político o incluso económico.Quiero decir que,a mi juicio,el uso de las nuevas tecnologías de la comunicación no supone la desaparición de aspectos ya planteados por Carlos Marx,que hace ciento cincuenta años,se “veían venir” por el autor de El Capital.Me refiero a lo que se denomina ahora “mundialización” o “globalización” de la economía,que no es otra cosas que lo que Marx dice cuando habla de la tendencia a la mundialización del capital y a la monopolización del mismo.Otra cuestión que Marx apenas insinuara,pero a mi juicio hoy es uno de los factores que incluso estarían a la base de las crisis políticas es lo que él llamaba “fetichización de la mercancía”.Por cierto,el ordenador,o el sistema internet,por poner un caso,podemos verlos desde esa perspectiva dibujada ya por Marx,como “fetiches”,en este sentido:se trata de mercancías que hay que vender,y que no serían en tanto mercancías para el consumo,sino meros fetiches.Me explico:en la red internet,-al igual que en el mundo todavía “gutenberguiano” de las revistas y libros impresos-el usuario puede acceder a visualizar de modo en parte distinto,pero “esencialmente” semejante,cuerpos de las mujeres de la revista Play Boy,o acceder a la información de informes “aprobados” como “publicables” en internet,de la Casa Blanca o del Pentágono e incluso de la CIA,o de cualquier otro tema,aunque a una mayor velocidad,y en teoría,con una mayor posibilidad de retroalimentación o feed-back-“interactivamente”,dice Moya.El problema,desde la crítica filosófica,estará en el hecho de que ,si se entiende el feed-back como participación del sujeto que recibe el mensaje de modo que él también puede influir en la mejora de manejo de los mensajes,para conseguir una mayor entropía positiva,en el sentido de mayor posibilidad de mantener el equlibrio “dinámico” del sistema,resulta claro que los hechos confirman que el sistema no es como se supone es el “modelo” del que se nos habla desde las coordenadads políticas actuales-en las democracias capitalistas.Y esto es así,porque,tal como ha mostrado contundentemente Noam Chomsky y otros críticos de este modo ,no ya positivista,cuanto utilitarista,o como dijera Marcuse,operacionalista,de plantear la situación respecto del papel que juegan los medios de comunicación.

El peligro,evidente,de la era electrónica,radica,precisamente,en el control,-por parte de un sector social cada vez más restringido(llamémoslo “oligarquía plutocrática”)-de los medios a través de los que el mensaje se emite.Se busca que la capa basal-productores-de la sociedad,se comporte como el sistema precisa para su buen funcionamiento.Y no resulta gratuito insistir en casos como el denunciado por Bueno,cuando el diario El País ocultó -“controló”,en el sentido de Chomsky,el pensamiento de sus lectores a través precisamente de la manipulación de un encuentro que Bueno pretendió hacer “filosóficamente crítico”-su intervención los días 24 y 25 de noviembre de 1995 en Madrid en las I Jornadas de la Sociedad de Historia y Filosofía de la Psiquiatría,una intervención que denunciaba,precisamente,no la eliminación,vía reducción de horas de clase en el bachillerato,para la enseñanza y estudio de la filosofía,ya que se mantiene,sino el intento de “silenciar”,no ya a la filosofía en general-conviene incluso mantener esa enseñanza de la filosofía exenta,adjetiva o del tipo de un “sucedáneo” de tipo “científico”(o más bien pseudocientífico,por acrítico,en la mayoría de los casos),o en el caso de la Historia de la Filosofía como optativa de los estudiantes de “letras o humanidades”,que quedaría reducida a una arqueología acríticamente objetiva,”asépticamente neutral” en lo político,etc.La consigna no es,pues,eliminar la “filosofía”,al contrario,hay incluso que hacerle la debida publicidad,pero cuidando mucho de no permitir que se desarrolle ninguna semilla del mal crítico ,tal como sucediera hace siglos con el modelo socrático-platónico.O en modelo propuesto por la metáfora de el “Basilisco”.

Los medios de comunicación,quee necesitan de tecnologías tan costosas,han de mantener su funcionamiento sustentados por un sistema económico,que sin duda alguna es cualquier cosa menos democrático.Los usuarios de los equipos internet,por ejemplo,son por decirlo brevemente,”privilegiados”:empleados y ejecutivos de multinacionales,industriales y banqueros;profesores universitarios o investigadores científicos;médicos,incluso filósofos,como propone Gustavo Bueno hijo en El Basilisco No.19,pero sin duda lo que puede llegar a ser un camino de liberación al estilo de la utopía soñada por Marcuse y algunos miles de jóvenes en 1968,puede llegar a convertirse,si no se lucha de algún modo contra ello,en una pesadilla al estilo de la descrita por la novela 1984 de George Orwell.Claro que los medios están allí como artefactos y no podemos oponernos a su presencia cada vez más extendida,pero no podemos pensar inocentemente que hemos llegado,a través la técnica de esta era electrónica,a “un mundo feliz” en que Skinner sería la voz y el pensamiento del Gran Hermano,porque aunque así fuese,suponiendo que Fukuyama tuviese razón (no “pura”,pero sí “práctica”,por utilizar metafóricamente a Kant),si la filosofía crítica tiene alguna razón de ser,será precisamente esta:hacer frente a esta sociedad de control del pensamiento por ser un modelo social plenamente anti filosófico,que nos llevaría a un permanente “tiempo de silencio”,tal como denunciara Luis Martín Santos y lo reiterara Bueno en la citada conferencia sobre el libro del psiquiatra socialista.Recordemos que Luis Martín Santos no conoció la “renuncia al marxismo” del PSOE).

Lo que estaría sucediendo en llas sociedades “tecnológicamente avanzadas”(Marcuse) iría en el sentido de lo que Bueno propone en el escrito “Principios de una teoría filosófico política materialista”(),cuando se refiere al concepto de “individuo flotante”:

“(…)El materialismo fillosófico ofrece una idea que puede desempeñar en muchos casos las funciones que juega la idea del hombre alienado-concepto,el de alienación,que por cierto tiene,según plantea Bueno en el mismo lugar,”un formato claramente metafísico de estirpe teológica”-:es la idea del individuo flotante..Porque el individuo flotante no es una figura pensada a partir de una situación metafísica de alienación,sino a partir de las circunstancias positivas que noldean la configuración de todo individuo personal,y que son circunstancias históricas y sociales.El individuo flotante,por esta razón,aparece en las sociedades políticas que han alcanzado un determinado nivel crítico cuanto a su volumen y heterogeneidad.El individuo flotante,sin embargo,no es el resultado formal de la aglomeración ni del descenso del nivel de vida(las dificultades del individuo que busca trabajo no producen normalmente la despersonalización sino que,por el contrario,pueden constituir,dentro de ciertos límites,un campo favorable parta imprimir un sentido personal a la vida de ese individuo).Las individualidades flotantes,en el seno de la gran cosmópolis,resultarían no precisamente de situaciones de penuria económica,ni tampoco de anarquía política o social(anomia)propia de las épocas revolucionarias ,sino de situaciones en las cuales desfallece,en una proporción significativa,la conexión entre los fines de muchos individuos y los planes o programas colectivos,acaso precisamente por ser estos programas excesivamente ambiciosos o lejanos para muchos individuos a quienes no les afecta que “el romano rija a los pueblos para imponer la justicia”.(…)”.

Quizá el propio Mc Luhan,cuanddo analizaba las “desventajas” o como el las llamaba,”insatisfacciones” de lo que describía como “robotismo global”-concepto de claros ecos “fukuyamescos”-,presintiera esa idea propuesta por Bueno de los “individuos flotantes”-()-cuando escribía(La aldea global,1980) que:

“(…)Su cuerpo permaneceerá en un solo lugar,pero su mente volará hacia el vacío electrónico,estando al mismo tiempo en todos los lugares del banco de datos-[podríamos añadir nosotros:como potencial consumidor,como individuo electrónicamente controlado,por los “vigilantes nocturnos” de la “era electrónica” del “fin de la Historia”,por ejemplo,un servidor,Eliseo Rabadán,que vive en un pueblo del norte de España,está registrado por en una base de datos en Dayton,EEUU,porque la aseguradora de su automóvil tiene allí se “sede central”,etc.]-.

El hombre descarnado-continúa Mc Luhan en su libro póstumo,de 1980-tiene tan poco peso como un astronauta-[)puede ser el cibernauta de que nos habla Moya?]-pero puede moverse con mayor velocidad.Pierde su sentido de identidad privada porque las percepciones electrónicas no están relacionadas con ningún lugar.Atrapado en la energía híbrida que despiden las tecnologías de vídeo,estará ante una “realidad” quimérica que abarca todos sus sentidos a un grado de distensión,una adicción tan adictiva como cualquier droga.La mente,como figura,retrocede hacia el fondo-[el uso por parte de Mc Luhan de las tesis de la psicología de la Forma(Gestalt)es constante en su interpretación “filosófica” de la cultura de las sociedades “electrónicas”,lo que confirmaría nuestra teoría de que su filosofía es de carácter no crítico sino adjetivo,o peor aún,sucedánea de la verdadera filosofía crítica]- y flota entre el sueño y la fantasía.Los sueños tienen una conexión con el mundo real porque poseen un marco de tiempo y lugar verdaderos(por lo general en tiempo real);la fantasía no posee dicho compromiso.

En este punto la tecnología see halla fuera de control(…)”.

Nos preguntamos,)del control por parte de los “individuos flotantes”,pero no de quienes forman esas “heterías soteriológicas” que “controlan el pensamiento”,como propone Chomsky o el propio Bueno en el artículo citado en la nota 11 de este escrito?.Precisamente la tesis de Fukuyama en el famoso artículo divulgado mundialmente puede ser interpretada desde esta perspectiva.Esas heterías,organizadas como apóstoles y sacerdotes de la Idea del fin de la Historia en una Aldea Global-que sería dirigida por el gobierno de Washington,en colaboración “trilateral” con Japón y Europa Occidental-ayudarían a “trivializar” el artículo del “asesor” de la Casa Blanca,pues el propio libro de Fukuyama acaso fuera insuficiente al respecto,ya que no es labor sencilla esa trivialización ,o acaso pudiéramos hablar de “difusión masiva” del mensaje,(o del masaje!.

Podemos plantear la siguiente hipótesis:que el libro El fin de la Historia y el último hombre,trivializa-seguimos en ello el planteamiento de Bueno en Primer ensayo sobre las Categorías de las Ciencias Políticas,además de su escrito de El Basilisco N1 11,20época:”Estado e Historia(en torno al artículo de Fukuyama),1992- el artículo,debido a que Fukuyama es incapaz de argumentar dialécticamente,críticamente,ofreciendo “criterios de verdad” aceptables gnoseológicamente,etc.,para demostrar que la tesis del “fin de la Historia”,tesis que nos trataría de convencer de que el llamado “Nuevo Orden Mundial”,que supone una organización “mundializada” de los asuntos económicos,políticos,según criterios neoliberales o neocapitalistas.Dicha tesis tiene un adecuado “ideológicamente correcto”,y ello sin prejuicio de que al mismo tiempo se mantenga que ya no se precisa ninguna ideología,porque la tecnocracia,-a mi juicio “pseudocientífica”,en tanto es “sucedánea” de la crítica argumental dialéctica-ya ha superado la etapa “atrasada y anticuada e inoperante”de las ideologías “modernas”.Pero la importancia de la tesis de Fukuyama para los miembros de las “heterías soteriológicas” controladoras del individuo flotante-[)podríamos relacionar esta idea con la de “hombre unidimensional” de Marcuse?]-tiene la importancia,como señala acertadamente,me parece,Gustavo Bueno,de ser capaz de haber puesto a disposición de “un gran público” una teoría a “escala filosófica”,”destinada a interpretar los acontecimientos macropolíticos,macroeconómicos y macroculturales de nuestra época”.Estos acontecimientos no reflejarían,según Fukuyama y aquellos de quienes es servidor en Washington,otra cosa que el máximo desarrollo del Espíritu,en cuanto que éste,-al igual que afirmara Hegel hace ya casi doscientos años-supondrá el nivel superior a que aspira la Humanidad en el siglo XX y el XXI ya en puertas,un nivel tal de libertad,garantizada por Estados Unidos y su modelo político neoliberal y neocapitalista,extendido,tras la Segunda Guerra Mundial y tras la caída del Muro de Berlín,a lo largo de toda la faz de la Tierra,con la ayuda de los medios de comunicación,con el dinero que circula con la rapidez de la luz,(“las tarjetas VISA y American Express”)y claro está,con la ayuda,si se precisa,de la Organización del Tratado del Atlántico Norte(OTAN).El internet,en esta época del máximo desarrollo del Espíritu(en versión yanqui),será la manifestación de la “Conciencia de Dios”,no ya a través de Hegel,sino de toda la caterva de “filósofos”(de la Etica,del Derecho y de la Ciencia y la Técnica,etc.)posmodernos.

Cuando una filosofía que,al iggual que la marxista en su tiempo,se opone a este supuesto idealismo del Espíritu(sea éste moderno-hegeliano- o posmoderno-fukuyamiano-),-que es en realidad un gran engaño en contra de la racionalidad liberadora de la razón ilustrada,que a mi juicio no puede estar agotada,ya que no ha hecho sino comenzar su singladura enmedio de hipóstasis de toda laya,que inclusive parecen renacer con mayor fuerza en esta época-se intenta por parte de quienes ven peligrar sus privilegios(como intelectuales al servicio de un sistema neoliberal,por ejemplo.Me refiero a periodistas,profesores universitarios,etc.),mantener indefinidamente ese “tiempo de silencio”,aunque acaso no les sea sencillo lograrlo,porque las condiciones materiales de cada vez más gente parece estar minando,tanto en el Primer como en el Tercer mundo,el orden neoliberal.Me refiero no a meras especulaciones.Podemos recordar el trabajo realizado por James Petras en Barcelona el año 1995,en el que se muestra una situación social que difícilmente puede hacernos pensar en una eutaxia-en el sentido de Bueno- que no sea la del capitalismo más salvaje con todas sus lacras de sobra conocidas.Claro que aun enmedio de una situación de vocerío “posmoderno” reinante en universidades de Europa y Estados Unidos,permanece una tea encendida en el materialismo crítico,a pesar de quienes hacen de sacerdotes y predicadores del sofisma de esa “Aldea Global”,donde incluso se definen las guerras y guerrillas como “Realidades virtuales”(Me refiero a Baudrillard cuando afirmaba en 1991 que “la Guerra del Golfo no ha tenido lugar”,porque según él se trató de una guerra virtual,o cuando el escritor mexicano Gabriel Zaid afirmaba en la revista “Claves de Razón Práctica”- dirigida,por cierto, por un periodista del silencio y un filósofo posmoderno del “ruido intelectual”entendido como interferencia en el mensaje.Me refiero a Javier Pradera y a Fernando Savater,como es notorio-que la guerrilla del EZLN en Chiapas era una guerrilla “posmoderna”,dando a entender que era una guerrilla de carácter “virtual”,lo que,pienso,puede significar,según Zaid,que es una guerrilla sin sentido en un momento de la Historia en el cual la Historia se ha detenido absorbida-genocidio indígena incluido-por el Gran Hermano,Señor del Espíritu Absoluto materializado en el altar del FMI(Fondo Monetario Internacional),bajo el ceremonial secreto de la Comisión Trilateral).

Para terminar,quisiera resumirr con la mayor claridad las tesis que he pretendido poner a consideración de los lectores de este trabajo.

En primer lugar,que estoy de aacuerdo en que los artefactos (TV,ordenador,etc.etc.)fabricados por los hombres son en alguna manera “prolongaciones” de nuestro cuerpo,que ayudan a adaptarse al medio para sobrevivir.

Pero,a diferencia de los animaales,hemos desarrollado unas actividades,que hemos llamado siguiendo a Gustavo Bueno,”circulares”,que,aun teniendo componentes etológicos,añaden normas(el Derecho es característico de los seres humanos,por ejemplo),etc.

La tecnología forma parte de uun complejo militar,industrial y económico,que supone que la propia producción y manejo de esos artefactos transformadores de la cultura a nivel mundial,están fuertemente relacionados con los componentes de lo que podemos llamar el poder(político,económico,militar) y siempre que se planteen cuestiones al respecto de esos instrumentos -que nunca pueden ser considerados como “neutros” o exentos respecto de los individuos que nunca están aislados sino que están formando parte de un “cuerpo político” que está sometido a un curso determinado tanto histórica como culturalmente,de ahí la dificultad de aceptar sin criticarlo,el planteamiento de que hemos llegado a una etapa de la Historia en la cual todo el mundo sería como una gran fraternidad,semejante a la Santísima Trinidad,en que habría,no Una sola persona en Tres Naturalezas distintas,sino una sola persona y casi infinitas personas distintas,es decir,que la idea de una aldea global electrónica implicaría que todos somos consumidores satisfechos,o estamos en vías de serlo,aunque seamos culturalmente diversos.Eso de que la Coca Cola se podrá pedir y vender según lo pida el individuo budista,musulmán o lo que sea a cambio de sentir “la sensación de vivir”libre y feliz,parece que no está tan claro para muchos “aldeanos”.

Por último,creo que estos arguumentos que hacen referencia a lo que Chomsky ha llamado “necesidad del control del pensamiento en las sociedades democráticas”,resultan,en sí mismos,críticos,y lo que pide,me parece,la crítica dialéctica,es tratar de poner manos a la obra,y,desde luego,podría valer la pena intentarlo a través de las redes del internet,desde luego,y ahí está la propuesta lanzada por Gustavo Bueno Martínez en “El Basilisco” número 19 de la segunda época en su artículo “Presentación del Proyecto “”Filosofía en Español””(información,documentación y textos de la filosofía en español)”.Podría ser un paso interesante para generar una frente anti silencio desde la filosofía escrita en español,desde la crítica materialista y dialéctica:un interesante reto para la verdadera filosofía,que no es otra,creo,que la crítica y además inmersa en los saberes del presente,sin duda alguna,aunque,desde luego,sin desdeñar-sería absurdo,evidentemente-los saberes valiosos del pasado.

3.2 – La llamada “Era de la Información”(Proyecto para la crítica filosófica)


La Era de la Información : un ensayo crítico




Llevamos  casi medio siglo escuchando afirmaciones como estas:

-“La Era de Gutenberg ha sido dejada atrás por la nueva Era de la Información,

en la cual ya no es la lectura de textos escritos en papel(imprenta)la manera en que podemos conocer racionalmente el mundo que nos rodea”.Son las tesis que hizo célebres el investigador canadiense Marshall Mc Luhan. Desde su muerte en 1980,se sigue hablando en estos términos, pero hay que hacer una crítica sobre esta cuestión. Dicha crítica ha de

abordar algunas cuestiones previas, de carácter metodológico, sin las cuales el confusionismo de nuestros análisis se agregaría a las miles y miles de reflexiones que, aun de buena fe y mejor voluntad por parte de cientos de “expertos” en el asunto, llevan a enormes contradicciones que ,de no ser por sus resultados en cuanto al impacto social de las mismas,

no merecían acaso mayor atención que algunas anécdotas curiosas acerca de lo mal

que están operando las instituciones de investigación superior y sus mecanismos de difusión del conocimiento.

-“Vivimos en la Era de la Información”.En este ámbito, se nos dice, aquellas sociedades que

no sean capaces de desarrollar mecanismos mediante los que los miembros de la misma no sean capaces de adecuar sus estructuras sociales, políticas, educativas, económicas, a la

nueva manera de organizar los conocimientos y las tecnologías “de punta”,están de alguna manera condenadas a una especie de ostracismo, de anquilosamiento ,que llevaría a dichas sociedades a quedar, incluso, fuera de las corrientes de la Historia en que ya se nos dice que hemos llegado a una especie de Mundo Feliz, que basa su fundamento social, político,

cultural, en el uso de las llamadas Nuevas Tecnologías de la Información, que incluyen a

todas las actividades de una sociedad. Entre los principales exponentes de esta versión de nuestro mundo, podemos citar a Manuel Castells, que se nos presenta, mediante los medios

de comunicación, la publicidad de editores y mundo académico, como un profeta de

nuestros tiempos, que hace olvidar incluso al ya “superado” Mc Luhan. Una de las características, como veremos, de esta Nueva Era de la Información, es, precisamente, el hecho-se nos repite machaconamente-de que la nueva manera de conocer y organizar la sociedad implica necesariamente que los conocimientos y las tecnologías son cambiantes, y

se habla irónicamente, en ocasiones de una “vertiginosa inmovilidad”.Se habla inclusive de una suerte de “evolución” del pensamiento humano, ya que -se dice-el uso de nuevos instrumentos de comunicación, hace que nuestro modo de organizar los datos de los fenómenos y pensar acerca de los mismos, mediado, como está, por el uso de máquinas capaces de desarrollar “Inteligencia Artificial”,nos están llevando a un Hombre en el que la cibernética ya lo hace concebir una diferencia entre lo real y lo virtual, de tal manea que nuestro cerebro ya percibe dos diversos espacios y tiempos, a saber: el real y el virtual.

Como se puede ver, estas cuestiones afectan a nuestra manera de organizar el Mundo en el que vivimos, y es preciso tratar de reflexionar acerca de estas cuestiones, ya que puede ser

que sí ocurra que se están produciendo cambios importantes en nuestras estructuras sociales

, económicas , políticas, de tal manera, que si no debatimos de manera crítica-en el sentido de que criticar supone clasificar, organizar, analizar y hacer síntesis dialécticas acerca de ese cúmulo de conocimientos acerca de los múltiples y complejos fenómenos que ,en la cuestión

de la educación de los ciudadanos, resulta crucial ,en cuanto a la “eutaxia” política ,es decir,

en cuanto a la manera en que ,como miembros de un cuerpo político, nos relacionamos a través de todo ese cúmulo de instituciones que ,acaso, están siendo transformadas

radicalmente por el creciente papel de las máquinas en ese complejo que algunos

antropólogos han definido como “Cultura”.


Una de las cuestiones que más parecen preocupar a investigadores de todo el mundo, es la relativa al problema de cómo organizar los datos que se nos presentan.

Se proponen diversos modelos teóricos ,basados en algunas de las más significativas autoridades en la materia. Se nos citan a autores, de un modo que me recuerda aquello de

la Edad Media:” Magister dixit “. Es decir, lo dice el maestro y es un argumento. Pero cuando se nos cita a Paul Feyerabend, o a Thomas Kuhn, o a Karl Popper o Lakatos o Mario

Bunge, se nos hace creer que los autores señalados están en lo cierto, inclusive cuando

se afirma que una Teoría Científica es verdadera mientras no surge otra que la “false”.Así, el recurso a autores que no han sido debidamente criticados, resulta ,a pesar de la buena fe de quienes los manejan como referentes metodológicos, contraproducente, en el sentido de que sus análisis de los fenómenos no hace sino describir hechos ,o en ocasiones, adecuar, más o menos ingenuamente, fenómenos y categorías ,es decir, adecuar teorías y hechos empíricos ,como si en eso consistiera la manera en que la Ciencia se elabora.

Quisiera proponer a su consideración la siguiente cuestión acerca de las Teorías de la ciencia

y acerca de propuestas metodológicas que se manejan ,como señalaba, de manera poco o nada crítica, en el sentido mencionado en la Introducción, de organizar,”cribar” hechos y teorías.

Lo que está haciéndose en los diversos modelos de Teorías de la Ciencia, es mantener ,de

uno y otro modo, el criterio de Aristóteles o de Kant,por citar a dos autores que han destacado en estas cuestiones. Quiero decir que al hacer análisis de las Teorías de la Ciencia, observamos que se sigue manteniendo un concepto de que la distinción fundamental ,

en el terreno de la Ciencia, se fundamenta en la relación entre la Materia y la Forma, es decir, entre la realidad empírica, captada por los sentidos- o a través de instrumentos, tales como microscopios, radiografías, sondas espaciales, etc.-.Ahora bien, en tal distinción interviene nuestra manera de organizar esa relación ,a través del pensamiento y del lenguaje. Según esto, en el modelo de Aristóteles, hay unas “Categorías”,que permiten organizar, relacionar, esos datos empíricos, esa materia, de la cual “extraeríamos ” la Forma, es decir, establecemos principios y reglas del conocimiento científico, mediante la adecuación de las cosas al


Para Kant, también sucede algo similar ,lo que los sentidos captan, organizando espacial y temporalmente los fenómenos sensibles, que aporta la realidad material, digamos, es organizado mediante unas Categorías, que son ,en el sentido cartesiano, innatas. Es decir, todos tenemos la capacidad de conocer porque todos tenemos esas Categorías. Los problemas surgen al rebasar nuestra capacidad de razonar, de pensar, acerca de algunos problemas como son el origen del Universo, o la Idea de Libertad y la Inmortalidad del Alma. En este momento ,dice Kant, la razón cae víctima de incoherencias lógicas, de aporías, de “Ilusiones de la Razón”.

Desde que Kant hiciera esta crítica de la razón, se ha derramado mucha tinta acerca de los límites de lo que la llamada Metafísica pueden determinar.

Y precisamente en este contexto que coincide con lo que se ha llamado el Siglo de las Luces en Europa, la Ilustración, además de coincidir con varios hechos históricos de relevancia

para nuestro propósito, a saber: la Revolución francesa, la Revolución Industrial y algunos procesos políticos que llegan hasta la explosión de bombas atómicas a mediados del siglo

XX, que marcan un hito en el desarrollo de la Tecnología, que ha llevado a muchos a propuestas que incluyen afirmaciones tales como las siguientes:

la Era Moderna, iniciada en el Siglo XVI, se agotó ,tras un desarrollo importante de las Ciencias y Sociedades que ,bajo la guía de los Ilustrados del siglo XVIII, y todo el auge de

un modelo de capitalismo que incluía una fe en el Progreso de la Humanidad fundamentado

en un modelo social positivista que excluía aspectos humanos relevantes, tales como los aspectos que resultaban necesarios, en el planteamiento de un Ilustrado célebre, el mismo Kant, a pesar de resultar ,digamos,”no científicos” o metafísicos como son la Idea de

Libertad ,el Ideal de una paz Perpetua para todas las naciones y una ética idealista ,en la que los

valores se fundamentan en un concepto del individuo como ser religioso.

A lo largo del siglo XIX se produce un enfrentamiento por establecer modelos sociales, metodológicos, científicos, que da lugar ,desde la influencia del positivismo sociológico de Marx, de Augusto Comte, basados en el modelo darwinista de la organización de las sociedades a través de la pretensión de racionalizar todo lo real. El sueño de Hegel transformado por el positivismo.

En los albores del siglo XX se produce, desde Viena y el núcleo mismo del mayor Imperio todavía dominante, el Reino Unido, un ataque feroz a todo lo que implica ,según estos movimientos conocidos como el Círculo de Viena y el Análisis Lógico del Lenguaje ,un

cultivo de la pseudociencia. La pseudociencia, se dice en estos influyentes movimientos que incluyeron a grandes físicos ,matemáticos, sociólogos incluso economistas, al estilo de Von Hayek, amigo de Karl Popper, ha de ser denunciada en todos los ámbitos ,pues ha hecho mucho daño a nuestras sociedades. Y pseudociencia es, según estos llamados neopositivistas, todo lo que trate de fundamentar sus teorías en el uso metafísico de la razón.

Se establecen métodos ,desarrollados a partir de los modelos incluidos en los Principia Matemática , de Sir Bertrand Russell y Whitehead. Pero además surgen diversos paradigmas o modelos ,en el campo de las Teorías de las Ciencias, que incluyen elexitoso modelo desarrollado por lingüistas de la talla de Fedinand de Saussure y de la llamada escuela de Praga, en cuya estructura de análisis se llega a posiciones como la defendida por el influyente antropólogo Levi-Strauss, a afirmar ,en polémica con Jean-Paul Sartre, que “hay que estudiar a los hombres como si fueran hormigas”.Así, el estructuralismo como método de estudio de los fenómenos, cuando se aplica en la sociología, lleva a desarrollar modelos ,derivados del célebre Talcott Parsons ,que incluyen el utilizar los fenómenos, organizados estructuralmente, para desarrollar a través de ellos ,sistemas sociales funcionales, sin atender a valoraciones de carácter “metafísico” ni filosófico: por otra parte, en el contexto de la llamada Guerra Fría, en la que dos modelos sociales, económicos, políticos, se tratan de imponer, se da el estructuralismo, mediante las propuestas teóricas de la izquierda francesa, mediante su principal exponente, en que el marxismo es delimitado, transformado, por un estructuralismo que pone en boga la moda de Althusser en países de América Latina, con su célebre “corte epistemológico”,que habla de una “sobredeterminación” de la Economía por otros factores que dejan de ser “supraestructurales” o secundarios, para ser relevantes en el proceso de producción económico.

Ante el caótico panorama y la crisis de modelos que se desarrolla desde 1960,encontramos hoy diversas propuestas entre las que destacan: la Teoría General de Sistemas; la Teoría del Caos y la llamada “posmodernidad”.

En cuanto a la posmodernidad, esa Idea tan nebulosa, pero que tanto éxito parece tener entre muchos intelectuales, podemos afirmar que se trata de un modelo decadente, pero útil .Decadente, en cuanto que defiende un agotamiento de la Ilustración, un uso de la parte que Nietzsche definía como lo Dionisíaco, o su maestro filosófico, el alemán tan admirador de Kant, Schopenhauer, definía como la Voluntad-o el Eros, para utilizar términos manejados tanto por Platón en el diálogo El Banquete, como por Freud e incluso por un relevante filósofo de la Escuela de Frankfurt, Herbert Marcuse, quien lo utiliza-el concepto de Eros-para tratar de explicar el modo en que la parte volitiva, el instinto, digamos, de la sociedad, es encauzado por parte de quienes controlan la sociedad tecnológicamente avanzada, en sus obras Eros y Civilización y El Hombre Unidimensional .La cuestión en cuanto a metodología, respecto a las propuestas de los defensores del llamado posmodernismo, contiene varias falacias importantes que hay que destacar:

1)decir que el proyecto de la era Moderna, que se desarrolla en la Ilustración y que pasa por el modelo científico y tecnológico de la Primera Revolución Industrial del siglo XIX resulta ya agotado, es cuando menos impreciso, puesto que muchos de los métodos de investigación actuales tienen raíces en la Matemática de Newton y Leibniz, aunque haya sido desarrollado un ámbito en el cual las matemáticas y las geometrías llamadas no euclideanas hayan añadido aspectos importantes ,así como el hecho de que la Física de Einstein y sus Teorías del a relatividad hayan supuesto importantes cambios, no implican la desaparición de las Teorías de Newton, cuando menos a un nivel donde la Tierra y la Luna se relacionan a través de tiempo y espacio.

2)Por otra parte ,afirmar que ya no tiene sentido buscar la verdad en los grandes relatos y discursos ,porque es preciso reconocer que hay diversas perspectivas que implican la presencia de un relativismo y escepticismo que nos llevan a manejar el concepto de “pensamiento débil”.Pero no creo que esto sea mera discusión irrelevante de filósofos europeos aburridos o deseosos de destacar en el cielo de estrellas intelectuales tan admirado por algunos. Más bien tenemos el caso de un momento histórico en que se trata de afirmar en todos los sitios de impacto social a través de medios de comunicación y foros, que ya estamos en la nueva etapa de la Humanidad en que el modelo social que representan las economías de mercado han dado lugar a lo que se definiera hace unos ocho años como “El Fin de la

Historia” y el “Fin de las Ideologías”. Esto supone que nada que tenga que ver con explicaciones críticas cabe en un orden de cosas en que sólo queda organizar ,desde una economía que se rige a sí misma por las leyes del mercado, y ello incluye la investigación científica, tanto a nivel de las llamadas Ciencias Físico Naturales, como de las llamadas Ciencias Humanas, desde luego, pasando por el arte ,la religión, y hasta la vida privada

de los individuos, acosados constantemente por la propaganda política mediatizada por la televisión, auténtico “púlpito” de la Era de la Información. Hay quienes acusan a los que criticamos este modelo posmoderno de la sociedad y de la Ciencia de estar desfasados,

de ser intransigentes, de permanecer en el “pasado”, pero esto es lo que en este ensayo tratare de discutir, precisamente.

En cuanto a ésas Teorías del Caos y General de Sistemas, creemos necesario hacer algunas precisiones ,en cuanto a su contenido metodológico,  hechos y las relaciones entre los


Se recurre a instrumentos de organización de los hechos que se han desarrollado en la Ciencia, en el caso de la Teoría General de Sistemas-que no es tan novedosa como se pretende hacer ver, ya que se basa en la consideración de los sistemas físico-químicos de la Termodinámica-.

Lo que nos interesa señalar es que se está recurriendo en muchos casos a presentar como Teorías de la Ciencia , a modelos derivados de las ciencias naturales, y ello lleva a

confusiones epistemológicas, que surgen de la consideración indiscriminada de  conceptos categoriales utilizados sin rigor epistemológico. Pongamos por caso a los autores de El Principio Antrópico , Tipler y Barrow,que presentan un modelo a partir de Teorías de la Bioquímica o inclusive de la Astronomía, para establecer ciertas propuestas que implican la idea de que es el Hombre la medida de todas las cosas, pero siempre bajo parámetros científico categoriales determinados por las ciencias naturales.

Una propuesta alternativa : el mundo académico español, es conocido, fue víctima de la dictadura militar franquista a lo largo de prácticamente cuarenta años. En especial se dio una fuga de intelectuales, escritores, científicos, pero se dio el caso de que algunos de ellos ,

aun en esas adversas circunstancias, o quizá por ser jóvenes y no verse obligados a exiliarse tras la Guerra Civil de 1936-1939,pudieron trabajar en un medio hostil. Tal es el caso del filósofo Gustavo Bueno, nacido en 1926,y que tras la muerte del dictador Franco, comenzó

a publicar algunos libros de filosofía de un interés que consideramos importante dar a

conocer en este ensayo. Recomendamos acudir a las siguientes páginas de internet para acceder a más información sobre estas propuestas, en especial el Diccionario Filosófico elaborado por Pelayo García :

En el campo de la filosofía y de las Teorías de la Ciencia, como hemos señalado, se dio un auge de modelos, que, no obstante, se mostraba un tanto limitado, al ser de alguna manera desbordadas por el rápido desarrollo de tecnologías y cambios socio políticos que han ocasionado algo que podríamos definir como “cierta perplejidad” entre el mundo académico e incluso entre el mundo político y social.

Gustavo Bueno procede a desarrollar lo que será ,tras un trabajo de aproximadamente treinta años, un modelo o Teoría de las Ciencias, que se ha definido como la Teoría del Cierre Categorial.

En su esfuerzo por definir el papel de la Filosofía en el conjunto del saber ,constituido por las Ciencias, tanto las llamadas físico-naturales(Biología, Química , Física,&),como las Ciencias Sociales(Economía, Derecho, Antropología, Sociología, Lingüísitica , &),escribe hacia 1970 un libro clave : Ensayos Materialistas , en el cual se establece una crítica de las diversas escuelas filosóficas, desde un modelo en el cual se establecen las relaciones entre la Idea de Mundo y la Idea de Materia. Lo que se propone, muy esquemáticamente dicho aquí, es que entre nuestra Idea de Mundo y la Idea de Materia se da una relación que es mediada por el Ego, que no es la Conciencia pura de Husserl, fundador de la llamada fenomenología, sino el modo en que nosotros somos capaces de relacionar las distintas clases o géneros de materialidad por medio de las cuales organizamos los fenómenos. Así, la conciencia se manifiesta mediante las actividades científicas, pero también mediante las acciones religiosas, el arte, la política. Esto es así, ya que la Idea de Materia no es una Idea metafísica, supuestamente dada a la Conciencia por un referente trascendental, a priori, independiente de la propia experiencia empírica, sino que ,según plantea Bueno, se darían tres géneros de Materia, que corresponden a :

1)la materia que se presenta en el mundo de lo físico-natural.

2)la materia que se manifiesta a través de lo que podemos denominar actividades psicológicas, imaginar, la memoria, la capacidad de abstracción, necesaria para organizar el lenguaje,&

3)la materia que incluye, por ejemplo, los modelos matemáticos para explicarla realidad, por ejemplo, cuando se establece que un triángulo suma 180 grados, mediante los modelos deductivos pertinentes, o cuando se establecen coordenadas matemáticas para “medir” el grado de umbral dela acción controlada en laboratorios de psicología , respecto de la catexia, &

Lo que realizamos, por lo tanto, es una actividad encaminada a adaptarnos al medio, no ya como individuos, sino como miembros de un grupo social determinado. Las maneras en que esta adaptación se lleva a cabo implican la con-formación de una Conciencia, tal que ella es una especie de “instrumento” antropológicamente desarrollado ,es decir, que se diferencia de las pautas etológicas animales de conducta y aprendizaje(aunque no por ello debemos afirmar que los componentes etológicos están ausentes o han sido segregados de la conducta social humana)Esta Conciencia, no es idealista-en el sentido de Hegel ,Kant,&,ni tampoco es un mero “nombre”,sino que ella misma conforma nuestras sociedades a través de la manera en que se establecen normas, pautas de acción en los distintos “campos” categoriales, religiosos, políticos. Lo que tenemos, pues,es una Conciencia, que no es uniformemente repartida(como si fuese una cualidad que correspondería por igual a cada uno de los miembros de la sociedad de referencia),sino que esta Conciencia ,tiene distintos modos de ,digamos, ser repartida en el conjunto de los miembros de una sociedad humana dada.

Así, siguiendo la distinción entre Filosofía Académica y Filosofía Mundana, podemos proponer que hay una implantación de la Conciencia que se manifiesta en dos planos, digamos: mundano y académico. Queremos decir con esto, que todos los miembros de una sociedad actúan según normas pautadas de conducta, que son determinadas por el modo en que se establece la relación entre los tres géneros de materialidad antes mencionados.

Las categorías del campo de las distintas Ciencias se conforman, es decir, se van construyendo, no de una manera a priori ,ni siquiera mediante procesos de “revolución” científica, sino que se construyen en medio de un complejo entramado de relaciones políticas, económicas y militares, de tal manera que ellas mismas(esas categorías científicas: masa, gravitación, ADN, campos de fuerza, cadenas de aminoácidos, anomia, estructuralismo,&)contribuyen a formar esa Conciencia en la sociedad en la que se desarrollan. Pero además , y esto es de una enorme relevancia, la Técnica,  los aspectos metodológicos y ontológicos que desde la teoría del Cierre Categorial se establecen, no como una propuesta “cerrada”,ya delimitada, sino como una propuesta dialéctica, abierta a la construcción crítica de la Conciencia, tanto mundana como académica, en cuanto es el catalizador de las relaciones sociales en nuestras sociedades políticas definidas como “democracias”.


Para organizar sistemáticamente los materiales necesarios para llevar a cabo análisis críticos de los distintos campos de las Ciencias(físico-naturales o “Humanas”),Gustavo Bueno propone dos conceptos que pueden parecer a primera vista complejos, pero que si se estudian con cuidado, podremos constar su enorme utilidad sistemática párale establecimiento de criterios educativos que podrían, creemos, ayudar a solucionar, al menos en parte, esa aparente crisis de paradigmas o modelos de estudio y enseñanza, que tanto nos están afectando, y queremos señalar aquí cuál es uno de los más importantes objetivos de este ensayo, a saber: proponer un modelo teóricamente sustentado en la Teoría del Cierre Categorial , que ,en el caso de la influencia de los llamados medios de comunicación de masas, en especial la televisión, en la conformación de la Conciencia-en el sentido de Bueno, es decir, entendida como el modo en que los grupos sociales organizan su manera de relacionarse con el medio ambiente, con los factores sociales y políticos, amén de las relaciones religiosas y psico -sociales).

Conceptos fundamentales :

A)    Espacio Gnoseológico :

El concepto implica que todo estudio científico ha de estar organizado en torno a tres ejes, a saber:

1-eje sintáctico

2-eje semántico

3-eje pragmático

Antes de continuar con la definición del espacio gnoseológico, es preciso aclarar un asunto de enorme relevancia .Setrata del hecho de que la Teoría del Cierre Categorial, no sólo no es un mero modelo “nuevo”,que pretenda ser una especie de dogma teórico, sino que establece, siguiendo los modos en que la Ciencia ha venido elaborando sus campos ,teorías, leyes,&,parte de la base de que el trabajo de la Ciencia consiste en cuatro cuestiones fundamentales, de todos conocidas, pero que en ocasiones parece no quedar tan claro, obre todo cuando se trata de las actividades de algunos científicos sociales. Nos referimos a cuatro factores esenciales:

1)La Ciencia establece definiciones

2)La Ciencia trabaja mediante la construcción de modelos

3)La Ciencia precisa elaborar demostraciones

4)La Ciencia establece clasificaciones

Pero, independientemente de que los Campos de las diversas ciencias se construyen según estos modos de hacer tradicionales, creemos necesario establecer otras coordenadas, digamos,por ello nos parece pertinente insistir en el aspecto “teórico”(gnoseológico),no ya en cuanto a lo que algunos denominan aspectos epistemológicos, que son relevantes, ya que se refieren a la verdad en cuanto a la relación entre sujeto/ objeto a través de las proposiciones, sino en cuanto a la verdad entendida como hemos señalado, como el modo como los fenómenos se relacionan  a través de Forma y Materia.

Bien, estableciendo que :

el espacio gnoseológico se establece en torno a tres ejes , es necesario ahora desarrollar más precisamente los ejes, que están compuestos ,a su vez ,por tres sectores ,a saber:

1-eje sintáctico:

1.a) el sector de los términos

1.b) el sector de las relaciones

1.c) el sector de las operaciones

2- eje semántico :

2.1) el sector fisicalista

2.2) el sector de los fenómenos

2.3) el sector de las estructuras esenciales

3- eje pragmático:

3.1) el sector de los autologismos

3.2) el sector de los dialogismos

3.3) el sector de las normas

A continuación trataremos de establecer otro concepto clave en la Teoría del Cierre Categorial,a saber : el de espacio antropológico

B)El espacio antropológico .

Consta también de tres ejes :

1)            el eje circular ,que está conformado por las diversas maneras ñeque los hombres se relacionan entre sí, que son estudiadas por los diversos campos categoriales de las ciencias : Psicología, Derecho, Antropología ,Economía, Ciencias Políticas,&

2)            el eje radial, que incluye los materiales de la Naturaleza, pero también el modo como los hombres los han ido transformando mediante la tecnología

3)            el eje angular , que incluye todos los aspectos relativos a lo que podemos definir como las relaciones de los hombres con lo numinoso, es decir, con el ámbito de lo religioso, los “seres” que ocupan el mundo de lo sagrado, sean hombres, animales o Ideas, incluso los extraterrestres, cuando desde el mundo humano se los considera superiores, se les teme, se puede llegar a pensar que nos ayudarían ,&

Una vez establecidas estas coordenadas básicas, proponemos ,a modo de ensayo, que se considere la aplicación de estos parámetros,(a los que es preciso añadir un importante inciso aclaratorio)a la educación.

El inciso a que nos referimos es el siguiente : la antropología ha desarrollado un interesante concepto en el que se muestra la dificultad para los científicos de establecer leyes teoremas, similares a las ciencias naturales. El lingüista Kenneth Pike introdujo la relación entre lo emic  y lo etic. Esta distinción supone que cuando se realiza un “trabajo” de campo, pongamos por caso, en el estudio de las lenguas otomíes y mayas en algunas regiones de México, y el antropólogo quiere establecer los significados de conceptos que no están planteados de igual modo en el idioma del antropólogo-pongamos por caso que sea el idioma español, o el inglés-se encuentra la dificultad de establecer explicaciones o definiciones, incluso modelos, que sean aceptados digamos, de manera unánime por todos los “términos” del campo, es decir, tanto por los propios antropólogos, como los miembros estudiados por ellos pertenecientes a la comunidad objeto de estudio.

Esta dificultad científica, que distingue a las Ciencias Sociales de las Físico-naturales, es crucial, ya que ella ,cuando es dejada a un lado, provoca más problemas de los que el científico social quisiera reconocer. Ello es debido a que en las ciencias naturales, digamos, el científico no forma parte del campo, mientras que en las ciencias humanas o sociales, sí forma el científico, y los hombres objeto del estudio del mismo, parte de esos términos.

La cuestión, pues, no es sencilla. Pero trataremos deponer a su consideración algunas cuestiones en el próximo apartado, para intentar aportar algunas pautas al modelo educativo, que, más que como modelo establecido de aplicación acrítica, sirva como una propuesta de aplicación de la Filosofía como instrumento para una enseñanza crítica y que ayude a formar ciudadanos con la suficiente capacidad dialéctica como para afrontar retos tanto teóricos como prácticos en la vida social .




Es una preocupación constante de muchos profesores de todos los niveles helecho de que cada día encuentran más alumnos que parecen no ser capaces de leer y escribir de un modo crítico. Algunos incluso utilizan el concepto de analfabetos funcionales para referirse a ellos.

He escuchado que la televisión es culpable de esa situación.

Sin duda alguna, parte de causa puede estar en ese instrumento, que según sus gestores sirve para informar, para entretener y para transmitir cultura. Bueno, no creo que lo que actualmente están haciendo las cadenas de televisión en todos los países del mundo sea precisamente informar. Según Giovanni Sartori, en su reciente libro Homo videns, la televisión no sólo no informa, sino que nos emite información sesgada es decir, se deja un noventa por cien de las noticias fuera del alcance del público. Pero además de ello, se nos ofrece información a través de imágenes, lo que supone que sólo el”poder de la imagen” es lo importante. Pero lo que no hace la televisión es informar de modo que se analicen los hechos crítica y racionalmente. Se recurre a imágenes, pero ello produce en el receptor, en el público, meras reacciones psicológicas: rechazo, temor, dudas,&,pero no se produce una descodificación de os mensajes en la que el sujeto -el receptor-participe activamente. Mc Luhan llamaba a estos medios ,como la televisión,”medios fríos”.Sin embargo, todos sabemos que en la misma televisión es posible hacer que los espectadores tengan otra manera de informarse, por ejemplo, cuando las imágenes y la descripción de los hechos son analizados a través de debates, donde expertos en los diversos temas, analizan las noticias y sus causas, además de sus consecuencias.

Lo que queremos proponer no es nada extraordinario, ni siquiera consideramos utópico, pero es preciso llevarlo a la práctica, ante esta situación de desinformación o sub información, que de hecho está logrando que sectores cada vez más amplios de nuestras sociedades de las llamadas “mediáticas”,donde incluso se habla de una cierta”degeneración” de la democracia, porlapresión de la “telecracia”,sean auténticos autómatas, especie de “borregos electrónicos”,sometidos más y más a lo que Noam  Chomsky define como “control del pensamiento”.

Para evitar caer en una sociedad orwelliana,donde un “Gran Hermano”(la televisión y sus gestores económicos, consorcios cada

vez más poderosos,y algunos intelectuales a  su servicio, que ya no necesitarían ser censurados, pues ellos mismos se someten a una especie de autocensura que consiste en la  presión a que se les somete por quienes pagan sus elevados salarios.




Los libros y materiales de texto que se utilicen en la educación básica, media y superior han de ser diseñados de tal modo que se muestre en ellos el modo en que las diversas ciencias se han ido con-formando , pero siempre teniendo presente que los campos científicos tienen categorías propias, es decir, que ,desde las propuestas de la Teoría del Cierre Categorial, no existen unas determinadas categorías a priori, sino que hay tantas categorías como ciencias.

Además de lo anterior, debe ser establecido un criterio de organización de los materiales didácticos tal que, en la práctica educativa, se establezca siempre con la mayor precisión posible, que existe una fuerte relación  entre los sectores tanto del espacio gnoseológico como del espacio antropológico.

En el caso concreto de tratar de contrarrestar la influencia, innegable, desde luego, de la televisión, en los jóvenes y  adultos, propongo que se utilice un sistema que algunos centros educativos están ya llevando a cabo. Se trata de que los estudiantes y sus maestros aprendan a trabajar investigando, mediante la elaboración de guiones de radio, páginas web, revistas escolares,&,pero siempre siguiendo las normas tradicionales de la Ciencia que consisten en establecer con claridad el campo categorial , los modelos, definiciones, clasificaciones y demostraciones, pero no como algo que se entrega ya hecho como si hubiera unas categorías establecidas de antemano ,sino que se muestre el proceso de construcción de las mismas.

El uso de materiales alternativos a los meros libros de texto, supone que los estudiantes realmente aprenden a organizar por ellos mismos, en grupos(dialogismos del eje pragmático),e individualmente(autologismos del eje pragmático),los materiales categoriales que han ido relacionando(eje sintáctico, sector de las relaciones),a partir de esos términos con que partimos al comenzar nuestro trabajo.

La finalidad de este modo de trabajo implica que los estudiantes y los

académicos, así como lo “mundano”(político, social) que permitan al menos tener el máximo control de nuestras capacidades de adaptación a un medio que ha sido puesto en peligro principalmente por caer en

“parcializaciones” de los asuntos más relevantes. Estas “parcializaciones”,estas “parcelaciones” que de facto han ido construyendo sociedades excesivamente obsesionadas por la ganancia sin límite, por modelos económicos individualistas( en cuanto que se favorecen intereses de grupos antes que el beneficio de la comunidad), en el sentido de entender la sociedad como un enjambre de fieras sujetas a las meras leyes de un darwinismo depredador e inhumano.
















En el tiempo transcurrido(medio siglo),desde que Norbert Wiener mostrara su preocupación por el impacto social de lo que él entendía por Cibernética [69] ,y otro tanto tiempo desde el célebre artículo de Alan Turing sobre la pregunta relativa a la posibilidad de que las máquinas piensen, han sucedido una serie, aún en marcha, de vertiginosos cambios. Estos cambios nos muestran que ,acaso, la Era de la Electrónica de Mc Luhan está ya en nuestra vida cotidiana, de tal manera que se diría que vivimos en una especie de sueño(acaso pesadilla) en el que todos fuésemos personajes de ciencia ficción, al estilo de ese casi mítico Mundo feliz  de Huxley, pero también en el mundo orwelliano de la célebre obra(también ya cincuentenaria) 1984,en la que la tecnología de la comunicación se encargaba, mediante el control del pensamiento y el uso cotidiano de la neolengua, y los skinnerianos ingenieros de la conducta al servicio del Poder del Gran Hermano, ese monstruo que cual Leviatán cibernético,al más puro estilo kafkiano, destruye a los ciudadanos cuya única meta parece consistir en la mera sobrevivencia hedonista e individual, con el mínimo recuerdo de qué significa la palabra solidaridad.


En este breve ensayo pretendemos ,más que aportar soluciones o “caminos de salvación”,incitar a un reflexión a fondo sobre los aspectos más urgentes de lo que se conoce como Bioética, una naciente disciplina, inmersa de lleno en lo que podemos definir como Era Cibernética, en la cual, desde el campo de la Filosofía de la Ciencia,se nos presentan retos de carácter gnoseológico(relativos a criterios de verdad de teorías) y de carácter ético, político , etcétera, que nos urge al menos plantear con claridad de ideas y precisión argumentativa.




El término es utilizado para definir las actividades médicas que tienen como fin la solución de enfermedades y patologías, mediante la utilización de técnicas que incluyen lo que se puede definir como ingeniería genética, el uso de computadoras o incluso robots por parte de la sociedad médica internacional, la utilización de productos farmacéuticos de “alta tecnología”,cuyos elevados costes de producción implican a grandes compañías, algunas universidades, e incluso gobiernos(quienes aportan fondos públicos para investigación, que son a su vez aprovechados por estas compañías transnacionales),etc.

También se puede considerar relacionado con la bioética el campo de la ingeniería genética aplicada a la alimentación humana, por su relación con la salud , independientemente de las consideraciones ecológicas(medioambientales)

que conlleva.

Para hablar de Bioética, hay que partir del hecho de que vivimos en lo que algunos denominan una Aldea Global, o en una época “globalizada”,que supone que todos los países están íntimamente relacionados en aspectos políticos, económicos, inclusive culturales y educativos, y todo ello dentro de un modelo que incluiría el hecho de que el canon a aplicar ,en el terreno político y estatal, debe estar adaptado a las reglas del juego de lo que podemos llamar neoliberalismo  .

La Bioética, pues, en un panorama complejo, que supone que hay todavía, evidentemente, países ricos y pobres ,y dentro de estos conceptos de rico/ pobre, variaciones que implican diversos grados o niveles de pobreza/ riqueza, debe ser estudiada siempre teniendo en cuenta estas diferencias estructurales. Quiere esto decir que no debiera hablarse de Bioética generalizando, como si esta disciplina pudiera ser idéntica en un país u otro, pues ello contribuiría, pensamos, a ocultar y tergiversar los hechos, como sucede a menudo, desde los discursos políticos, desde las informaciones de los medios de comunicación, etc.

En los Estados Unidos, por ejemplo, se contempla la Bioética desde una perspectiva diferente a la que puede plantearse en la Unión Europea a la que se presente en el contexto de un país como México, diferente a la que  se puede plantear en Guatemala , El Salvador o Argentina.




A)Aspectos socio políticos:

En abril de 1997 se presentaba en la ciudad asturiana de Oviedo(al Norte de España) el llamado Convenio de Asturias de Bioética, en el cual se trata de establecer unas directrices que marquen la pauta para el establecimiento de leyes y actividades encaminadas a la protección de los Derechos Humanos y la dignidad del ser humano con respecto a las aplicaciones de la Biología y la Biomedicina


Se propone elaborar políticas y legislar sobre los temas siguientes:

1)primacía del ser humano ;acceso equitativo a los beneficios de la sanidad; obligaciones profesionales y normas de conducta

2)consentimiento libre e informado de las personas afectadas por intervenciones médicas y protección en estos aspectos de personas con trastornos mentales y por último, la cuestiones de los deseos previamente expresados por las personas  respecto de las intervenciones médicas

3)el respeto a la vida privado y el control de la información médica

4)legislación sobre el genoma humano: pruebas predictivas ; intervenciones sobre el genoma humano. A este respecto, se propone un no a la elección de sexo, salvo en casos en que ello sea necesario para evitar posibles enfermedades que pudieran estar relacionadas con el sexo.

5)sobre la investigación científica: el uso de personas para experimentar , lo cual incluye el uso de embriones in vitro. Sobre este tema de los embriones, se explicita la prohibición(Art.18.2)de constituir -(fabricar)-embriones humanos para experiimentación, pero se admite la posibilidad de experimentar con embriones in vitro , lo cual nos parece un tanto paradójico, por cierto, o cuando menos, digno de mayor debate y discusión.

6)extracción de órganos y tejidos de donantes vivos para trasplantes.

7prohibición del lucro y utilización de partes extraídas del cuerpo humano

Una de las propuestas del Convenio de Asturias que nos parece importante y debe ser retomada por este Primer Foro sobre Ciencia, Tecnología y Sociedad, es la que insiste en la urgencia y necesidad de abrir un debate público en el que participe la sociedad a través de los mecanismos educativos ,medios de comunicación, instituciones jurídicas, políticas, que contemplen los problemas señalados desde sus aspectos éticos, médicos , inclusive económicos, de la Bioética, considerada ésta dentro de la complejidad internacional en que se desarrolla.


B)Aspectos éticos :

En Italia tuvo lugar una polémica ,durante el verano de 1996,entre los firmantes del Manifiesto de la Bioética Laica ,aparecido en el periódico de economía italiano Il sole 24 Ore y los principales estudiosos de la Bioética situados en lo que podemos llamar la Bioética de la Iglesia Católica.

Los temas centrales de la polémica giraban en torno a : 1- el laicismo;2- la concepción de la ciencia;3- la fecundación artificial y 4- el estatuto ontológico del embrión humano.

Durante dos meses(junio y julio de 1996),el debate fue aumentando en vehemencia, y los representantes de las posiciones católicas pedían a los “laicos” que toleraran la autoridad, es decir, que daban a entender a sus oponentes que la Iglesia es la máxima autoridad en estos asuntos, lo cual era uno de los aspectos que no aceptaban los firmantes del manifiesto laico.

La aparición de un documento sobre Bioética hecho público por el Comité Nacional de Bioética presentado en Roma el 12 de julio de 1996(este Documento venía siendo elaborado desde 1995 por un grupo de expertos en Bioética)vino a aumentar la tensión laicos/católicos al introducir el tema de la “Identidad y estatuto del embrión humano”.

Lo que tenemos, pues, es un debate entre quienes defienden la necesidad de que la Bioética tenga contenidos religiosos y aquellos que afirman que se puede hacer Bioética laica. El artículo del presidente de la asociación por la investigación laica en Bioética, Carlo Alberto Defanti es ilustrativo, su título era “Razonar fuera de la hipótesis de Dios”.

Otro de los temas surgidos en las publicaciones del periódico que publicó el Manifiesto, fue el relativo al problema de la investigación científica y su licitud moral. Participaron en él los ingleses Steven Roise y Hillary Rose, directora para la Sociedad Británica para la Responsabilidad Social de la Ciencia. Se publicaron artículos en los cuales se reivindicaba la necesidad de un control democrático sobre la ciencia ,en línea con las propuestas de Feyerabend. Lopert Wolpert, presidente del Comité para la comprensión pública de la ciencia),del University College de Londres, planteaba que no es la ciencia, sino el uso de sus resultados lo que exige una reflexión moral.

El debate había salido de la prensa y llegaba a la Universidad. En la Facultad de Ciencias Políticas de Milán, donde se discutió el contenido del Manifiesto .Ante la posición adoptada por el Comité Nacional de Bioética(pro cristiano)respecto de lo que Evandro Agazzi había definido como el “estatuto ontológico del embrión humano”,las críticas no se hicieron esperar.

El Comité Nacional de Bioética considera, respondiendo a la pregunta ¿es el embrión humano una persona?,que para todos los efectos, el embrión puede ser considerado persona.A esta afirmación contesta Armando Massarenti en Il Sole 24 Ore del 12 de julio que “no es posible sobre la base de conocimiento biológico disponible, decir que el embrión humano es un individuo humano o una persona”.El presidente de la sociedad italiana de filosofía analítica defiende la ética laica propugnada por los firmantes del Manifiesto frente a los postulados religiosos que sostiene el Comité Nacional de Bioética.

Para terminar el debate, el periódico de economía publica dos artículos redactados por ambas partes del debate, el día 21 de julio de 1996.Lo que se observa al final de tan “enconado” debate, es que los dos artículos coinciden en los puntos principales.

Es interesante señalar que el debate resurgió en 1998 con otro tema bioético: la fecundación artificial


*El contenido del Manifiesto de la Bioética Laica :


Este Manifiesto propone los siguientes principios básicos:

1-el progreso del conocimiento se entiende como amor a la verdad. No aceptan pues, los laicos, intromisiones desde fuera de la ciencia respecto de lo que ésta puede o no investigar.

2-el hombre no se opone a la naturaleza, pues forma él mismo parte de ella.

3-el progreso de la ciencia es progreso de la humanidad, pues ayuda a disminuir los sufrimientos a los seres humanos.

A partir de estos tres principios se establecen postulados prácticos, consistentes en :

1-el Principio de Autonomía Moral: “todo hombre es igualmente digno y ninguna autoridad sobre él puede decidir sobre su vida y su salud. Esto implica

el derecho a la información.

2-se debe garantizar el respeto de las convicciones religiosas de los individuos particulares. Se acepta esta influencia religiosa en el sentido de que ayuda a desarrollar una “ética difusa” en los individuos, pero no puede aceptarse que desde la fe religiosa se solucionen los problemas fundamentales que la bioética plantea.

3-Garantizar la “calidad de vida”.Los individuos tienen derecho a vivir y morir con el mínimo sufrimiento posible.

4-garantizar a todos los individuos un acceso a la medicina con el nivel más alto posible en relación a la sociedad en la que vive.


*Críticas que pueden hacerse a algunas de las anteriores propuestas:

Si se pretende aportar una ética verdaderamente laica, ella debería estar fundamentada en una ética también laica, independientemente de que se acepte o tolere otras propuestas de cuño religioso.

El postulado que propone aplicar diferentes criterios bioéticos, relativos a la situación económicas ,o en términos del Manifiesto ” en relación a la sociedad en que se vive “resulta muy criticable ,al menos desde posiciones no

neoliberales, en las que se reivindican conceptos como solidaridad social y política o conceptos como libertad ,en el sentido del filósofo Espinoza, quien la entiende en relación con la generosidad y la firmeza.[70]

La posición de la Iglesia la podemos sintetizar a través de las siguientes palabras del Papa Juan Pablo II: “la bioética tiene la tarea de indicar al mundo de la medicina, de la política, de la economía y a la sociedad en su conjunto, la orientación moral que hay que imprimir en la actividad humana y en el proyecto del futuro”.Además, afirma el Papa que “aflora con gran insistencia la existencia de guías seguras y de maestros de confianza. Parece por tanto, urgente que la bioética reflexione sobre las raíces ontológicas y antropológicas de las normas que deben orientar decisiones de tanta importancia. La bioética constituye el terreno privilegiado para un  sincero y profundo diálogo entre la Iglesia y la ciencia. Es en la verdad del hombre y en su ontológica dignidad(…)donde se pueden encontrar respuestas adecuadas a la exigencia ética que emerge de la genética, de los procesos de procreación”.La posición del Papa ,pues, va dirigida a criticar el relativismo moral y el utilitarismo que se encuentra en el Manifiesto.

Lo que es criticado en el Manifiesto es ,precisamente, esa intención teologizante respecto de la Bioética que se desprende de las propuestas católicas,además de rechazar el dirigismo de la Iglesia en estos asuntos, basado en dogmas religiosos incompatibles con la ética científica, aquella que ya en los años sesenta defendía y proponía el célebre y polémico premio Nobel de medicina Jacques Monod en su libro El azar y la necesidad. Frente a lo que él denominaba “El Reino de las Tinieblas”(se refería a la ética del reino de Dios, es decir, la Iglesia y las religiones en general) había que desarrollar una ética que tuviese en cuenta los resultados y teorías de las ciencias, en especial de la propia biología. Aunque hoy quizá sean insostenibles sus tesis acerca de lo que Monod llamaba teleonomía ,porque no se puede reducir la Bioética a planteamientos teóricos reduccionistas como el que considera a los seres vivos como mecanismos orientados a una función teleonómica (aunque es evidente que cada parte del cuerpo debe cumplir adecuadamente la función para la que se ha desarrollado, si se quiere mantener en equilibrio el sistema, es decir, la propia vida del organismo)

Acerca de la cuestión del estatuto ontológico del embrión, la Iglesia ,a través de uno de sus representantes, Monseñor Elio Sgreccia, defiende una posición que, por cierto, era sostenida en el periodo de oro de la Escolástica Medieval (en el siglo XIII) por el filósofo  y teólogo cristiano San Alberto Magno. Según San Alberto “el proceso de maduración del embrión humano es progresivo, por ello, en el origen de tal desenvolvimiento está ya todo el ser, incluso la misma inteligencia”.

Desde luego hay un matiz importante en la posición actual de la Iglesia, que propone lo siguiente: “la tesis de la humanización progresiva, según la cual, el embrión sería, sí un ser humano desde la concepción, pero no llegaría a ser persona hasta una fase sucesiva, no es sostenible desde la antropología filosófica”.

Hay que acotar dos cuestiones al respecto: la primera, que si tenemos en cuenta las posiciones defendidas por San Alberto Magno en este asunto del embrión y la de Monseñor Sgreccia ,podemos pensar que la Iglesia de nuestros días es más “cerrada”,más intolerante, más fundamentalista que la medieval. Por cierto,es de destacar en este contexto, que la posición que mantenía en la edad Media el célebre Doctor Angélico(Santo Tomás de Aquino)es increíblemente similar a la de muchos bioéticos no creyentes en nuestros días, a saber: “el embrión humano sólo llega a ser un individuo de la especie humana por medio de sucesivas generaciones y corrupciones, después de varios cambios sustanciales, el más importante consistente en la infusión del alma espiritual al cabo de unas pocas semanas después de la fecundación.(Esta es la llamada “doctrina de la infusión retardada del alma).La posición actual de la Iglesia es mucho más radical que la defendida por dos de sus más respetados teóricos medievales, ya que sostiene actualmente que desde el momento en que existe un óvulo fecundado, ya hay un ser humano plenamente respetable como individuo y persona…Podríamos nosotros preguntar:¿quizá como persona en potencia?

Por otra parte, debemos, en segundo lugar, señalar que el concepto de persona no sólo precisa de una “reconstrucción crítica” desde la filosofía, cosa que naturalmente la Iglesia no lleva ni llevará a cabo, pues parte de una concepción dogmática del concepto. Por otra parte, habría que criticar, desde la propia filosofía, la noción de “antropología filosófica manejada por Monseñor Sgreccia, pues es muy probable que este concepto, desde las coordenadas de la Iglesia Católica ,coincidan más con su concepción antropológico -teológica que con una verdadera antropología filosófica. Inclusive es necesario someter al concepto de antropología filosófica a revisión crítica, pues no es fácilmente determinable la Idea de Hombre, que en sí resulta problemática desde planteamientos gnoseológicos.[71]



El filósofo Gustavo Bueno  propone ,desde las coordenadas teóricas de la llamada Teoría de la Ciencia del Cierre Categorial, unos lineamientos básicos para la discusión actual sobre los problemas teóricos y prácticos que enfrenta la Bioética.[72]

En el artículo titulado “Principios y reglas generales de una Bioética materialista”(Bueno,”El Basilisco”1999),se advierte que “la Bioética arrastra desde su constitución la confusión con la biomoral, y por tanto, con la biopolítica”.

Como sabemos, comenta el filósofo español, los problemas prácticos en la Bioética han surgido de cuatro factores básicos:

1-de la medicina experimental y la biotecnología: transplantes de órganos, clonación, manipulación o ingeniería genética, etc.

2-las propias transformaciones de la estructura social en nuestra época:

*incremento demográfico, precisamente inducido por el desarrollo científico industrial.

*la situación de “neutralización de la influencia social y política de los códigos éticos, morales o religiosos propios de diferentes confesiones religiosas o partidos políticos, en función de la llamada mundialización -algunos prefieren el término globalización-de las relaciones internacionales y expansión de las sociedades democráticas asociadas a la economía de mercado de los consumidores”.

3-Bueno propone una tesis que consiste en el  siguiente planteamiento:

a la unidad que aporta la propia problemática de la Bioética no le corresponde una unidad doctrinal. Esta unidad derivada de la problemática común reúne los problemas clínicos, los problemas científico experimentales, los políticos y los morales derivados de la actividad en este campo científico técnico, pero dado que la expresión “doctrina bioética” (la cual consistiría en la elaboración de resoluciones y reglas consensuadas)no es ni mucho menos un concepto unívoco, con un sentido definido y común a todos los componentes que constituyen la Bioética ,dado que existen diferentes versiones de la Bioética, según que los principios adoptados procedan de la Bioética cristiana, de la musulmana, la socialista, la liberal o la utilitarista.




En el contexto de la propuesta de Bueno, surge la necesidad de criticar desde la filosofía, los planteamientos surgidos en el llamado Informe Belmont, propuesto por la Comisión del Congreso de los Estados Unidos que trabajó desde 1974 hasta 1978 en su elaboración.

La relevancia que tiene esta crítica se deriva, además de su enorme interés para una crítica filosófica del mismo, de la influencia que los planteamientos del mismo tienen en el desarrollo de la Bioética.

La cuestión a discutir radica en la distinción entre lo que podemos denominar principios ,que son de carácter general, y las reglas, que pertenecen al ámbito de lo concreto, de la aplicación de normas o principios generales a casos concretos, digamos .

El Informe Belmont establece como principios fundamentales el principio de autonomía, el de beneficencia, el de justicia y el de no maleficencia.

En este asunto de la distinción principios/reglas radican las principales cuestiones filosóficas que presenta la Bioética.

Este asunto es contemplado por la tradición aristotélica, nos explica Gustavo Bueno, ya que en ella está presente la distinción entre 1)los principios prácticos de la prudencia y 2)los principios prácticos de la “sindéresis”[73].

Lo importante de esta cuestión para la Bioética, radica en el hecho de que aunque pueda haber acuerdos bioéticos importantes respecto de los principios generales, cabe la posibilidad de disentimientos en cuanto a las conclusiones.

A este respecto Bueno propone una tesis,a saber: los principios no tienen excepciones ;y las reglas sí tienen excepciones.

El hecho de que los principios carezcan de excepciones se debe a su carácter abstracto. Sin embargo, las reglas tienen excepciones “porque las alternativas sobre las que ellas-las reglas-deciden no suelen ser disyuntivas, ni claras ni distintas, y caben coyunturas límites”

Los principios que se proponen en el Informe Belmont no son sino equivalentes actuales de los principios generales de la sindéresis: “el bien es a hacer y el mal a evitar”,que podemos hacer equivaler con los principios del Informe llamados de beneficencia y de no maleficencia .Lo mismo sucede con los principios de autonomía y de justicia, que pueden presentarse como equivalentes de la norma kantiana del imperativo categórico, en tanto supone la autonomía de la voluntad .

El confusionismo que Bueno denuncia en el Informe Belmont viene dado a partir de la falta de definición de los parámetros dentro de los cuales ha de ejercitarse, digamos , la prudencia.

La relevancia de los principios para la Bioética radica en el hecho de que “todo aquel que busque formarse un juicio bioético(…)tiene que acogerse a criterios extrínsecos, morales, políticos, prudenciales, es decir, a los principios.

Los principios y reglas de la Bioética han de seguir un hilo conductor preciso, en esta propuesta por Bueno presentada como un primer “borrador”,es decir, una primera aproximación al problema, que debe ser reelaborada a partir de discusiones más amplias y de debates abiertos entre las diversas investigaciones elaboradas o en curso.         Estos principios y reglas, siguiendo los lineamientos de la Teoría del Cierre Categorial ,se articulan en relación con los términos ,las relaciones y las operaciones del “eje sintáctico”.


Nos centraremos ahora en los principios y reglas de los términos, y remitimos a ustedes a la lectura del artículo de Bueno, dada la limitada disposición de espacio y tiempo que tenemos en este trabajo, y por la relevancia de otros asuntos que consideramos imprescindible exponer a su consideración.

Los términos esenciales son los “sujetos humanos corpóreos “Las leyes o normas le son dadas al individuo por el grupo, por las normas sociales-asegura Bueno. La autodeterminación, entendida como un proceso en el cual el sujeto realiza planes y programas ,a partir del cual son ejecutadas sus acciones, pero esta libre autodeterminación se da en un contexto en el cual el sujeto ha de adaptar su conducta a normas heterónomas vigentes en el grupo al cual pertenece ,además de la propia cooperación con el grupo social.

Por considerar de sumo interés para comprender la propuesta bioética de Bueno, transcribimos este texto :

“(…)el campo de la bioética es ,ante todo ,un campo de individuos abstraída su personalidad, antes que un campo de personas(que es el campo del derecho e incluso de la ética).Porque la bioética se ocupa primordialmente de los componentes orgánicos que, o no son personas canónicas(sino embriones, fetos, monstruos bicípites  o alelos),o bien han dejado de serlo(individuos en coma irreversible ,enfermos terminales, etc.)


Pasaremos a plantear algunos aspectos de la Bioética desde una perspectiva “global”,pero que tiene importantes consecuencias para América Latina, como vamos a comprobar a continuación.




El asunto que nos ocupa, que como sabemos ,incluye como uno de los puntos fundamentales el uso de técnicas médico farmacéuticas para transplantar órganos y tejidos humanos, además de las discusiones de carácter ético y jurídico que implican la toma de decisiones de enorme relevancia para la comunidad médica, conlleva el análisis de aspectos que no resultan nada agradables ,pero que consideramos urgente e irrenunciable poner a la consideración de todas las personas interesadas en un estudio serio de los aspectos más delicados, desde el punto de vista ético y humano, entre los que me atrevo a destacar el del uso de órganos y su regulación o no, en el mercado mundial de órganos.

Existe un cierto mutismo en los medios y escasa información bibliográfica al respecto. Sin embargo, podemos contar con informes importantes y algunos libros y ensayos sobre lo que parece ser incluso un “floreciente negocio” en el cual estrían coludidos todo tipo de personas de la más baja estofa moral, desde políticos corruptos, hasta médicos e incluso alguna de las más grandes empresas de fabricación de fármacos.

La base más importante para mi exposición la aporta el investigador y filósofo político Stephen A. Hasam en un ensayo presentado el año 1996 al XX Congreso de la Asociación Latinoamericana de Sociología. Su ensayo titulado “Tráfico de infantes y nueva inserción de América Latina en el mercado mundial” resulta de hecho espeluznante, pero ello no supone que, cuando se conoce la realidad latinoamericana un poco a fondo, y se reflexiona sobre los datos que aporta Hasam sobre el asunto de los niños y personas sometidos a las leyes del mercado sacrosanto, al menos surgen dudas acerca de los modelos democráticos ,en cuanto a su carácter ético y moral, es cuando constatamos su modo de enfrentar un problema de la suma gravedad como el que exponemos a continuación, ya que no hay una reacción contundente por parte de los gobiernos mundiales implicados para resolver el problema.

La ONU solicitó a su Comisión de Derechos Humanos un trabajo de investigación de “las formas contemporáneas de esclavitud”.La investigación produjo lo que llamaremos el Informe Eide. El encargado de la investigación ,el señor Asbjorn Eide informaba en rueda de prensa el 1 de agosto de 1989 en la ciudad de Ginebra acerca de que aproximadamente un millón de niños viven en todo el mundo en condiciones de esclavitud que implican varias formas: venta de infantes para adopción; prostitución de menores (vía por ejemplo el llamado turismo sexual);pornografía infantil; trabajo infantil explotado sin limitaciones de ninguna clase, auténticos niños esclavos, de cuyo trabajo se benefician compañías de “renombre” mundial; obligación por parte de adultos ,a niños que actúan como criminales al servicio de todo tipo de mafias ;y la utilización de menores para el trasplante de órganos.

De hecho hay un mercado de adopción ilegal de niños, como se ha revelado en varias ocasiones,y en alguna de ellas los propios dirigentes políticos de países de América Latina han testificado sobre la existencia de este mercado macabro ,al que nada tendría que envidiar el célebre genocida infantil Herodes.

Algunas cifras revelan este macabro aspecto en el que está implicada la Bioética ,el mercado ,la medicina, la propia sociedad a la que se trata de ocultar el fenómeno(¿caso será por defender a los corruptos del escándalo y de la ley?)-aunque pareciera que en Europa y los Estados Unidos, así como otros países consumidores de órganos, el tema es un tabú casi absoluto. Cerca de 20 mil infantes al año desaparecen en la frontera mexicano-estadounidense; aproximadamente 3 mil infantes brasileños son vendidos ilegalmente al exterior; existen cerca de 20 mil niños y niñas prostitutas en Filipinas, en la India 400 mil son sometidas al mercado sexual. Las cifras siguen en todo el llamado Sudeste Asiático: Sri Lanka ,Tailnadia, Corea del Sur. Ahora se incorpora a este “mercado” lo que fue la Europa del Este.El turismo sexual es fuente importantísima de divisas para esos países y de enriquecimiento para sus corruptos dirigentes y sus socios mafiosos.

La aparición del SIDA y el mejoramiento de técnicas para el trasplante han contribuido , al parecer, a aumentar la demanda de órganos para trasplantes entre las gentes adineradas de los países ricos, especialmente Estados Unidos, Europa ,Israel y seguramente entre las clases pudientes de los países pobres.

El experto de la Organización Mundial de la Salud(OMS),doctor Jerzy Szszerban comentaba, en informe a la periodista de investigación Anne Marie Mergier que “la oferta de órganos no permite satisfacer la demanda y esa penuria, cada vez más importante, provoca un aumento en el tráfico comercial de órganos”.

El citado doctor de la OMS que existe un mercado negro de órganos .Los precios para trasplantes en los Estados Unidos eran de alrededor de 140 mil dólares para el corazón,235 mil para el páncreas,70 mil para pulmones y 51 mil dólares un riñón.

La secretaria general de la Asociación Internacional de Jueces para la Democracia (AIJD),Renée Bridel señalaba el peligro de este tráfico de órganos clandestino, y a raíz de una solicitud de la OMS , la AIJD elaboraba unos principios para regular el trasplante de órganos, que fue presentado en la 44 Asamblea de la OMS el 13 de mayo de 1991,con un contenido de nueve puntos, del que destacaremos ahora el punto cuarto:”Ningún órgano  puede ser sacado de un menor de edad con fines de trasplante. La legislación nacional puede prever excepciones sólo si se trata de  tejidos regenerables “.

Mientras tanto, el número de aspirantes a recibir un órgano aumenta en Alemania ,en Estados Unidos, en todos los países ricos.

En este  sentido es interesante la lectura del artículo de Ivan Illich en Le Monde Diplomatique ,en el que se invita a reflexionar sobre el modelo de práctica médica que se está implementando en los países ricos ,en los que la salud total y absoluta supone, como sugiere Stephen Hasam,en línea con los artículos de Le Monde Diplomatique , “una visión patológica de la vida y la muerte con sus implicaciones filosóficas y culturales”.

Es un hecho que en países como Egipto, Brasil, Turquía y la India hay pobres que ofrecen sus riñones ,su sangre y por qué no, un ojo, o una córnea, para salir de la miseria que los mantiene al borde de la muerte. Quiero recordar que no hace poco, en la España actual, ahora socia comunitaria, un obrero desempleado ,en su desesperación, ofrecía uno de sus riñones a cambio de un trabajo permanente, de salario mínimo.

El tráfico de sangre es de sobra conocido, aunque el de órganos parece estar siempre oculto tras un velo gris de muerte. Por cierto, es interesante destacar que el principal consumidor de sangre humana y de plasma en el mundo ha sido la industria farmacéutica multinacional germana.

Un gran escándalo sucedió en Brasil a raíz del comercio de sangre humana, donde se vieron involucrados, además de la pobre gente marginada de la ciudad de Persépolis, el laboratorio de la Hoechst en esa ciudad, además de personal de la facultad de medicina, incluidos asesinatos.”como si fuera Chicago”,comenta Hasam .

La radio sueca Riksradio-Network, denunciaba el 7 de enero de 1979,como denunciaba a su vez el periodista alemán Siegrfried Pater que “En Haití y en varias localidades de Brasil se ha encontrado un método para la extracción y obtención de sangre barata para exportación. Huérfanos y pequeños infantes provenientes de familias grandes que viven en la penuria económica, son ingresados en las así llamadas instituciones de beneficencia que sin embargo funcionan como granjas de sangre”.

Como podemos ver, los datos que nos aporta el trabajo de Hasam y otros que él ha manejado en su ensayo, superan cualquier tipo de ficción, y la novela Mundo feliz de Huxley resulta un cuento de hadas al lado de la realidad de la “Aldea Global”.

Esperemos que estas denuncias sirvan, cuando menos, para reflexionar y actuar en consecuencia ,poniendo cada uno de nosotros lo que esté en sus manos para evitar que este modelo de sociedad sometida a las tiránicas leyes del mercado,sea cuestionado y nuevas propuestas  sociales para la medicina y la salud de nuestros hijos y sociedades surjan ,ya que la urgencia de la situación es cada día más evidente.

Terminamos nuestra intervención haciéndonos eco de las conclusiones de Hasam, retomando sus palabras:

“Pasan los años y es evidente que la reticencia de la opinión pública -o quienes la manejan, es decir, los medios de comunicación y sus aliados políticos y socios financieros -y de los Estados a reconocer la magnitud increíble del tráfico de infantes y sus múltiples usos y fines ha resultado sumamente tenaz. No es para menos, pues la aceptación de esto implicaría la existencia de crímenes de lesa humanidad por mayoreo perpetrados anualmente a decenas de miles de infantes en América Latina y en los países ricos y “civilizados” que los importan enteros o en partes, vivos o muertos. Implicaría también descubrir públicamente y enjuiciar a los consumidores, sean éstos personas, hospitales o la industria farmacéutica química multinacional, y a la red de suministradores. Finalmente, implicaría también aceptar que crímenes de lesa humanidad al mayoreo y menudeo ocurren en tiempos de paz

;no tienen nada que ver con estados de guerra ni con ninguna dictadura que no sea la dictadura del “mercado” en los países civiles,”democráticos” y “civilizados” del Norte y del Sur.”La guerra es la paz” profetizó Georges Orwell en 1984″.También se negaba, nos recuerda muy oportunamente Hasam, la existencia de campos de exterminio nazi, a pesar de denuncias, y los gobiernos,enemigos del Tercer Imperio Alemán(Tercer Reich hitleriano)de los Estados Unidos y de Inglaterra, negaban e incluso ocultaban dichas denuncias y ,al igual que sucede hoy, se niega por “increíble”,se afirma que es inexistente, este macabro tráfico de órganos infantiles y de adultos en este “glorioso” siglo que termina.¿Qué maravillas nos aportará la tecnociencia Occidental para el nuevo milenio?.Ya nos lo muestra, orgullosa, la revista de difusión globalizada TIME, en un especial de su último número. Parece que casi seremos auténticos semidioses en el siglo XXI(o lo serán más bien, seamos exactos y rigurosos)los “pudientes” del mundo feliz),pero unos semidioses que necesitarán rituales de sacrificios humanos para vivir como tales, cuasi inmortales, y más allá del dolor y el mal.



Margarita Boladeras;Bioética;Madrid;Ed.Síntesis;1998

Gustavo Bueno;El sentido de la vida ;Oviedo(España);Ed.Pentalfa;1996

– – – – –   – – – -;”Principios y reglas de una Bioética materialista”;en revista El Basilisco;2ª.época;N°25;enero-marzo 1999(Apdo.360-Oviedo 33080(España)

Joseph Fletcher;Etica del control genético ;Buenos Aires;Ed.Aurora;1978

Aníbal Guzmán Avalos;”La Iglesia Católica y la reproducción asistida”;en revista

Estudios Jurídicos;Nueva época;N°3;1996;Innstituto de Investigaciones Jurídicas;Universidad VeracruzanaGaleana esq.7 de noviembre Xalapa,Veracruz,México CP 91050

Stephen A. Hasam;”Tráfico de infantes y nueva inserción de América Latina en el mercado mundial”.En el libro colectivo América Latina (violencia y miseria en el crepúsculo del siglo),Carlos Figueroa (comp.)Eds. Benemérita Universidad Autónoma de Puebla;Instituto de Ciencias Sociales y Humanidades; Asociación Latinoamericana de Sociología

—- —- — —-;”Turismo sexual y la explotaciiiión sexual de menores”;artículo inédito-copyright UNESCO.Para la revista  “Diálogo”(UNESCO)septiembre de 1999

Pablo Huerga ;”El manifiesto de la Bioética laica”;en el web de internet de la revista Cuedernos de Bioética(Argentina) que se encuentra en el URL

Ivan Illich;”La obsesión por la salud perfecta”;en mensual Le Monde Diplomatique;marzo de 1999;Edición española; en internet se puede acceder en URL

J.P.Papart;Ph.Chastonay y D.Froidevaux;”Biotecnologías para uso de ricos”;en

mensual Le Monde Diplomatique;marzo de 1999;edición española; en internet se puede acceder en URL

VVAA;Introduccióna la Bioética; México; Méndez Eds.;1997



“Israeli Anti-Cloning Law”se puede consultar en la web en este URL



Declaración sobre la utilización del progreso científico y tecnológico en interés de la paz y en beneficio de la humanidad”(resolución 3384(XXX),de 10 de noviembre de 1975


CONSEJO DE EUROPA “Convenio de Asturias de Bioética”(Oviedo,4 de abril de 1997)

“Convenio para la protección de los Derechos Humanos y la dignidad del ser humano con respecto a las aplicaciones de la Biología y la Medicina”.Convenio sobre los Derechos Humanos y la Biomedicina

Se puede consultar en el web vía internet en este URL





















































[1] Cuando mencionemos la obra de Bueno Teoría del Cierre Caategorial,citaremos por sus siglas TCC,seguido del volumen mencionado.Aquí,por ej. TCC,Vol.5


[2] covering –law : según el modelo desarrollado por Hempel: “una proposición o enunciado de un hecho particular o general es explicado si y sólo si es deducido de otras proposiciones que incluyen cuando menos una ley científica de carácter general.Para hechos particulares,este modelo (“covering-law”)la simetría entre explicación y predicción: si un evento puede ser explicado,debería haber podido ser predicho, y viceversa.Esta teoría tiene afinidad con la teoría de Hume acerca de la necesaria afinidad causal,pero por ello tiene los mismos problemas para explicar tanto la causalidad como el


[3] Cfr.Hurd &Kipling,Vol.2,pág.113

[4] Cfr.TCC;Vol.4;pág.145

[5] Cfr.TCC,Vol.4; pág.150 ss.

Esto es de enorme relevancia para nuestra crítica de las teorías de la ciencia,ya que es precisamente esta revalorización de lo que Bueno llama “cuerpo” de las ciencias,uno de los aspectos fundamentales de la teoría del cierre categorial,pues ésta concede un valor esencial a la historia de la ciencia,en cuanto ella forma parte de esa relación entre materia y forma,como se verá.

[6] En el apartado sobre las “reglas metodológicas”, del capítulo sobre falsabilidad,en su libro The logic of scientific discovery,pág.82

[7] Cfr.Bueno;TCC;Vol.4;pág.168

[8] Cfr.Bueno;TCC;Vol.4;pág.178 . Vamos a exponer alguna de las formas en que Weyl explica su teoría de la ciencia para constatar eso.

[9] Cfr.Hermann Weyl;op.cit.;pág.41

[10] En este punto de nuestra exposición, debemos seguir la explicación  de Bueno en detalle,ya que hace referencia a una “distinción similar a la que Husserl había establecido entre singularidades e individualidades”  en Investigaciones lógicas Iógicas,II,*2.Se tratará la cuestión, in extenso, en el aula.

[11] Para mayor detalle acerca de estos términos,consultar el Diccionario filosófico , de Pelayo García,en el siguiente web :

[12] Cfr.Popper;The logic of scientific discovery; pág.127.

Acerca del término “composite”,debemos comentar que es imprescindible recordar el concepto de verdad de Tarski,el cual,por cierto,es objeto de estudio detallado en la obra citada de Bueno(TCC).Dice Popper,en el Nº 31 de la obra de referencia: “Ahora la teoría científica busc,precisamente,obtener teorías que sean fácilmente falsables en este sentido.Busca restringir el rango de eventos permitidos a un mínimo; y si ello puede ser llevado a cabo de alguna manera,a tal grado que ninguna restricción posterior pudiera llevar a una falsación actual empírica de la teoría.Si lográsemos el éxito en tener una teoría tl,ella podría describir “nuestro mundo particular” tan precisamente como lo puede hacer una teoría;pues sacaría el mundo de nuestra experiencia de la clase de todos los mundos posibles(lógicamente) de la experiencia con la mayor precisión posible por medio de la ciencia teórica.Todas las clases y eventos y sucesos que actualmente encontramos y observamos, y sólo ellos,serán caracterizados como “permitidos”.

[13] Cfr.Bueno;TCC;Vol.5;pág.30-31

[14] Cfr.Bunge;Epistemología.(Ciencia de la ciencia); Barcelona;Ed.Ariel;1980

[15] Estas son las propuestas de Bunge,respecto a lo que en la TCC se denomina la “forma” de las ciencias.


[16] En su libro Causalidad, nos propone una lista(incompleta, según su propia advertencia) de las categroaías de la determinación.Aclaremos que este concepto es relacionado con los de causalismo y determinismo,casuación y determinación.La lista: autodeterminación cuantitativa;determinación casual o causación;interacción(interdependencia funcional);determinación mecánica;determinación estructural(totalista);determinación teleológica;determinación dialéctica( o autodeterminación cualitativa).Es de señalar que la relevancia de Bunge como teórico de la ciencia,precisa de una crítica,que es propuesta desde la TCC ,en el sentido de que su adecuacionismo supone,como se constata en sus escritos,que cualquier hecho puede ser explicado a través de una teoría,y que por lo tanto,las teorías se organizan de un modo similar en ciencia natural como en ciencia social.Esto es un grave problema gnoseológico,pues se pasa de unas categorías a otras sin criterios válidos ontológicamente.Queremos decir que,en casos comoel problema de la relación “mente”/cuerpo , o “conciencia/cerebro,hay muchos errores gnoseológicos serios debidos a una teoría errónea en su modo de establecer criterios para relacionar la materia y la forma.

[17] Cfr.Bunge;Causalidad;pág 30

[18] El nivel de exposición de esta cuestión va a partir de lo expuesto en el libro: Order and caos.(laws of energy and entropy) de Stanley Angrist y Loren Hepler,por un lado y el libro “técnico” de Norbert Wiener : Cybernetics.(or control and communication in the animal and the machine),por otra parte.El libro divulgativo de Wiener sobre la entropía y la cibernética lo dejamos ahora a parte,pues hemos considerado más práctico,para la exposición el libro de Angrist y Hepler.

[19] El concepto fue introducido por Clausius tras observar la relación del calor con la temperatura y constatar en ella propiedades especiales.

[20] En el glosario del Vol. 5 de TCC : “Puesto que las relaciones reflexivas no son originarias,sino derivadas,por ejemplo,de relaciones simétricas y transitivas previas o del producto relativo de dos relaciones distintas recíprocas (xRy/yQx) toda identidad,por el mero hecho de serlo,es sintética,material.La identidad analítica es absurda y constituye el caso límite de la reflexividad,que también tomada absolutamente carece de contenido.La identidad sintética,en cambio,incluye siempre diversidad y es operatoria.Tanto las verdades científicas,comolas leyes científicas,en cuanto contenidos esenciales,en el eje semántico,resultan de procesos de confluencia operatoria que resuelven en identidades sintéticas.El concepto de verdad científica se define,en la teoría del cierre,por la identidad sintética.Ejemplo de identidad sintética la que media entre la masa de gravitación y la masa de inercia en la teoría general de la relatividad.”

[21] Cfr.G.Bueno;TCC;Vol.4;pág.66-67

[22] Ya que se da una “definición estadísitica de la entropía”,es interesante tener en cuenta las críticas de Russell al propio Reichenbach,sobre esta cuestión y la de la “inducción”,en el libro de Russell El conocimiento humano.

[23] Se refiere a la aportada por Boltzmann,que reconocía que “la probabilidad W de un estado está relacionada con el estado de la entropía S, y estableció la famosa relación  (mantenida dentro de una aditiva constante) : S= k.log W.

[24]   Cfr.Pelayo García ,su “Diccionariofilosófico” en


NOTA: estas definiciones,por cuestiones de claridad,están tomadas tal cual del diccionario de Pelayo García.Se explicará su sentido gnoseológico en el siguiente apartado “Definición del circularismo ”.Pero considero importante que se vaya introduciéndola terminología de Gustavo Bueno ,para facilitar su manejo en las partes segunda y tercera.

“Situaciones a / Situaciones b (del campo semántico de las ciencias)

Situaciones a. Situación de aquellas ciencias en cuyos campos no aparezca, entre sus términos el sujeto gnoseológico (SG); o un análogo suyo riguroso: un animal dotado de la capacidad operatoria (Sultán, de Köhler, «resolviendo problemas» mediante composiciones y separaciones de cañas de bambú). Esta situación corresponde a la de las ciencias físicas, a la Química, a la Biología Molecular.

Situaciones b. Situación de aquellas ciencias en cuyos campos aparezcan (entre sus términos) los sujetos gnoseológicos o análogos suyos rigurosos. Esta situación corresponde a la de las ciencias humanas. La demostración de que la distinción entre «ciencias naturales» y «ciencias humanas», a partir del criterio propuesto, tiene significado gnoseológico, puede llevarse a cabo del modo más inmediato: mostrando que la situación b afecta a un conjunto de ciencias que se relacionan con ella, por razón misma de su cientificidad.

Es la cientificidad misma de las ciencias asociadas a las situaciones b (es decir, las «ciencias humanas») aquello que queda comprometido. Mientras en las ciencias naturales y formales las operaciones son exteriores, no sólo a la verdad objetiva, sino también al campo, en las ciencias humanas las operaciones no son externas a ese campo; por ello, constituye un episodio intracientífico que puede formularse como un acontecimiento propio del sector fenomenológico del campo científico. Pues las operaciones son fenómenos de los campos etológicos y humanos: es preciso partir de ellos y volver a ellos. Esto nos permite introducir, en la estructura interna gnoseológica de las ciencias humanas, así definidas, dos tendencias opuestas, por aplicación del principio gnoseológico general (regressus de los fenómenos a las esencias y progressus de las esencias a los fenómenos) al caso particular en el que los fenómenos son operaciones: metodologíasa y b de las ciencias humanas (inicialmente) y, en una segunda fase, metodologías-a de las ciencias en general.



Metodologías b-operatorias / Metodologías a-operatorias

Metodologías b-operatorias: procedimientos de las ciencias humanas en los cuales esas ciencias consideran como presente en sus campos al sujeto operatorio (con lo que ello implica: relaciones apotéticas, fenómenos, causas finales, &c.).

Metodologías a-operatorias: procedimientos que atribuimos a las ciencias humanas en virtud de las cuales son eliminadas o neutralizadas las operaciones iniciales, a efectos de llevar a cabo conexiones entre los términos al margen de los nexos operatorios (apotéticos) originarios. Ulteriormente, por analogía, llamaremos metodologías a a aquellos procedimientos de las ciencias naturales que ni siquiera pueden considerarse como derivados de la neutralización de metodologías b previas. La dialéctica de las metodologías a y b puede formularse de este modo: las ciencias humanas, en tanto parten de campos de fenómenos humanos (y etológicos), comenzarán por medio de construcciones b-operatorias; en estas fases no podrán alcanzar el estado de plenitud científica. Este requiere la neutralización de las operaciones y la elevación de los fenómenos al orden esencial. Pero este proceder culmina, en su límite, con el desprendimiento de los fenómenos (operatorios, según lo dicho) por los cuales se especifican como «humanas». En consecuencia, al incluirse en la situación a, alcanzarán su plenitud genérica de ciencias, a la vez que perderán su condición específica de humanas. Por último, en virtud del progressus («vuelta a los fenómenos»), al que han de acogerse estas construcciones científicas, en situación a, al volver a los fenómenos, recuperarán su condición de metodologías b-operatorias. Esta dialéctica nos inclina a forjar una imagen de las ciencias humanas en polémica permanente, en cuanto a los fundamentos mismos de su cientificidad. El concepto de «ciencias humanas» que hemos construido se apoya en las situaciones límite, en las cotas del proceso (a saber, el inicio de las metodologías b-operatorias, y su término a-operatorio). Pero entre los límites extremos cabrá establecer el concepto de «estados intermedios de equilibrio». ”




[25] Cfr.Bueno;TCC;Vol.5;pág.40 y págs.71-90

[26] Ibid.;pág.85

[27] La definición de “Symploké” que nos ofrece el Diccionario filosófico de Pelayo García en es como sigue :

“Entrelazamiento de las cosas que constituyen una situación (efímera o estable), un sistema, una totalidad o diversas totalidades, cuando se subraya no sólo el momento de la conexión (que incluye siempre un momento de conflicto) sino el momento de la desconexión o independencia parcial mutua entre términos, secuencias, &c., comprendidos en la symploké . La interpretación de ciertos textos platónicos (El Sofista, 251e-253e) como si fueran una formulación de un principio universal de symploké (que se opondrá, tanto al monismo holista –«todo está vinculado con todo»– como al pluralismo radical –«nada está vinculado, al menos internamente, con nada»–) es la que nos mueve a considerar a Platón como fundador del método crítico filosófico (por oposición al método de la metafísica holista o pluralista de la «filosofía académica»).”


[28] Cfr.TCC;Vol.5;págs.129-130.

Bueno expone a través de este ejemplo la oposición radical del circularismo con el adecuacionismo.Además le sirve para presentar una primera aproximación al concepto de “cierre categorial”,el cual no ha de entenderse como una “clausura” del sistema,en tanto éste es perfecto e inmutable.Los términos y las relaciones  se concatenan (operatoriamente),y ello garantiza que las conexiones establecidas no sean meramente empíricas o meramente contingentes,sino necesarias, y no necesarias en abstracto,sino,gracias a las concatenaciones materiales(entre términos y relaciones del “eje sintáctico”,del campo del espacio gnoseológico de las ciencias).Para estos conceptos ,consultar,además de TCC , el citado Diccionario filosófico de Pelayo García en el web,además,ejemplos de las ciencias ,en especial en la Parte Segunda,en los que estos conceptos se someten a consideración crítica.

[29] Cfr.TCC;Vol.5;pág.133-134

[30] En Bueno,op.cit.TCC;Vol. 5 ; pág 136

[31] Bueno;TCC;Vol.5 pág.146

Sobre el concepto de contextos determinantes,en la Segunda Parte,al exponer la Teoría de la evolución en el contexto de la obra de Faustino Cordón,mostraremos cómo es aplicable el modelo del Cierre Categorial a través de un caso concreto de la Biología.

Una vez más recurrimos a la definición que nos aporta Pelayo garcía en el citado Diccionaro filosófico , a saber:


Contextos determinados / Contextos determinantes :

La construcción categorial llevada a cabo por cada ciencia se mantiene en el ámbito de los términos, relaciones y operaciones [190] genéricos o  primarios de cada categoría (los puntos y rectas en Geometría, las  distancias, la adición). Pero a partir de ellos no sería posible ninguna construcción: es preciso detenerse en algunos principia media objetuales  (términos y relaciones), internos a la categoría, en configuraciones o morfologías (como puedan serlo, en Geometría, «circunferencia» o «cuadrado») que, sin perjuicio de poder resolverse ad integrum en los términos primarios del campo categorial no pueden, sin embargo, constituirse a partir de esos términos, relaciones, &c. (en el caso del ejemplo geométrico, el número de sus términos primarios es infinito). Estas configuraciones morfológicas son los contextos determinados en cuyo ámbito podrán establecerse las relaciones de identidad sintética. Por ello estas configuraciones no sólo estarán constituidas con los términos y  relaciones primarias del campo categorial en el cual se organizan, sino que habrán de estarlo según ciertos esquemas materiales de identidad (como  pueda serlo la equidistancia de los puntos de la circunferencia al centro, del ejemplo anterior) para que estos contextos determinados puedan desarrollarse de suerte que, en su ámbito y entre sus partes (que ya no tendrán que ser primarias, sino «intermedias», por ejemplo, en el caso anterior, «diámetros», «arcos», &c.) han sido establecidas relaciones  necesarias de identidad. En estos casos, esos contextos determinados  podrán ser llamados contextos determinantes (un contexto sólo es determinante a posteriori, por sus resultados y no por alguna  «potencialidad» o «virtualidad» a priori).



[32] A partir de ahora,todo lo que esté relacionado directamente con Faustino Cordón,estará incluído en el capítulo siete de la Parte Segunda ,Vol. II de su Tratado evolucionista de Biología. Además de las notas de Cordón a dicho capítulo,fundamentales para un curso de Historia crítica de la ciencia.

[33] Pongamos por caso,el “célebre” problema(presentado incluso por algunos autores ,pongamos por caso,Laín Entralgo,como enigma)de la conciencia,en lo que se llama – a mi juicio erróneamente,(si tenemos en cuenta la aportación de Faustino Cordón,precisamente) la “Filosofía de la mente”

[34] Esta propuesta debe ser enfocada, como el mismo Cordón explica en una nota del volumen  I de la obra ,con la perspectiva gnoseológica de evitar lo que allí(nota1 al cap.3) define el gran biólogo como “una desviación anticientífica(idealista, sustantivista )del pensamiento”.¿A qué desviación se refiere?. A la que podemos constatar después de catorce años de publicar el volúmen I (1977),que se dedica a estudiar “artefactos” ,sin tener en cuenta su conexión con lo que Cordón llama aquí  “el vínculo con la realidad en torno,vista desde una perspectiva conveniente para que ésta se nos ofrezca como puro proceso, como acontecer incesante y total.” La desviación de estudiar partes ,como el genoma, sin vincularlas a la “experiencia y acción” dada en tres niveles ,como propone Cordón.

Considero de utilidad recordar la propuesta realizada por la TCC de Gustavo Bueno respecto de este asunto , que incluye los conceptos siguientes: todo/parte(las totalidades atributivas y distributivas).Los conceptos de isológico y sinalógico.Entorno,contorno y dintorno.Podemos aconsejar consultar los citados Diccionario filosófico de García Pelayo en internet: http://filosofia,org/ y elVol. 5 de TCC,de G.Bueno,”glosario”.






Los dos sentidos de un curso operatorio circular que, partiendo de determinadas posiciones, llega a otras distintas (regressus) para retornar, reconstruyéndolos cuando es posible, a los puntos de partida (progressus). La determinación del sentido de los términos en cada caso depende de los «parámetros» fijados como puntos de partida, puesto que un cambio de éstos convertirá a un regressus dado en un progressus y recíprocamente (si se comienza por el todo, será un regressus el curso hacia las determinaciones de las partes, y un progressus la construcción de aquel con éstas; si se comienza desde las partes, será un regressus el camino hacia el todo y un progressus la reconstrucción de las partes, si es posible).

Tomado del Diccionario de García Pelayo.


[36] La cuestión de las categorías es desarrollada con amplitud en el Vol. 2 de la TCC de Gustavo Bueno.Se trata del capítulo 2 (págs. 53 hasta 274).Se trata de un tema clave para la filosofía de la ciencia.En este momento sólo vamos a “decir” cuáles son las propuestas de Bueno al respecto ,mediante algunas de las “tesis” por él expuestas en su crítica de las categorías,en especial las de Aristóteles y la propuesta por Natorp acerca del concepto de categoría en Platón.

Bueno,en un resumen no completo que propongo en esta nota dice sobre las categroías,algunas cosas como :

a)”No hay una doctrina de las categorías, sino varias”

b)”La determinación de las categorías no puede llevarse a efecto por la “filosofía pura”.”

c)”Las categorías aristotélicas giran en torno a la categoría de sustancia”.

d)Tras criticar a Brentano,Natorp,Kant,Quine y Sommers al respecto de las categorías, Bueno propone la siguiente tesis:

“El marco holótico mínimo para un tratamiento gnoseológico de la doctrina de las categorías ” supone que “La Idea de ciencia envuelve la Idea de categoría y ésta se conforma a su vez a través de la Idea de ciencia.”.Dado que la Idea de categoría “envuelve” a la Idea de todo( o de totalidad),se propone desde la TCC que las categorías son totalidades.  Las clasificaciones son desarrolladas a través de todos y partes: el sistema periódicode los elementos de Mendeléiev.Los “reinos”, tipos, clases, géneros, especies e individuos en Biología,son totalizaciones(sistemáticas o sistáticas).

e)Tres postulados para una teoría holótica de las categorías:

1-el postulado de corporeidad holótica

2-el postulado de multiplicidad holótica

3-el postulado de recursividad holótica

e) “El principio de las categorías implica el principio de symploké “.

“La symploké,al reconocer “cortaduras” en el Mundo, implica propiamente el ateismo “terciario”,es decir,la negaciónde un Dios omnisciente y omnipotente,y aquí reside su principal significación gnoseológica.(…)La Materia ontológico general ,tal como fue introducida en Ensayos materialistas,cuando se la considera desde el principio de la symploké ( y en a medida en que éste hace posible algo así como una “ontología negativa”) se nos muestra, desde luego, muy lejos de la unidad.(…)No es un orden, pero tampoco un “caos”.(…)El principio de symploké, al prohibirnos ver a la materia ontológico general como unidad de conjunto,nos obliga a verla como un conjunto de corrientes diversas e irreductibles algunas de las cuales han debido confluir para dar lugar a la conformación del mundo.Un mundo en el que, sin embargo, aparecían ,como si fueran indicios  de fracturas más profundas,esas líneas divisorias (“punteadas”) de círculos de objetos que llamamos categorías”.

f) “El principio de symploké no implica el principio de las categorías”.

g)”Existe una serie de conexiones conjugadas entre los momentos formales y materiales de las categorías”.

Ahora bien, no pueden hipostasiarse esos aspectos .”Ni las dimensiones formales, ni las dimensiones materiales son por sí mismas categoriales”.Por esto se propone que no hay ni yuxtaposición materia/forma ,ni reducción ,caso de las alternativas gnoseológicas de teorías descripcionistas,adecuacionistas y teoreticistas.Lo que el cierre categorial propone es que la ciencia trabaja con “esquemas de conjugación”.

h)”Tantas categorías como ciencias efectivas”.

i)”Hay categorías del ser y categorías del hacer”.

j)”El conjunto de las categorías ontológicas noagota la omnitudo realitatis”.

j)”Ideas y Categorías”.Dado que las categorías no agotan la totalidad de los entes del Mundo,propone Bueno rescatar la distinción entre Ideas yCategorías que mantenían tantola Escolástica como Kant, pero transformándolas, rescatando los conceptos de Idea en el sentido de Platón.Ya no se reduce el concepto de Idea a lo que Kant llama Dios,Mundo,Libertad ,sino que son también Ideas conceptos como el de Conciencia,Potencia,Tiempo y Duración..Este asunto resulta,a mi juicio,muy criticable,ya que no queda claro el “relator” para estos conceptos clave en la TCC(Ideas y categorías),aunque Bueno propone algunas ciencias en que encuentra ejemplos de esa relación .Veremos el caso de la Biología ,en el contexto de Cordón y el de Bueno, para establecer criterios críticos respecto de la cuestión que he señalado.

[37] Cfr.TCC;Vol. 4 ; pags.13 ss.

[38] Cfr. para estas cuestiones una clasificación de los distintos tipos de teorías de la ciencia.De cualquier manera ,considero que una ayuda de mucho valor es el citado en multitud de ocasiones Diccionario Filosófico de Pelayo García.

El cuadro que introducimos es muy esquemático y tan sólo puede ser entendido como un”modelo” para exponer esas “cuatro familias” de teorías de la ciencia de que habla Gustavo Bueno.

En el contexto de los análisis históricos de la Química y la Biología que Faustino Cordón nos presenta, resulta ahora importante tenerlo muy presente.


Alternativas         I(O, 1)     II(1,0)     III(1, 1) IV(O,O) . 0 y 1 son tomados como valores de verdad

Alternativas                 I(0,1)                    II(1,0)                     III(0,1)                  IV(0,0)

cuasialgebraicas  Subordinación          Subordinación    Yuxtaposición       Reducción

Opciones extremas (reducción)             (reducción)         (composición)                   mutua

interpretación             de forma               de materia a          de  forma y                 (conjugación)

de los términos          a materia                forma                     materia

a) Primera opción: Indeterminación        Realismo                Realismo                   Otras

Forma-Objeto,      epistemológica.    epistemológico .     epistemológico.            (TCC)

Materia-Entendimiento indeterminación   Empirismo         adecuacionismo

Gnoseológica    descripcionista    gnoseológico


b) Segunda opción:            Subjetivismo   Subjetivismo                  Idealismo                    Otras

Forma-Sujeto,                   o idealismo         o idealismo                 objetivo                     (TCC)

Materia-Objetos             epistemológico     epistemológico          (teológico)

Del campo                   indeterminado           teoreticismo              adecuacionsimo

gnoseológicamente     gnoseológico             gnoseológico


Tabla de las divergencias entre las interpretaciones de las cuatro alternativas cuasialgebraicas en las dos opciones epistemológicas extremas





[39] Todos los logros de la bioquímica en el siglo XX le dan la razón a Pasteur,con la constatación de que,”en el metabolismo celular los alfa-aminoácidos(todos) de todas las proteínas ofrecen en el carbono asimétrico,que les es homólogo la misma configuración estérica; y casi sin excepción,cada carbono asimétrico de todo metabolito que los posea pertenece a una determinada configuración estérica que, como regla,se conserva en metabolitos procedentes de él con notable tenacidad”.

Cfr.F.Cordón; Tratado evolucionista de biología;pág.486,Vol.II,Parte segunda.

[40] Cita Cordón un texto del propio von  Baeyer : “Encontré que mi tarea era considerarla naturaleza cada vez más de cerca y contemplar las cosas mismas”.”Mis experimentos nunca se han planteado para ver si yo tenía razón,sino para ver cómo los cuerpos se comportan.De esta actitud procede también mi indiferencia ante las teorías”.Apud Cordón,op.cit. Parte segunda Vol.II;pág.492 .

[41] Cfr.Bueno;TCC;Vol 4; pág . 20 ss.

[42] Ibid;pág.28

[43] Cfr.Cordón;Tratado evolucionista de Biología;Parte segunda ,Vol. II; pág. 519 y pág.651(nota 102).

La tesis de Cordón la ponemos en el texto, pues es fundamental.

[44] Cfr.Nagel; La estructura de la ciencia;Paidós;ed.1981;pág.89 . La crítica a Nagel, que desde el circularismo es clasificado enla alternativa descripcionista de la ciencia, se basa en lo siguiente, tal como Bueno lo explica(Cfr.TCC, Vol. 4 pág 1099) : ” La equiparación entre los lenguajes lógicos y los lenguajes matemáticos en su condición de “tautológicos” ( o “analíticos”) es, además, una tesis demasiado comprometida como para poder basar en ella toda una teoría de la ciencia. Es una tesis que procede de Hume y va ligada a la concepción (idealista, en el fondo) de que la necesidad en las conexiones hay que circunscribirla dentro del mundo de las formas (mentales o lingüísticas),en el mundo de las proposiciones o de las inferencias, puesto que el mundo de los hechos(de la materia) se entenderá como el reino de la contingencia y del azar. Por ello, las “ciencias formales”, si establecen proposiciones necesarias, será porque se mantienen en  el mundo de las formas y porque, en realidad, no ofrecen información nueva alguna. Las ciencias que se refieren a los hechos ,a la materia,aunque ofrecen información nueva no podrán, en cambio, ofrecer necesidad alguna ( se citaba, como corroboración de la tesis, la boutade de Einstein : “las ciencias exactas son exactas cuando no nos hacen conocer la realidad; cuando nos la dan a conocer dejan de ser exactas”).Por tanto,bastará que la lógica y las matemáticas ofrezcan propiedades necesarias ( se subrayará que las “verdades lógicas” son verdaderas “entre todas las opciones posibles de valores de verdad de las variables p, q , r”; por tanto, que son necesaria supuesto que no cabe pensar una alternativa en la que dejen de serlo) para concluir que ellas no son ciencias de la realidad sino “construcciones analíticas” que se mantienen en el terreno de las tautologías lingüísiticas”

[45] Cfr.Bueno ;TCC Vol. 4 pp.88 ss.

Sobre las obras de García-Bacca que utilizaremos,se trata de Pasado,presente y porvenir de grandes nombres;México;FCE;dos Vols.;1988 y del excelente libro de filosofía de la ciencia editado por la UNAM(Universidad Nacional Autónoma de México) en 1963, titulado Historia filosófica de la ciencia, donde hace un recorrido de la Historia filosófica de la ciencia física,de tal manera que lo que Bacca define como “primera verdad física del tipo patencia de invención,lo da al “plan causal” de Aristóteles.El segundo tipo de patencia de invención lo da García-Bacca a Ptolomeo y Proclo,y sería un modelo de “plan categorial objetivo geométrico”.La tercera de las patentes de invención propuesta por García -Bacca es la de Galileo,según el tipo de patencia de invención “plan categorial objetivo analítico con plan causal adjunto”.La cuarta verdad física del tipo “patencia de invención” se la adjudica a Newton  por su “plan categorial objetivo,a la una con plan causal”.La quinta patente,”plan categorial en coordinación objetiva a la una con plan campal”, la invención de Einstein. Conceptos como espacio, tiempo ,fuerza, masa, potencial, campo, son los “términos” de estos modelos explicativos según categorías que difieren según los modelos o patentes de invención. Lo interesante ,me parece, es el modo en que Bacca expone los problemas filosóficos derivados de conceptos físicos. Una sexta patente de invención ,en cuanto a verdades físicas,es la de De Broglie,con “plan categorial probabilísitico, a la una con plan campal , cuántico”.En una segunda parte de este libro, García- Bacca propone una historia filosófica de la lógica,muy interesante,pero que sólo manejaremos transversalmente.

[46] La cita está tomada de Nagel;op.cit.;pág.117-118

[47] Cfr.Jorge Serrano; Introducción a la filosofía de la ciencia;México;Ed.Progreso;1973;pág.53

[48] El libro de Alexandre Koyré Études newtoniennes;ParísGallimard;1968; resulta muy sugerente para ayudar a comprender los problemas relativos a la formación de conceptos clave de la física. De él, tomamos algunas de estas consideraciones.

[49] Ibid.pág. 43

[50] Quisera recomendar la lectura del libro de Pablo Huerga La ciencia en la encrucijada ;Oviedo;Pentalfa;1999.En esta obra se hace un estudio de Newton desde las coordenadas de la teoría circularista de la ciencia,que pueden ser útiles para entender mejor estas cuestiones de Koyré.

[51] Kepler explica en su De astronomia nova (1609): “empero,más sagrada que todas estas cosas[se refiere Kepler a las “Sagradas Escrituras” y los dogmas de los filósofos y santos como Lactancio,SanAgustín,el Santo Oficio]es para mí la verdad,cuando yo,con todo el debido respeto por los doctores de la Iglesia,demuestro ,partiendo de la filosofía,que la Tierra es redonda,y habitada por antípodas en toda superficie ; que es de una pequeñez insignificante, y que corre veloz entre los demás astros”.Pero nosóloestas afirmaciones muestran el”giro” dado en la Historia por este gran físico,sino también lo que serán sus tres leyes,como se describen en su obra De Harmonice Mundi (1619) : “En los comentarios sobre Marte,he logrado demostrar,partiendo de las exactas observaciones de Thycho Brahe,que dados unos arcos iguales recorridos en un día a cargo de la misma órbita excéntrica no son coronados a la misma velocidad,sino que los distintos tiempos utilizados para recorrer partes iguales del excéntrico son proporcionales a la distancia de éstas con el Sol,manantial del movimiento;y viceversa :dados unos tiempos iguales,por ejemplo un día natural,los arcos diurnos que les corresponden,recorridos realmente dentro d ela misma órbita excéntrica,se hallan entre sí en proporción inversa a las dimensiones de sus distancias conrespecto delSol.Junto a esto,he demostrado que la órbita de los planetas es elíptica, y que el Sol,fuente de movimiento,se encuentra en uno de los dos focos de dicha elipse(…)”.En cuanto a la tercera ley de Kepler,podemos afirmar que se trata de un modelo matemático en el que se introducen las relaciones entre dos planetas y la distancia al Sol,mediante el recurso matemático de las raíces cúbicas y el radio medio de las órbitas de los planetas y sus períodos orbitales,por ej,la Tierra un año,mientras que Saturno tres años.

[52] Cfr.García-Bacca;Historia  filosófica de la ciencia; México;UNAM;1963;págs. 73-101.Las referencias a Newton son del propio texto de Bacca,del libro de Newton Philosophiae naturalis principia mathematica.


[53] Cfr.op.cit.;págs.87-88

[54] En el glosario del Vol. 5 de TCC : ” Progressus / regressus : Los dos sentidos de un curso operatorio circular que, partiendo de determinadas posiciones ,llega  a otras distintas (regressus) para retomar, reconstruyéndolos cuando es posible, a los puntos de partida (progressus)..La determinación concreta del sentido de los términos en cada caso  depende de los “parámetros ” fijados como puntos de partida, puesto que un cambio de estos parámetros convertirá a un regressus dado en un progressus y recíprocamente ( si se comienza por el todo,s erá un regressus el curso hacia las determinaciones de las partes, y un progressus la construcción de aquél con éstas; si se comienza desde as partes; será un regressus el camino hacia el todo y un progressus la reconstrucción de las partes, si es posible).En la tradición platónica los puntos de partida son los fenómenos ,y los términos las esencias, por lo que se hablará de un regressus a las esencias y de un progressus de las esencias a los fenómenos (la “vuelta  a la caverna”).Hay que tener en cuenta que los fenómenos desempeñan unas veces el papel de totalidades confusas ( fenotipos , por ejemplo).El llamado tradicionalmente “método analítico de los geómetras” también comporta un regressus (un análisis de los fenómenos- problemas que resuelve en los principios) y un progressus ( o síntesis constructiva de los principios a las consecuencias).Otras veces, en las ciencias empíricas, los métodos inductivos vienen a constituir la fase del regressus por respecto de la fase deductiva (por ejemplo, predictiva ) de progressus.

Es esencial tener en cuenta que la distinción  entre progressus y regressus sólo alcanza su sentido fuerte en una concepción circular de la racionalidad científica ( como pueda serlo la teoría del cierre categorial ) ;la distinción se debilita cuando nos situamos al margen del circularismo gnoseológico ( y si se mantiene es como resultado de la mera yuxtaposición de dos metodologías que pueden proceder independientemente o que, a lo sumo, se relacionan por vía meramente psicológica, por ejemplo,refiriendo el regressus a los contextos de descubrimiento y el progressus a los contextos de justificación).

La distinción entre progressus / regressus en su sentido fuerte incluye estrategias dialécticas muy características ( por ejemplo, metábasis, sistasis,&c.) derivadas de las dificultades o resistencias que la materia  tratada opone al establecimiento del circuito interno ,en matemáticas,desde la integral a la función derivada correspondiente y la necesidad de suplir el retorno apelando a los autologismos que tienen lugar en las llamadas “integrales inmediatas”)”.

[55] Sobre este punto, que considero de suma relevancia para la Historia y para la filosofía de la ciencia, citaré un texto de La matemática : su contenido ,métodos, significado. De los autores Alexandrov,Kolmorogov,Laurentiev,y otros; Madrid; Alianza Universidad; 7ª ed.1985.La cita es del Vol . I;pás.260-261 :

“Consideremos una fuerza f ,que puede representarse en unidades convencionales por un segmento con punta de flecha, dotado de una longitud y una dirección específicas.

Lagrange señaló que esta fuerza f puede descomponerse en tres componentes fx,fy y fz en la dirección de los ejes Ox,Oy y Oz , respectivamente ; estas componentes ,en cuanto que segmentos dirigidos sobre los ejes, pueden definirse simplemente mediante un número positivo o negativo, según que la componente esté dirigida en la dirección del eje o en la opuesta. Así, podemos considerar ,por ejemplo, la fuerza (2,3,4) o la fuerza (1,-2,5),etc. En la composición de fuerzas según la ley del paralelogramo puede demostrarse fácilmente que hay que sumar las fuerzas correspondientes. Por ejemplo, la suma de las fuerzas dadas es la fuerza

(2+1 ,3+2 ,4+5) = (3,1,9)

Lo mismo puede hacerse con las velocidades y las aceleraciones .En cualquier problema de mecánica, todas las ecuaciones que relacionan fuerzas, velocidades y aceleraciones pueden escribirse también como ecuaciones entre sus componentes, es decir, ecuaciones entre números. La ecuación mecánica se escribirá entonces en forma de tres ecuaciones :una para la x, otra para la y ,y una tercera para la z.

Pero fue sólo cien años después de Lagrange cuando los matemáticos y físicos, bajo el influjo del desarrollo de la teoría de la electricidad, comenzaron a hacer uso abundante de la teoría general de los segmentos de longitud y dirección dadas. Tales segmentos se denominaron vectores.

La teoría de los vectores es de gran importancia en la mecánica, la física y la tecnología, y su aspecto algebraico, el álgebra vectorial ( en contraste con el análisis vectorial) aparece enseguida como una parte esencial de la geometría analítica”.

[56] Cfr.Husserl;Crisis de las ciencias europeas y la fenomenología trascendental; México;Folios edic.;1984.En especial el capítulo III “El esclarecimiento del problema trascendental y la función que le compete a la psicología en este contexto”.

Sobre el tema de la psicología en el contexto de la gnoseología de las ciencias, es interesante recordar la obra de un filósofo que abandona esta disciplina, en aras de la psicología. Nos referimos al suizo Jean Piaget ,cuyos análisis son imprescindibles, pero  deben ser criticados pues no parece posible que un descripcionismo de operaciones psicológicas sea suficiente para elaborar una teoría de la ciencia.

[57] Cfr.Eduardo Nicol;op.cit.pág.14.

Interesa ahora comentar que en el caso(que se verá en la Tercera Parte, de la Bioética , se constata esta problemática en torno a los principios y reglas de la ciencia(y su confusionismo gnoseológico),como Bueno propone al criticar el llamado “Informe Belmont”, llevado a cabo por especialistas en Bioética en los Estados Unidos.

[58] Cfr.Nicol;ibid.pág.122-123

[59] Ibidem.

[60] “cuando se conoce el promedio de distribución debido al “azar ” ,los márgenes del error debido a esa distribución estadística son del orden de magnitud de la raíz cuadrada de los promedios”.

[61] Cfr.Gustavo Bueno; TCC; Vol . 3 pág.80

[62] Cfr. El libro de Albert Einstein El significado de la relatividad , cuya lectura es obligada para evitar muchas confusiones respecto de la física y la relación materia/forma que en ella encontramos.


[63] Cfr. Henry Semat ; Física atómica y nuclear; pág.30 ss.

[64] Este movimiento toma su nombre de Brown, quien en 1827 observó que si se miran al microscopio partículas muy pequeñas suspendidas en un fluido, se puede observar que   movimiento caótico constante. Este movimiento puede ser equiparado al de las partículas de moléculas de un gas en cuanto a su movimiento térmico.

Einstein y Smoluchovski propusieron en 1905 la explicación basada en la hipótesis siguiente: las partículas en suspensión están constantemente bombardeadas por las moléculas del fluido, y este bombardeo produce una fuerza no equilibrada que acelera las partículas. El movimiento de la partícula a través del fluido tropieza con la oposición de otra fuerza debida a la viscosidad de aquél. A partir de esta teoría puede calcularse la distribución de partículas en un campo de fuerzas y su desplazamiento con el tiempo.

[65] Cfr.Jorge Serrano; Filosofía de la ciencia; México;CEE;p.158

[66] Este tema, además de poder encontrarlo en el citado Diccionario de Pelayo García, se trata en los siguientes lugares de TCC,de G.Bueno : en pág 196 del Vol 1; en pág.800 del Vol.3 y en pág.1297 del Vol. 5

[67] Bueno lo expone de este modo en op.cit.TCC;p.199,Vol 1 : “¿ no habíamos hablado del proceso de neutralización ( o eliminación) de las operaciones como del mecanismo regular del cierre categorial en el proceso de construcción de las identidades sintéticas? ”

[68] Ibid.pág.205. Para mayor detalle acerca de los criterios de neutralización Cfr. Pág. 206

[69] En su libro Cibernetics.The human use of human beings, Wiener definía la cibernética como el uso y control de mensajes entre hombre y máquina, entre máquina y máquina .Pero recurriendo además al orígen griego del término (kibernetés ),que quiere decir el piloto de una nave, aquel que lleva a puerto a los tripulantes y tras travesías en ocasiones difíciles, en medio de arrecifes, tormentas, etc. Lo que señalaba Wiener, desde su preocupación por el mal uso que se le podía dar a la entonces naciente tecnología cibernética, era que un mal uso de la tecnología pudiera llevar al hombre a su autodestrucción, acelerando el proceso de entropía que la Naturaleza cumple como parte de las leyes termodinámicas.

[70] Cfr.los artículos de Ivan Illich y de Papart,Chastonay y Froidevaux en Le Monde y el propio artículo de Pablo Huerga ,además de los trabajos elaborados por Steve Hasam,.en los que se desarrolla esta cuestión desde una perspectiva contraria a la neoliberal defendida por los firmantes del Manifiesto.

[71] Cfr. a este respecto el libro de Gustavo Bueno El sentido de la vida. En él se estudian tanto los conceptos de persona en un contexto filosófico, como los de libertad, derechos humanos y la noción misma del sentido de la vida.

[72] Para quienes estén interesados en conocer las líneas básicas de esta Teoría de la Ciencia, recomendamos consultar la página de internet con este URL

en la cual se puede consultar un resumen de dicha teoría en el libro (puede bajarse de la red),¿Qué es la Ciencia?,ed. Pentalfa; Oviedo

También será de ayuda el Diccionario Filosófico de Pelayo García, el cual puede consultarse en internet en :

[73] La sindéresis, en Santo Tomás de Aquino, consiste en el hábito de los primeros principios prácticos(Cfr. De veritate, q.17,a.2,ad.3).La sindéresis no es una potencialidad ,sino que es un acto, un hábito que se da en la práctica, no una cuestión general o teórica, es una regla de acción que se realiza, no una mera norma moral o ética.