Nuevas hipótesis sobre Teoría del Conocimiento

A continuación ponemos una reseña sobre novedosos modelos acerca de lo que muy genéricamente podemos denominar Teoría del Conocimiento

Desde el sistema del Materialismo Filosófico hablamos de dos cuestiones diferentes , a saber :

La gnoseología y la epistemología , y ambas han de ser colocadas en el marco de la ontología del MF ( Materialismo Filosófico)

Para estos conceptos remitimos al Diccionario Filosófico de Pelayo García en este enlace Gnoseología y epistemología de la Teoría del Cierre Categorial en el Materialismo Filosófico

Fuente de la reseña

Notre Dame Philosophical Reviews

2017.11.17 View this Review Online   View Other NDPR Reviews

Stephen L. Reynolds, Knowledge as Acceptable Testimony, Cambridge University Press, 2017, 216pp., $99.00 (hbk), ISBN 9781107197756.

Reviewed by Martin Kusch, University of Vienna

This book fuses “knowledge-first epistemology” (KFE) with “function-first epistemology” (FFE). KFE rejects the traditional project of defining knowledge. Knowledge is too fundamental to be reduced. But knowledge can be used to define, or characterize, other epistemic concepts. For instance, (mere) belief is “botched knowledge” (Williamson 2000: 446).

FFE holds that key features of our epistemic concepts can best be explained in terms of their functions in our social life. Some FFEs are “genealogical”; they seek to identify these functions with the help of a quasi-historical thought experiment about a hypothetical “epistemic state of nature”. The thought experiment is used to answer the question: Why would a community, smaller and simpler than our own, have been motivated to introduce (recognizable predecessors of) our epistemic concepts? The most influential version of such genealogical FFE is Edward Craig’s Knowledge and the State of Nature (1990). Craig suggests that the original function of knowledge attributions is to “flag good informants”.

Stephen Reynolds’ study seeks to improve on Craig’s little classic. For instance, in his thought experiment concerning a tribe without knowledge, Craig mistakenly allows speakers knowledge-entailing concepts. Reynolds corrects this error. When members of the tribe say “I saw that p” or “I remember that p”, they are not claiming knowledge; they are merely relating appearances. Moreover, since Reynolds accepts KFE, his tribe constructs knowledge first, and belief second. Accordingly, the tribesmen and -women are initially restricted to attributing “sayings” (rather than beliefs) to one another. (34)

Reynolds’ central example concerns an “inquirer”, tribeswoman Hannah, who, in regular intervals, needs to find out whether there are wild onions in a location an hour’s walk from the tribe’s camp. In order to avoid the excursion when no onions are there, Hannah asks others for information: Have they been at the location? When was this? etc. As time goes by, Hannah notices that some informants are more useful than others. For instance, informants who visited the site recently are better than testifiers who were there months ago. As Craig would have it, Hannah might eventually bundle together the properties that make for useful testifiers, invent a label (“knowledge”) for this bundle, and use this label to “flag good informants”.

Reynolds demurs. Craig saddles inquirers with too much work; after all, Craig’s inquirers need to keep track of the performance of many potential testifiers. Reynolds’ alternative is to let potential testifiers themselves do the checking. Potential testifiers evaluate whether they are good informants (whether p) and testify only if they are. The criteria for such evaluations can be thought of as “testimonial rules”: “social rules” that govern the conditions under which one ought, or ought not, to offer information to others. Members of the tribe learn and internalize these rules in response to, and motivated by, the approval and disapproval coming from others. The process leads to the introduction of a label, “gnowledge”, denoting “the sorts of relations persons have to their sayings when those saying are likely to be helpful” (51-52). Of course, not everything offered as gnowledge fits the bill; this suggests the introduction of “gnelief” as “failed gnowledge” (58).

Ultimately Reynolds is not, of course, interested in gnowledge and gnelief, but in knowledge and belief. And thus, he aims to make plausible that the function served by the former pair — to wit, securing acceptable testimony — is also the function served by the latter two. In order to make his case, Reynolds argues that gnowledge fits with the characterization KFE offers for knowledge.

First, like knowledge, so also gnowledge normally requires belief. This is because belief that p is a defeasible sign for the testifier having (had) good evidence for p. (76)

Second, gnowledge is factive. Naturally, sometimes falsehoods can be helpful, too, and sometimes we want more detail than just a bare-bone true answer (like “yes”). And testimony is of course fallible (67).

Third, epistemic “justification is the appearance of gnowledge to the subject . . . ” (69). We cannot expect more of our informants than that they refrain from saying that p when it appears to them that they lack gnowledge whether p. According to Reynolds, one can have an appearance that p without having the concepts for thinking that p; thus, even a dog can have the appearance of knowing. This is because “an appearance of our own knowledge is typically the awareness of many things: beliefs, feelings of doubt, perceptual experiences, memories, logical and evidential relationships among beliefs, and so on.” (100) Reynolds’ account also has a diachronic dimension. It may appear to me now (in 2017) that I saw Donald Trump in Moscow in 2015; even though back in 2015 in Moscow, I had no appearance of seeing Mr. Trump. Hence, I am not now justified in my belief. (109-116) Furthermore, it is possible for us to attribute gnowledge that p to informants even when they do not have the appearance of such gnowledge. This is the basis for externalist intuitions about justification. (70, 115)

With this unique combination of FFE and KFE in place, Reynolds then turns to discussing issues in the epistemology of testimony, doxastic voluntarism and the value of knowledge.

Testimony first. Here the key idea is what Reynolds calls “the social norms justification for accepting testimony”. When we lack specific evidence concerning a testifier’s reliability with respect to a particular issue, we tacitly reason as follows:

S testifies that p. She has been trained to testify only what she knows. So she is (very likely) expressing knowledge that p, in the absence of indications that she doesn’t know whether p. There are no such indications. So (very likely) she knows that p. If S knows that p, then it is true that p. Therefore (very likely) p. (125)

Reynolds maintains that this account is superior to Tyler Burge’s (1993) and Richard Moran’s (2005) well-known non-reductionist accounts of testimonial justification. In this context Reynolds also offers a “knowledge norm for testimony” as an improvement on the “knowledge norm for assertion”. (151)

Doxastic voluntarism is generally thought to be mistaken. Reynolds worries that his account might appear to be committed to it; after all, does not his theory involve us in telling others what they ought to believe? Ought implies can. The gist of Reynolds’ response is that “epistemic ‘ought’ judgements typically function to encourage a change in something other than the beliefs of the person they are about.” This “something other” are assertions that fall foul of our epistemic rules for assertion. (190-192)

Finally, why should we prefer knowledge over true belief? The answer falls naturally out of Reynolds’ FFE: we prefer knowledge since it is the result of complying with social-testimonial norms of which we collectively approve (195): “The good of knowledge is, as it were, created by our practice of approving it.” (206)

This is an intriguing book and one of the most important contributions to genealogical FFE. Reynolds’ criticisms of Craig’s FFE seem fair and on target. Craig really does give the tribe knowledge-entailing concepts already prior to the introduction of knowledge, and he has little to say about the testimonial rules we want our testifiers to internalize. Moreover, some Craigean epistemologists have struggled to find a way to reconcile FFE with KFE; Reynolds does so in the most convincing fashion. Readers with sympathies for empirical and experimental philosophy, or the sociology of knowledge, will also welcome Reynolds’ suggestions according to which our testimonial norms are many and highly diverse; that epistemic norms are social norms; or that epistemology is not a priori. Epistemology at its best is “big-picture theorizing” in light of the empirical results of “empirical anthropology”, “social psychology”, taken-for-granted “ordinary empirical knowledge”, and some intuitions (held in check by experimental philosophy) (8, 119-121). Reynolds’ discussion of issues in the epistemology of testimony also deserves praise: it is original, surefooted, and clear.

I now turn to some objections. The main shortcoming of the book is that — with the exception of a couple of perfunctory footnotes (p. 7, p. 64) — Reynolds makes no use of the scholarly debate to which Craig’s book has given rise. Even Craig’s own later discussion of genealogy is absent (2007). This shortcoming matters. Reynolds’ argument would have been (even) more compelling if he had engaged with other forms of FFE (some of which are close to his own), or if he had addressed some of the criticisms that have been directed at Craig, but that — mutatis mutandis — also apply to this book.

First, Reynolds dedicates three pages (81-83) to the question how his theory relates to Hilary Kornblith’s thesis that knowledge is a natural kind, like water or aluminium (2002). Reynolds regards the two analyses as fully compatible. The tribe baptizes certain paradigmatic instances of helpful testimony as “knowledge”, and social processes (like the linguistic division of labour) secure the continued reference to this natural kind (83). Unfortunately, this quick rapprochement ignores Kornblith’s detailed criticism of Craig in his “Why Should We Care About the Concept of Knowledge?” (2011). This paper maintains that Craig goes wrong in treating knowledge as a social-artificial rather than a natural kind. For Kornblith, since knowledge is a natural kind, we must approach it with the tools of ethology, and abandon all forms of conceptual investigations into knowledge, including those of FFE. This is not compatible with Reynolds’ epistemology.

Second, responding to Craig, several authors have drawn attention to other functions of knowledge attributions:

– signalling that inquiry is at an end (Kappel 2010, Kelp 2011, Rysiew 2012);

– identifying propositions we can treat as reasons for acting (McGrath 2015);

– providing assurance (Austin 1946, Lawlor 2013);

– distinguishing between blameless and blameworthy behaviour (Beebe 2012); and

– honouring the subject of knowledge attributions (Kusch 2009).

Some of these authors intend their proposals to be alternative claims about the central role of knowledge attributions (Kappel, Kelp, Lawlor, Rysiew), while others intend them to be complementary (Beebe, Kusch, McGrath). Clearly, some of these suggestions are in the proximity of Reynolds’ theory, while others directly contradict it. It would have been helpful to see how Reynolds positions himself relative to these competitors.

Third, given Reynolds’ frequent insistence on a continuity between epistemology and the social sciences, it is odd that Bernard Williams’ Truth and Truthfulness (2002) is only briefly mentioned in a four-line footnote. Williams offers a genealogy of the social institution of testimony, focused centrally on the question how we can bring testifiers to develop the epistemic virtues of “accuracy” and “sincerity”. Williams emphasises that the institution of testimony is a collective good. Individuals who are rational in a purely self-interested way will try to “free-ride”: they will seek to obtain accurate and sincere testimony from others without offering anything in return. After all, collecting useful information usually involves costly “investigative investments” (2002: 88). How is the problem of collective action solved? The core of Williams’ answer is that accuracy and sincerity (and with them the institution itself) must come to be regarded by community members as shared intrinsic — rather than as merely instrumental — values (2002: 90). And to achieve this goal, Williams says, people must be “discouraged or encouraged, sanctioned, shamed, or rewarded”. In other words, the structure “of mutual respect and the capacity for shame in the face of oneself and others, is a traditional, indeed archaic, ethical resource, but it is still very necessary” (2002: 44, 121). All this seems to me far too close to Reynolds’ position for him to set it aside. Moreover, Williams is arguably one step ahead of Reynolds: Williams recognizes that a focus on social norms must involve bringing social institutions and collective goods into the analysis.

Fourth, and finally, what made Craig’s book appealing to many of his readers were his efforts to use FFE to explain the intuitions behind, and the partial truth of, a wide variety of epistemic positions, from reliabilism to modal epistemology, from contextualism to scepticism. Reynolds’ focus is much narrower insofar as his main goal is to vindicate KFE. Scepticism makes no appearance. And neither do the recent debates over whether a genealogical FFE supports a contextualist or a relativist semantics for knowledge attributions (Greco 2007, Hannon 2013, Henderson 2009, McKenna 2013, MacFarlane 2014: 311-19). Undoubtedly, Reynolds’ study would have considerably gained in interest had he reflected on which of these views best fit with Knowledge as Acceptable Testimony.

These objections should not overshadow the many merits of the book. It deserves to be read not just by philosophers interested in genealogies but all epistemologists.


For comments on a first draft I am indebted to Michael Hannon, Robin McKenna and Matthieu Queloz. I gratefully acknowledge the financial support of the ERC (AG #339382).


Austin, J.L. (1946), “Other Minds”, Proceedings of the Aristotelian Society, Supplementary Volumes 20, 148-187.

Beebe, J. R. (2012), “Social Functions of Knowledge Attributions”, in M. Gerken and J. Brown (eds.), Knowledge Ascriptions, Oxford University Press, 220-242.

Burge, T. (1993), “Content Preservation”, The Philosophical Review, 102(4), 457-88.

Craig, E. (1990), Knowledge and the State of Nature: An Essay in Conceptual Synthesis, Clarendon Press.

—  —  —  —  —  — (2007), “Genealogies and the State of Nature”, in A. Thomas (ed.), Bernard Williams, Cambridge University Press, 181-200.

Greco, J. (2007), “The Nature of Ability and the Purpose of Knowledge”, Philosophical Issues, 17 (1), 57 — 69.

Hannon, M. (2013), “The Practical Origins of Epistemic Contextualism”, Erkenntnis 78 (4), 899-919.

Henderson, D. (2008), “Motivated Contextualism”, Philosophical Studies 142 (1), 119-131.

Kappel, K. (2010), “On Saying that Someone Knows: Themes from Craig”, in A. Haddock, A. Millar, and D. Pritchard (eds.), Social Epistemology, Oxford University Press, 69-88.

Kelp, C. (2011), “What’s the Point of ‘Knowledge’ Anyway?”, Episteme 8, 53-66.

Kornblith, H. (2002), Knowledge and its Place in Nature, Clarendon Press.

—  —  —  —  —  — (2011), “Why Should We Care About the Concept of Knowledge?”, Episteme 8, 38-52.

Kusch, M. (2009), “Testimony and the Value of Knowledge”, in A. Haddock, A. Millar, and D. Pritchard (eds.), Epistemic Value, Oxford University Press, 60-94.

Lawlor, K. (2013), Assurance: An Austinian View of Knowledge and Knowledge Claims, Oxford University Press.

MacFarlane, J. (2014), Assessment Sensitivity: Relative Truth and its Applications, Oxford University Press.

McGrath, M. (2015), “Two Purposes of Knowledge Attribution and the Contextualism Debate”, in D. Henderson & J. Greco (eds.), Epistemic Evaluation: Purposeful Epistemology, Oxford University Press, 138-157.

McKenna, R. (2013), “‘Knowledge’ Ascriptions, Social Roles and Semantics”, Episteme 10 (4), 335-350.

Moran, R. (2005), “Getting Told and Being Believed”, Philosopher’s Imprint, 5(5), 1-29.

Rysiew, P. (2012), “Epistemic Scorekeeping”, in J. Brown & M. Gerken (eds.), Knowledge Ascriptions, Oxford University Press, 270-294

Williams, B. (2002), Truth and Truthfulness: An Essay in Genealogy, Oxford University Press.

Williamson, T. (2000), Knowledge and Its Limits, Oxford University Press.

You received this message because you are subscribed to the Google Groups “Notre Dame Philosophical Reviews” group.

To unsubscribe from this group and stop receiving emails from it, send an email to

Comte vs Marx, Lutero vs Catolicismo.Ciencia positivista vs idealismo y materialismo dialéctico

Comte contra Marx. Positivismo contra marxismo. En el fondo, equivale a catolicismo , o universalismo, contra individualismo y libertad de conciencia luterana, contra secularización por vía de la Ciencia, del cristianismo teológico bajo forma de protestantismo. Un artículo interesante por lo rico en sugerencias para el análisis y el debate de sus contenidos.
El autor relaciona estas cuestiones con el sistema filosófico forjado por Gustavo Bueno: la Teoría del cierre categorial o Materialismo Filosófico

Luther Comte Mill cover
Modernidad católica frente a Modernidad protestante
MANUEL ÁNGEL FERNÁNDEZ LORENZO Profesor de la Universidad de Oviedo
01.11.2017 17:00 h.

Se conmemoran este año en Alemania los 500 años transcurridos desde que en 1517 el monje agustino Lutero clavase en las puertas de la catedral de Wittenberg sus famosas 95 tesis, que incendiaron la cristiandad produciendo el cisma que llevó a la separación de los denominados Protestantes de la Iglesia de Roma.

Aquel acto fue trascendental para toda Europa por sus consecuencias, que llevaron a la destrucción del poder católico en los países del Norte de Europa, en los cuales, sin embargo, no logró imponerse una Iglesia Protestante unida, sino que se vieron obligadas a convivir, entonces y hasta hoy mismo, una multitud de sectas religiosas que fueron obligadas a tolerarse recíprocamente por los poderes políticos correspondientes. Esa tolerancia por necesidad fue transformada en virtud filosófica y secularizada por filósofos como John Locke o Voltaire. En Alemania será el llamado Rey Filósofo, Federico de Prusia el instaurador de la tolerancia que permitió el desarrollo de una secularización filosófica del espíritu protestante que va desde Kant a Marx, pasando por Hegel.

Este espíritu protestante se resume en la famosa libertad de conciencia frente a toda imposición externa de una Iglesia que se arrogue la autoridad en la interpretación de la verdad de la palabra divina. En Marx la secularización protestante alcanzó un carácter decididamente ateo, de tal manera que se podría definir al marxismo en este aspecto como un protestantismo sin cristianismo. La poderosa dialéctica marxista reside en su extraordinaria capacidad para, con su acción de protesta radical, negar no solo a Dios, sino al propio Estado, que en el comunismo final debería desaparecer como última autoridad política, dejando a los individuos que han tomado conciencia revolucionaria, libres de toda explotación y abusos de unos hombres frente a otros. Pero el marxismo, con la caída del muro de Berlín, se ha revelado como un movimiento tan utópico como aquellas sectas protestantes.

El rival de Marx, aunque en vida ambos personajes no se conocieron, podemos decir hoy que fue el fundador del Positivismo, Augusto Comte, el cual pudo vivir la famosa Revolución del 1848 en París, en la que también participó el joven Marx, que luego relató en su famoso escrito El 18 Brumario de Luis Bonaparte. Allí compareció por primera vez el movimiento comunista, que Augusto Comte, a diferencia del revolucionario alemán, condena como un movimiento que pretende continuar el espíritu de la Revolución Francesa, para llevar a cabo otra Revolución más radical.

Según Comte, había que abandonar la actitud negativa de protesta y desobediencia ante las nuevas autoridades (empresarios, científicos y filósofos positivos) de la nueva Sociedad Industrial salida de las Revoluciones modernas para pasar a una colaboración con estos modernos poderes para reorganizar esta Sociedad Industrial o Sociedad del Conocimiento, como la llaman ahora, la única que podría sacar a Europa de la crisis que se abrió en el Renacimiento, para construir una nueva sociedad estable, centrada y creadora de lo que ahora denominamos la sociedad del bienestar occidental.

Augusto Comte hacía así una valoración parcial del Protestantismo, considerando que destruyó la intolerancia católica allí donde triunfo, pero no pudo imponer una nueva intolerancia religiosa por sus divisiones sectarias, y esto ayudó a que las ciencias positivas y la filosofía moderna pudiesen crecer y desarrollarse en tales países de una forma más rápida que en los países católicos del Sur de Europa. Pero una vez que las ciencias positivas se constituyen y establecen sus “cierres categoriales”, como diría Gustavo Bueno, es ridículo seguir manteniendo la “libertad de conciencia”, posible ante un dogma teológico, pero ridícula ante un teorema científico.

Así que Comte, como dijo de él Thomas H. Huxley, el denominado Bulldog de Darwin, empezó a defender un “catolicismo sin cristianismo”, que se caracterizaba por volver a construir una nueva autoridad universal, representada por la ciencia, con verdaderos dogmas, frente a los cuales la actitud protestante de crítica sin límites de la discrepancia individual ya no tenía sentido. Esa actitud “católica”, esto es, universalista, (que es lo que significa la palabra en su origen griego) existía todavía en aquellos países donde no había triunfado el Protestantismo, como Francia, Italia, España e Hispanoamérica, Portugal y Brasil.

Y era, según Comte, la que habría que secularizar, esto es, separarla de sus orígenes teológicos para darle una fundamentación filosófica secular. Una muestra de ello, cercana a nosotros, es la del influyente filósofo español Gustavo Bueno, que se reconoció como “ateo católico”. De ahí que el combate entre Protestantes y Católicos, bajo otras formas ideológicas, parece que, a los 500 años del inicio de la protesta luterana, puede continuar.

Ciencia y salud , cada día surgen nuevos descubrimientos muy interesantes e importantes. El caso de las bacterias intestinales y el cerebro


Transcripción del audio ( en inglés )

Copyright ©2013 NPR. For personal, noncommercial use only. See Terms of Use. For other uses, prior permission required.


This is MORNING EDITION from NPR News. Good morning, I’m Renee Montagne.


And I’m Steve Inskeep.

Today in Your Health: How the bacteria in your gut may affect your brain. Doctors have long had clues that there may be a connection between what’s going on in our heads and what’s going on in other parts of our bodies.

MONTAGNE: We all know, for example, that we can get pretty down when we’re feeling sick and that our moods lift when we get better. Well, scientists are starting to think about this brain-body connection in a whole new way. And that’s because of something we’ve been hearing a lot about lately: the microbes that live in the human body.

INSKEEP: Turns out you really can have a gut feeling about something, because evidence has been mounting that those microbes in the body may be important for our emotional health as well as our physical health.

NPR’s Rob Stein has been exploring the role that our microbes play in our lives in a series of stories over the last few months. And in the final installment, Rob brings us this report about our microbes and our minds.

ROB STEIN, BYLINE: It’s early on a Monday morning at the UCLA brain scanning center and Dr. Emeran Mayer is getting ready to peer into someone’s brain.

DR. EMERAN MAYER: We’re standing in the control room here. The patient is inside the scanning room, not in the scanner itself yet.

STEIN: The patient isn’t really a patient at all. She’s Pria Tewari, a healthy 29-year-old who volunteered for Mayer’s research.

PRIA TEWARI: Growing up in India we believe that what you eat influences your thoughts.

STEIN: So she’s here today to help Mayer explore this notion that the microbes that eat what we eat influence our minds.



STEIN: A nurse helps her get into the giant MRI brain scanner.

UNIDENTIFIED WOMAN: OK, Pria, so take a nice deep breath for me, hon. In and out through your mouth.

STEIN: Once she’s settled in and the MRI is all set up, the scanning begins.


MAYER: So the first image that was taken, that we just saw on the computer screen, will allow us to extract information regarding, it’s what we call the brain signature.

STEIN: A signature of the overall structure of the brain, which Mayer hopes will help answer some provocative questions: Do the trillions of microbes that live in our bodies help mold our brains as we’re growing up? Do they continue to influence our moods, behavior and feelings when we’re adults? It’s something, Mayer says, that has never really been explored before.

MAYER: It really happens rarely in science that you sort of stumble into an area that all of a sudden opens up this completely new frontier.

STEIN: A frontier that could help explain that old idea of gut feelings. And Mayer thinks he already has the first good clues this may be true, after analyzing about 60 volunteers like Pria.

MAYER: We found that the type of community you have, of microbes you have in your gut, is reflected in some ways in some basic architectural aspects of the brain.

STEIN: The brain connections of people whose microbes are dominated by one species of bacteria look different than those of people whose microbes are dominated by another species. That suggests that the specific mix of microbes in our guts helps determine what kinds of brains we have, how our brain circuits develop, how they’re wired.

MAYER: The brain circuits obviously determine certain ways of how we perceive the world and react to the world outside of us.

STEIN: This could help explain why some people are born with brains that don’t work the way they’re supposed to, causing problems like autism, anxiety, depression.

MAYER: It opens up a completely new way of looking at brain function and health and disease. I think that’s, you know, kind of a revolutionary concept.

STEIN: So Mayer is scanning hundreds of volunteers like Pria to see if what he’s found so far holds up.


STEIN: They move onto the next scan.

UNIDENTIFIED WOMAN: So your instructions for this scan are to close your eyes and rest but don’t go to sleep. OK?


STEIN: They want to get a picture of Pria’s brain when she’s doing absolutely nothing.

UNIDENTIFIED WOMAN: During that scan, did you have any pain or discomfort at all?

TEWARI: No, slight itching there.


STEIN: Now, the obvious question about all this is: How? How could bacteria in our bodies affect our brains? Well, the first clues came from experiments conducted in Europe and Canada.

STEPHEN COLLINS: My name is Stephen Collins. I’m a professor of medicine at McMaster University Medical School in Hamilton, Ontario, Canada.

STEIN: Collins is among the researchers who did these experiments. It’s hard to study this stuff in humans. So they used mice. They did things like replace the gut bacteria of anxious mice with bacteria from fearless mice.

COLLINS: And this resulted in a change in behavior. The mice became a little bit less anxious, a little bit more gregarious.

STEIN: It worked the other way around too. The bold mice became timid when they got the microbes of anxious ones. Aggressive mice also calmed down when the scientists altered their microbes by changing their diet, feeding them probiotics, or dosing them with antibiotics.

COLLINS: We saw changes in the brain chemistry in a region called the hippocampus, which is part of the brain that’s involved in emotion and mood and so forth, and found that a very important chemical called brain-derived neurotrophic factor was increased.

STEIN: Finally, these scientists figured out how the microbes in the guts of the mice were communicating with their brains – by sending signals up a big nerve known as the vagus nerve.

All this is raising the possibility that scientists could create drugs that mimic these signals. Or just give people the good bacteria – probiotics – to prevent or treat problems involving the brain.

Researchers in Baltimore, for example, are studying one probiotic. Faith Dickerson is a psychologist at the Sheppard Pratt Hospital who is leading that study.

DR. FAITH DICKERSON: The idea is that these probiotic treatments may alter what we call the microbiome and then may contribute to an improvement of psychiatric symptoms.

STEIN: Symptoms like mania in patients suffering from bipolar disorder. Patients like Leah, who ended up being hospitalized after one manic episode. We agreed not to use her full name.

LEAH: I had really bad anxiety and I took Xanax and I took too much Xanax.

STEIN: While she was recovering, Leah heard about the probiotic study and decided to volunteer.

LEAH: It makes perfect sense to me. You know, your brain is just another organ. You know, it’s definitely affected by what goes on in the rest of your body.

STEIN: It’s too soon to know whether the probiotic being tested in that study is helping. But Leah suspects it might be.

LEAH: It seems like, you know, maybe it helped me because, you know, I’m doing really well and like, I’m about to graduate college and I’m just, you know, doing everything right.

UNIDENTIFIED WOMAN: All righty. So we are going to move on to the final scan, OK?

STEIN: Back at UCLA, Mayer’s team is almost done scanning Pria Tewari’s brain.


STEIN: While they’re finishing up, Mayer explains that he’s also been studying the effects of probiotics on the brain. He gave healthy women yogurt containing a probiotic and then scanned their brains, and found subtle signs that the brain circuits involved in anxiety were less reactive.

MAYER: It’s the first time that it’s been demonstrated in a controlled study that if you alter the gut microorganisms or microbes, that this affects the brain in a fairly profound fashion in healthy people.

STEIN: Mayer says a lot more work will be needed to know whether the probiotic they used in that study – or any probiotics – really can help people feel less anxious.

But Pria Tewari, the volunteer getting scanned today, was in that study too. She thinks maybe, just maybe, she might have noticed something. She was going for her Ph.D. at the time and thought she’d be totally stressed out.

TEWARI: I’d say I definitely, like my anxiety levels were low considering my, my own personal thing that I was going through.

STEIN: It’s clear scientists still have a long way to go in all this. But the evidence that’s starting to emerge suggests that we probably can’t ignore the possibility that our microbes may be affecting our minds.

Rob Stein, NPR News.

INSKEEP: For more about this series including an animation about our friendly microbes – something for your microbes to think about – go to

Copyright © 2013 NPR. All rights reserved. No quotes from the materials contained herein may be used in any media without attribution to NPR. This transcript is provided for personal, noncommercial use only, pursuant to our Terms of Use. Any other use requires NPR’s prior permission. Visit our permissions page for further information.

NPR transcripts are created on a rush deadline by a contractor for NPR, and accuracy and availability may vary. This text may not be in its final form and may be updated or revised in the future. Please be aware that the authoritative record of NPR’s programming is the audio.

Curso de introducción a la Filosofía de la Ciencia

Mural de Diego Rivera

Dr Eliseo Rabadán Fernández







La creciente influencia social de la Ciencia hace de ella un componente fundamental para las sociedades políticas actuales.

Se habla incluso de que vivimos inmersos en la sociedad del conocimiento,en la “Era de la Información”.Los aspectos sociológicos del conocimiento científico forman parte de los problemas filosóficos de la Ciencia,pero nosotros dedicaremos especial atención,por una

parte, a los problemas gnoseológicos de la Ciencia y por otra parte,a los problemas

ontológicos de la Ciencia.




El problema relacionado con los modos de trabajar que ha venido llevando a cabo la Ciencia,supone diversas cuestiones básicas previas a su estudio,a saber:

1-¿Qué métodos se han utilizado para explicar los fenómenos de la Naturaleza?

A esta cuestión debe responderse – para ello recurriremos a términos lingüísiticos- desde la perspectiva sincrónica como desde la diacrónica,esto es,la Historia de la Ciencia nos

mostrará los distintos métodos utilizados y cómo han ido perfeccionándose a partir de los modelos anteriores.

2-¿Cuál es, sincrónica y diacrónicamente considerado, el método en lo relativo a la

elaboración de los llamados modelos,o para utilizar una noción de Platón,“formas”,

para explicar cuestiones como el movimiento o el cambio cualitativo de los cuerpos de la “physis”(Naturaleza)


3-¿Cuál ha sido el proceso de elaboración de modelos gnoseológicos para llevar a cabo

la necesaria clasificación de los diversos entes naturales(o artificiales),incluídos en las

diversas “ramas” o campos de la Ciencia.

Esto nos lleva,además,al tema -muy actual-de la distinción entre lo que Dilthey denominara “Ciencias del Espíritu” / “Ciencias de la Naturaleza”.


4-Un problema central de la Filosofía de la Ciencia,lo encontramos en la cuestión relativa a

los procesos históricos que explican el desarrollo de nuestras concepciones acerca de la demostración.

La Ciencia ha de proceder por medio de demostraciones .Lo que implica serios

problemas epistemológicos,tales como : ¿qué es la causalidad?¿qué significado tiene en la investigación científica el proceso de inducción?¿qué papel juega en el problema científico

de las demostraciones la elaboración de “modelos” complejos,llamados sistemas?.

Estos y otros asuntos relacionados con el problema de las demostraciones en la Ciencia ,

nos llevan a la consideración ,para este curso sobre Filosofía de la Ciencia, de la enorme relevancia de este aspecto de dicho curso.Es decir,deberemos dedicar un esfuerzo especial

a la elaboración y exposición de un panorama de las diversas Teorías de la Ciencia hoy

más importantes.

Para ello proponemos utilizar la propuesta clasificatoria llevada a cabo por Gustavo Bueno,

a saber: se propone la clasificación de las diversas teorías de la Ciencia en cuatro grandes grupos:






5- El problema de la definición de categorías por parte de las diversas Ciencias.




Nuestro trabajo deberá desarrollar un método de estudio que incluya dialécticamente

estos cinco aspectos básicos de la  práctica científica.

Dividiremos el curso en tres partes :


Planteamientos fundamentales de cada modelo de Teoría de la Ciencia,con ejemplos

tomados de diversas Ciencias.

Para ello estableceremos un criterio consistente en aportar referentes históricos de teoremas,leyes,de los diversos campos de la Ciencia: Astronomía,Física,Biología,Antropología,&.

Los anteriorres referentes estarán relacionados con exponentes de las diversas teorías.Es decir,si hablamos del adecuacionismo,utilizaremos explicaciones aportadas por Mario

Bunge o Aristóteles.Cuando estudiemos el descripcionismo haremos referencia a las propuestas de Carnap.Lo mismo,al exponer las teorías teoreticistas haremos mención de propuestas de Popper,con lo cual hemos de introducir la teoría falsacionista popperiana y explicar por qué

la clasificamos en el grupo de teorías teoreticistas.Lo mismo habremos de hacer al exponer

y estudiar el circularimso dialéctico ,conocido también como Teoría del Cierre Categorial.

Consideramos de interés llevar a cabo un estudio detallado,en esta primera parte,de la obra

de Popper y Eccles : El Yo y su cerebro, ya que,pensamos,nos permite establecer,desde ella,una crítica filosófica sobre aspectos esenciales a la Filosofía de la Ciencia.


En esta parte se hará un estudio de diversas Ciencias , que proponemos reducir a las

siguientes: Biología,Física y Ciencias de la Comunicación.

Hemos decidido incluir en esta segunda parte una Ciencia considerada dentro de las

llamadas “Ciencias Sociales”.

Nos vamos a enfocar para este estudio en una temática general,por una parte,que desarrolle una introducción a los problemas que dichas ciencias plantean para la sociedad actual.

Hemos de considerar aspectos categoriales específicos de cada una de estas ciencias.Por

otra parte,criterios filosóficos para proponer investigaciones acerca del “impacto social”

de dichos problemas científicos.

Materiales de estudio fundamentales a utilizar y estudiar en esta parte del curso serían

algunos textos de Monod y el propio Popper,además de textos de Faustino Cordón,en

cuanto a la Biología.

En cuanto a la Física propongo utilizar textos de un filósofo español a mi juicio muy

importante y que propongo rescatar para la Filosofía española( y universal,naturalmente).

Se trata de Juan David García-Bacca,quien hace unos excelentes análisis filosóficos acerca

de la Física.Su dominio de la Matemática y de la Filosofía nos sirve de enorme ayuda para

el estudio de estas cuestiones.Considero también de utillidad textos de Popper o de Bunge.

Los aspectos de las “Ciencias de la Comunicación” quiero enfocarlos a través de un libro fundamental,del profesor de la Universidad Complutense Felicísimo Valbuena.Se trata de

su Teoría General de la Información.Algunos aspectos de la Información periodísitica

son tratados desde la Teoría de la Ciencia,por lo que considero que merece la pena dedicar

un esfuerzo a estudiar estos aspectos en un curso de Filosofía de la Ciencia,especialmente

en una época en la que la Información y los medios de comunicación son tan importantes

en nuestra vida e incluso para a propia “vida” de la Ciencia y de la Filosofía.

Pienso también en la conveniencia de manejar en este tema un libro de Gustavo Bueno que analiza ,desde la Filosofía,el medio televisivo,con un enfoque muy interesante ,dado que

trata de explicar el fenómeno desde la diversidad de teorías de la verdad.


Los avances de la Ciencia y las aplicaciones técnicas de la misma,además de una urgente demanda social y política de reflexiones sobre asuntos que afectan a todos los miembros de nuestras “sociedades de la información”,exigen de los filósofos una tarea que ,partiendo de

los saberes y del hacer de las Ciencias(tecnologías),aporte propuestas para el manejo ético,político,socioeconómico de dichas actividades.

Conocer dos aspectos esenciales de esta problemática es el objetivo de esta tercera parte.

1-problemas de la Bioética: aspectos legales,biológicos y éticos de la clonación,la

ingeniería genética,etc.

2-estudio de las principales investigaciones acerca de las llamadas “Ciencias cognitivas”.

Consideramos necesario,en cuanto a los contenidos a desarrollar en esta tercera parte,

proponer nuevos cursos específicos ,ya que lo que se estudiará en esta parte,debido a su aspecto introductorio,dejaría seguramente la sensación de habernos quedado en el umbral

de asuntos de crucial importancia.Ahora bien,sin duda,ello no resta relevancia gnoseológica

al propio estudio de estos problemas en el marco de un curso de Filosofía de la Ciencia.

Más bien,es fundamental para elaborar propuestas de interés , el previo desarrollo de una

base teórica de análisis,lo cual es el objetivo central de todo este curso.






El estudio de cualquier Ciencia y evidentemente el estudio de la Filosofía, precisan el

manejo y dominio de los conceptos pertinentes.


I – A lo largo del curso,los alumnos irán cconfeccionando lo que podemos definir como “diccionario de términos”,elaborado a partir de dos fuentes:


1-diccionarios especializados,enciclopedias,etc.

2-el propio estudio de los temas tratados en los contenidos de cada una de las tres partes

de que consta la propuesta para el curso de “Historia de la Ciencia y Filosofía de la Ciencia”.Esta fuente se nutre de los estudios llevados a cabo a lo largo del curso, y el modo

en que se lleve a la práctica supone un intento de que los propios alumnos vayan

desarrollando la capacidad de aportar planteamientos novedosos a los asuntos tratados.Proponemos la elaboración de comentarios,notas en forma de fichas de trabajo,


Se deberá diferenciar con plena claridad las dos fuentes terminológicas.


II – Algunos términos clave a considerar :&llt;<



Biología : (sociobiología),(filosofía de la Biología),(bioética)

Catástrofes(Teoría de las)


Cibernética(sistemas cibernéticos)

Ciencia(Teorías de la)

Cierre Categorial

Ciencias cognitivas

Comunicación(como sistema)

Conducta(“behaviorismo” , conductismo)(comportamiento etológico)


Cultura(relación Naturaleza/Cultura)



Entropía/Negentropía(leyes de la Termodinámica)

Espacio gnoseológico




I+D(Investigación y Desarrollo)

Lenguaje(teorías de la verdad)(funciones del)



Necesidad y azar(teleonomía e invariancia)



Orden (y caos)(teoría de catástrofes)











1.1 Definición del “descripcionismo”

En la TCC [1],se define así:

“Una de las cuatro alternativas consideradas básicas entre las concepciones gnoseológicas

de la ciencia,caracterizada por considerar el momento constructivo de las ciencias y,por tanto,los componentes formales de los cuerpos científicos,como subordinados enteramente

a la materia dada que habría de ser meramente descrita(sin duda,valiéndose de

instrumentos formales que se supone han de dejarla “intacta”),inventariada y archivada.

Al descripcionismo asociamos el concepto caracterísitico de la verdad científica,a saber,la verdad como des-velamiento(aletheia) o des-cubrimiento.”

Podemos mencionar el planteamiento de Carl Hempel,quien fuera uno de los líderes del movimiento del empirismo lógico en la filosofía de la ciencia,en especial durante los treinta

años siguientes del final de la Segunda Guerra Mundial.

Hempel veía la ciencia como una actividad cuya finalidad y tareas consisten en mostrar(“describir”) fenómenos de tal modo que estén en consonancia  con las leyes que

los explican y de las que ellos mismos(los fenómenos) son causas directas.,ya que derivan

de leyes.Se trata de establecer lo que en filosofía de la ciencia hempeliana se denominó

el “modelo de comprensión científica basado en “covering-laws”.[2]

La única diferencia entre explicación y predicción es temporal: mientras que lo que la ciencia explica ya ha ocurrido,lo que se ha de predecir aún está por suceder.

Las teorías de Hempel parecen estar en un momento en el que pocos filósofos de la ciencia

se ocupan de los problemas de la ciencia siguiendo este modelo.Más bien pareciera que lo

que se hace es caer en un teoreticismo donde sólo “lo último” que se está proponiendo es

lo que vale,es decir,parece ser que el falsacionismo de Popper es lo que hoy en día está en boga,pero ello,como veremos,puede resultar nefasto tanto para la ciencia como para la

propia filosofía.

El des-velamiento,supone que la ciencia,desde el descripcionismo,no tiene como meta

“la verdad”,sino ese des-velamiento de la verdad.Se investiga para lograr metas teóricas

como serían :

la simplicidad,el éxito productivo,la fertilidad heurísitica…

Visto desde el modelo hempeliano,el descubrimiento de Charles Gerhardt acerca de los componentes orgánicos y sus tipos,puede exponerse en estos términos :

Los experimentos describen que muchas reacciones orgánicas implican la eliminación de agua,de amoníaco y dióxido de carbono.Las reacciones químicas en estos procesos nos muestran que las sustancias eliminadas están compuestas de moléculas simples y no dobles.

Esto implicaba un regreso a la explicación llevada a cabo por Berzelius en su tabla de los

pesos atómicos.

Sin embargo,la explicación de Gerhardt supone que la fórmula del ácido acético es

C2H4O2 y no C4H8O4 o esta otra  ,con el peso atómico del carbono como 6 :

C8H4O2 + H4O2

La teoría de formación de alcoholes a partir de radicales orgánicos metilo(CH3),etilo(C2H5)propilo(C3H7),etc.,en combinación con el radical hidroxilo(OH),

son llamadas “series homólogas”.

Veremos cómo toda teoría de la ciencia implica el uso de definiciones,demostraciones,clasificaciones y modelos,pero ello no resulta suficiente para establecer una “crítica filosófica” de los diversos modos de hacer filosofía de la ciencia

(teorías de la ciencia).Es preciso además , recurrir,tal como nos lo propone el filósofo

Gustavo Bueno,a la distinción entre epistemología ,gnoseología y ontología.

La crítica de los grupos de teorías de la ciencia que denominaremos , siguiendo a Bueno,descripcionismo,adecuacionismo,teoreticismo y circularismo,ha de entenderse

como dada en la perspectiva gnoseológica,que parte de la distinción(compleja) , entre una “materia” y una “forma” de la ciencia.

En el caso de este asunto de los componentes orgánicos,vemos que hay una “forma”,es decir,unas fórmulas químicas,que “explican” y describen,en términos de Hempel,pero lo

que importa no es esa “formalización”,sino el proceso “material dado en los laboratorios,

por lo que tiene de “útil” o práctico para predecir los fenómenos,”,materialmente” dados

en la Naturaleza.

Lo que se pide en el caso de Hempel,es que la teoría no contradiga los hechos,sino que

ayude  a describirlos según los criterios de la “covering-law”.

En la época en que Gerhardt trabajaba(1853),escribe en estos términos:

“Para clasificar los componentes orgánicos en series,es decir,para determinar las leyes según las cuales las propiedades de un tipo dado de componentes son modificadas por sustitución de

uno de sus componentes o de un grupo de componentes,es el propósito constante del

químico filósofo.Esos cientos de componentes que él produce en su laboratorio son para

él,sin embargo,los términos que le sirven para construir sus series.Hoy,en el estado

imperfecto de la ciencia,hay todavía necesidad de nuevos términos,pero más tarde,el conocimiento de ciertas series eliminará el estudio directo de muchos otros términos(de

las series de elementos) cuyas propiedades podrá predecir con la misma certeza con la

cual hoy predice las propiedades de los alcoholes propinoicos o valéricos,aunque aún no

los haya obtenido.”[3]


2- Planteamientos teoreticistas de la ciencia :

2.2 Definición del “teoreticismo”

La definición aportada por la TCC es la siguiente :

“El teoreticismo engloba a todas aquellas concepciones  de la ciencia que tienden a desplazar el “centro de gravedad” del cuerpo científico hacia la forma del mismo,considerando a su materia como enteramente subordinada a aquella forma,ya sea por “reabsorción”,ya sea,al menos en el límite,por “eliminación”.”[4]

Haciendo referencia a lo que se viene conociendo como concepción popperiana de la ciencia como “falsacionismo de las teorías científicas”,Bueno insiste,precisamente,en la necesidad de delimitar con la mayor precisión y cuidado gnoseológico,lo que queremos decir al utilizar el término “teoría”.Así,nos plantea lo siguiente:

“quien acepte la posibilidad de hablar de una “teoría falsable” es porque aceptará la posibilidad de retirar,en un momento dado,una tal teoría del cuerpo de una ciencia,en elcual caso hubiera estado vigente durante siglos;pero quien acepte la posibilidad de hablar de “teorías científicas falsables”,no es sólo porque deba aceptar también que estas teorías han sido verificadas  (en la materia) sino porque (y es cuando tomamos el cuerpo [de las ciencias] como referencia) lo que acepta es que una teoría,que ha sido considerada científica,no puede ser “borrada” del cuerpo de la ciencia,como si no hubiera existido;sino porque se supone que la teoría ha de mantenerse perpetuamente como parte de ese cuerpo( lo que no significa que permanezca inmutable : también los cuatro dedos del Eohippus permanecen y se reconocen en los tres del Mesohippus y están en el dedo único del caballo reciente).En suma,la no falsabilidad de una teoría cuya naturaleza pueda ser acreditada por algún criterio – que,además,será un criterio de denominación distinto del criterio de la falsabilidad – y esto tanto en el supuesto de su verdad,como sin necesidad de tal supuesto(simplemente,por su no falsabilidad),se traducirá en una propiedad significativa que la teoría adquiere en el

cuerpo de la ciencia,considerada en su contexto histórico,sin perjuicio de su ulterior evolución.”[5]

Un célebre falsacionista,Karl Popper , hablaba en estos términos,cuando criticaba el convencionalismo de Poincaré :

“una buena adaptación de las condiciones hará casi a cualquier hipótesis concordar con los fenómenos.Esto hará sentirse bien a la imaginación,pero no hace avanzar nuestro conocimiento”.[6]

Popper ,como es bien sabido,ha sido acaso el más influyente teórico de la ciencia a lo largo del siglo XX.Pero,desde la propuesta de Bueno,no es el único representante del grupo de teorías de la ciencia denominado en TCC como teoreticismo.Bueno propone dos tipos de teoreticismo,a saber: primario y secundario.

A)El teoreticismo primario: tal como lo plantea Bueno en TCC, “engloba concepciones que suelen denominarse con los rótulos de “Convencionalismo” o de “Instrumentalismo”.En algunos libros denominan este teoreticismo primario “formalismo”.

Podemos considerar a Pierre Duhem como el adalid de esta concepción de la teoría de la ciencia.

Duhem separa la filosofía y las ciencias,de tal manera que son colocadas en dos planos de conocimiento distintos.Para él, una teoría física no es una explicación,es tan sólo un sistema de proposiciones matemáticas deducidas de un pequeño número de principios,que tienen por fin representar de la manera más sencilla posible,además de exacta y completa,un conjunto de leyes experimentales.

Lo que entiende el formalismo de Duhem,o el teoreticismo primario,por teoría:

Una teoría física ha de incluir cuatro operaciones fundamentales,a saber:

1)la definición y las medidas de las magnitudes físicas.

2)la elección de las hipótesis que relacionan entre sí las magnitudes definidas en unas pocas proposiciones arbitrarias,las cuales,a su vez,constituyen los principios fundamentales de la teoría.

3)el desarrollo matemático,lógico-deductivo de la teoría misma

4)comparación de la teoría con la experiencia.

El acuerdo con la experiencia es,en la teoría de la ciencia de Duhem,el único criterio de

verdad para una teoría física.

No debemos pensar,sin embargo,que su propuesta es similar a la del adecuacionismo,en el

que se hace consistir la verdad en la adecuación entre pensamiento y realidad.

Lo que propone Duhem es una correspondencia,armonía entre la construcción mental (forma,diríamos,en el sentido de la propuesta gnoseológica de Bueno) y la realidad experimental(materia).

El objetivo de la ciencia no es,pues,enseñarnos algo sobre la naturaleza de esta realidad experimental,sino sólo sustituir el conjunto de leyes experimentales ,derivadas de la

observación directa – espontánea o metódica – con un sistema lógico basado en unas pocas proposiciones elementales,lo cual permite una economía de pensamiento con la clasificación

y ordenación lógica de las leyes y la previsión de nuevos fenómenos.

Las teorías de Duhem buscan establecer una clara división entre una ciencia autónoma

respecto de la filosofía ,por una parte,y la reivindicación de la filosofía natural de cuño aristotélico,por otra.

En la termodinámica ve Duhem el modelo de desarrollo para sus

teorías ,tal como las había desarrollado respecto de la física.

El valor puramente “formal” de las teorías físicas,según Duhem,en tanto ellas son simples esquemas lógicos hipotético-deductivos,ajenos a toda pretensión de explicar o representar

la realidad,está ya en la tradición filosófica.Aristóteles distingue,las afirmaciones de la

filosofía natural de las teorías físicas de la astronomía.Con Kepler,Galileo,pero en especial

con Desacrtes y los mecanicistas,se habría producido confusión entre teorías físicas y

filosofía natural,con la tendencia a conceder a las teorías físicas un valor de verdad “objetivo”,mientras que la filosofía natural tendría un valor explicativo.Serán Newton y Laplace,Ampère,Fourier,quienes logren volver a reconocer a las teorías físicas su fuerza

formal en tanto esquemas lógicos abstractos,concepción que ha vuelto a imponerse

desde la segunda mitad del siglo XIX,a juicio de Duhem.

Según Duhem ,existen dos grupos de físicos,a saber: aquellos espíritus poderosos ,pero

de mentalidad estrecha que surgieron en Alemania y Francia y los espíritus amplios,pero

débiles que surgen en Inglaterra,a lo largo de la segunda mitad del siglo XIX.Los primeros construyen una ciencia a partir de un sistema lógico a partir de principios abstractos de los

que se deducen leyes.Los otros, principalmente ingleses, construyen imágenes y modelos mecánicos que hacen visibles y palpables los fenómenos y sus encadenamientos. Entre los principales científicos ingleses-que por cierto no son mecanicistas-menciona Duhem a Faraday,Thomson y Maxwell.Los modelos mecánicos son sustituídos por estos científicos ingleses por ecuaciones matemáticas.

El caso de la termodinámica, que define sus conceptos fundamentales: energía, potencial, entropía, como funciones matemáticas abstractas, a las que no corresponde representación alguna concreta.

Lo mismo sucede con las matemáticas, en las que el concepto de función proposicional no

es verdadera ni falsa: es tan sólo el molde de ciertas proposiciones. Una función

proposicional es un enunciado en el que figuran una o más variables, que pueden llegar

a ser una proposición para ciertos valores de esas variables.

La distinción entre verdad formal y verdad empírica se sigue manteniendo en los sistemas deductivos(algebraicos).Pero la nota esencial de la verdad formal ya no es la evidencia

racional de la proposición, sino- y esta es la idea central del teoreticismo duhemiano, y los afines en la clasificación de Bueno, es decir, los teoreticistas primarios- su coherencia, su suficiencia dentro del sistema en que está encajada.

El problema que suscita el teoreticismo de Duhem y otros similares,como Mach o

Meyerson,es el de establecer una distinción- que no deja de ser problemática,debido a su debilidad argumentativa- entre ciencias formales y ciencias materiales.Consecuencias de

esto son ,como constatamos en la práctica, a través de numerosos artículos,conferencias,libros,&,hoy en día,que se presentan “universos de discurso”,en los

que se presentan como ciencias,modelos matemáticos que sólo se ocupan de construir sintácticamente sistemas formales verdaderos,pero que al estar desvinculados de la

semántica de la experiencia,se quedan en meras apariencias de constructos científicos.

El problema de Duhem , al querer comprender “las dificultades derivadas de los intentos de aplicar la teoría de la gravitación de Newton al desarrollo de la teoría científica del calor”,

surge al plantearse esta pregunta: “¿Por qué empeñarse en tratar de reducir la temperatura

a la condición de una fuerza viva de un determinado movimiento( o en una cierta cantidad

de un fluído libre)en lugar de considerarla simplemente como esta propiedad que tiene un cuerpo de hacer subir más o menos arriba la columna de mercurio del termómetro?.¿Por

qué no renunciar a ese ideal  de las teorías que consiste en representar a los fenómenos por medio de hipótesis[modelos mecánicos], para, en su lugar, atenernos a aquellas nociones

que tengan un sentido físico directamente mensurable?.Las teorías físicas no debieran proponerse la explicación de los fenómenos, sino su clasificación.” [7]

Para terminar este apartado, pongamos a su consideración esta reflexión de Gustavo Bueno acerca del teoreticismo primario,que nos será de gran utilidad al estudiar críticamente las cuestiones de la Segunda Parte.

“Las teorías científicas, en general, y las teorías físicas, en particular, serán vistas como “construcciones ideales, que habría que valorar por su coherencia interna y que, en

principio, erían tan poco falsables como pudiera serlo un poema sinfónico; sin perjuicio

de que pudiera tomar contacto de vez en cuando, puntualmente, con la materia real(por

lo que cabría decir que se “verifica” en ella).Este tipo de teoreticismo se encuentra disuelto

en los científicos de aquélla época: Eddington,Milne,G.Withrow,Weyl; pues ellos

mantuvieron posiciones que podrían ser consideradas aquí. Dirac llegó a decir(refiriéndose

a la función de onda de Schrödinger):” es más importante que una ecuación tenga belleza

que pretender,a la fuerza,que coincida con la experiencia”.” [8]

En su libro Filosofía de las matemáticas y de la ciencia natural ,

comenta, en el apartado *6,del capítulo 2 titulado “número y continuo, el infinito”, que es precisamente en el campo de los números donde nos encontramos “las siguientes

modalidades básicas de conocimiento constructivo”.Veamos cuales son, según Weyl,

esas bases :

“ 1. Adjuntamos a lo que es dado ciertos caracteres no manifiestos en el fenómeno,pero que son el resultado de ciertas operaciones mentales. Es esencial que la actuación de estas operaciones sea universalmente posible y que su resultado esté inequívocamente

determinado por los datos. Pero no es esencial que las operaciones que definen el carácter


realmente llevadas a cabo.

2. por la introducción de símbolos los asertos son separados de tal forma que una parte de

las operaciones es transmitida a los símbolos haciéndose independientes de los datos y de

su existencia continuada, por lo tanto la libre manipulación de los conceptos contrasta con

su aplicación, las ideas se separan de la realidad y adquieren una independencia relativa.

3. Los caracteres no se exhiben individualmente en la forma en que se manifiestan ,pero sus símbolos se proyectan en la pantalla de una variedad ordenada de posibilidades que puede generarse por un proceso fijo y está abierta hasta el infinito.” [9]

B)El “teoreticismo secundario” : lo que diferenciaría a Popper- representante principal

de este teoreticismo secundario- en términos de la TCC) de Duhem,precisamente,es su propuesta de criterio de demarcación,la “falsabilidad de las teorías”. El teoreticismo

primario mantenía la condición de no falsabilidad de las teorías. Popper sí acepta la tesis

de que las teorías no proceden de una inducción completa de fenómenos; los cuerpos de

las ciencias se construyen a partir de cómo “gigantescas” formaciones(teóricas),que

muestran gran independencia respecto a los materiales factuales empíricos.

Acepta también Popper la tesis de la no verificabilidad de los enunciados constitutivos

del cuerpo de las ciencias. Ahora bien,a aportación de Popper ,en cuanto al mencionado criterio de demarcación resulta fundamental.

Los problemas gnoseológicos de la teoría de Popper, en cuanto al criterio de falsabilidad

radica en los siguientes puntos,a saber : si ,siguiendo la propuesta popperiana, una

proposición universal(del tipo: “la clase de enunciados equivalentes en torno al evento

volcar un vaso de agua”) no puede ser verificada por proposiciones singulares;

pero, en cambio puede ser falsada por ellas, parece como si coincidiera con el positivismo

del Círculo de Viena,pero existe una gran diferencia, ya que ,puesto que esos enunciados singulares, de los que algunos establecen las condiciones iniciales de los fenómenos,” no

dejan de ser universales”.[10]

Popper plantea las cuestiones, según Bueno, de la relación entre universal y particular,

por medio de una distinción- que el mismo Popper no explicita-entre “totalidades

distributivas y totalidades atributivas”[11]

Popper no ha tenido en cuenta implícitamente la distinción, pero sí se ha decantado por

poner ejemplos desde la perspectiva distributiva:”la clase de enunciados equivalentes en

torno al evento “volcar un vaso de agua”.Pero veamos un caso que el mismo Popper cita en su libro The logic of scientific discovery. En el Nº38 “Grados de testabilidad

Comparados por referencia a las “dimensiones”.Menciona Popper que en algunos casos es valiosa la aportación del recurso metodológico a las sub-clases,tal como ocurre en el caso

del principio de exclusión de Pauli, altamente satisfactorio en cuanto hipótesis auxiliar,ya

que aporta un alto grado de precisión y testabilidad respecto de la vieja teoría de los

cuantos .Así sucede en lo relacionado con la correspondiente proposición de la nueva

mecánica cuántica que propone que los estados anti-simétricos son realizados por

electrones , lo ssimétricos por descargados o sin caraga y por partículas con cargas múltiples.Pero el mismo Popper advierte que este recurso a las relaciones de sub-clases es insuficiente en muchos casos.Por ejemplo,el caso , citado por Popper a partir de un texto

de Frank de 1931(Das Kausalgesetz und seine Grenzen)(La causalidad y su fundamento),Popper menciona lo siguiente,que resulta sumamente clarificador en este


“proposiciones de un elevado nivel de universalidad-tal como el principìo de conservación

de la energía en la formulación de Planck- son aptos para ser establecidos como

tautológicos,y perder su contenido empírico, a no ser que puedan establecerse las

condiciones iniciales,por medio de pocas mediciones,por ejemplo,por medio de un

pequeño número de magnitudes caracterísiticas del estado del sistema”La cuestión relativa

al número de parámetros que ha de ser establecido, y sustituidos en la fórmula, no puede

ser elucidado por medio de la relación de sub-clases,a pesar de estar evidentemente

conectado con el problema de la testabilidad y la falsabilidad, y sus grados. Cuantas menos magnitudes son necesarias para determinar las condiciones iniciales,menos “composite”

serán las proposiciones básicas suficientes para la teoría de la falsabilidad;porque una proposición básica falsable consiste en la conjunción de las condiciones iniciales y la

negación de la predicción derivada.”[12]

Dado que Popper no acepta que hay inducción,sino meras “conjeturas”,el papel de la

teoría de la ciencia es ,como hemos señalado,hacer aproximaciones lo más exactas posibles para describir los hechos,mientras no tengamos otra teoría “mejor”.Al parecer,Popper

advirtió el hecho de que la ciencia está compuesta de lo que él denominaba “conjeturas”,

a través del reto de Einstein a Newton.La física newtoniana era la teoría más importante- al mismo tiempo que fructífera- que jamás había sido propuesta y aceptada.Todo,dentro del mundo observable,parecía confirmar la teoría newtoniana.Durante más de dos siglos sus

leyes fueron corroboradas no sólo por medio de la observación,sino también por el uso creador que de ella se hizo,ya que se convirtió en el fundamento de la ciencia y la tecnología occidentales,facilitando predicciones maravillosamente exactas en todos los campos,desde

la existencia de nuevos planetas hasta los movimientos de las mareas y el funcionamiento de

la maquinaria.Si algo era conocimiento científico era eso : el conocimiento más cierto y


que el hombre había adquirido sobre su medio ambiente físico.Si algunas leyes habían sido verificadas por incontables millones de observaciones y experimentos hasta ser confirmadas inductivamente como leyes de la naturaleza,eran las de Newton.

Teniendo en cuenta el criterio de demarcación de Popper y el de falsación,se desprenden

toda una serie de proposiciones que vendrían a ser como las tesis centrales de este teoreticismo secundario,entendido como teoría gnoseológica de la ciencia,es decir,en

cuanto se enfoca desde la relación entre materia y forma,y en cuanto se prioriza a la forma frente la materia.Proposiciones medulares de la teoría popperiana pueden ser las siguientes:

Una ciencia unitaria con lenguaje unitario es un sinsentido.

La filosofía no puede reducirse al mero “análisis lógico”.

El lenguaje no puede reducirse a símbolos y cálculos matemáticos.

No hay “un” método,sea éste el que fuera,que haga científicas a las disciplinas.

El inicio de la elaboración teórica no puede prescindir de conceptos imprecisos.

Hay problemas genuinamente filosóficos y que no pueden ser dilucidados con los métodos

de las ciencias naturales.

El artículo de Popper “la reducción científica y la esencial incompletud de toda ciencia”,con ocasión de un simposio en el que participaron biólogos como Monod,Ayala , Dobzhansky,Bernard, Rensh,Eccles,&,nos aporta interesantes cuestiones por medio de las que,pensamos,podremos terminar de aportar una primera aproximación suficientemente

clara , en cuanto a la “definición” de lo que entendemos por teoreticismo secundario.El resultado de dicho congreso,celebrado en 1972 en la Villa Serbelloni,Italia,fue el libro

Studies inthe philosophy of biology.

Comienza Popper por preguntarse lo siguiente:

1-¿Podemos reducir,o al menos tener la esperanza de reducir,la biología a la física,o cuando menos a la física y química?.

2-¿Podemos reducir la biología,o al menos esperar reducir a biología,aquellas experiencias subjetivas consientes que podemos adscribir a los animales y,si la cuestión primera fuese respondida afirmativamente,podemos reducirlas posteriormente a física y química?.

3-¿Podemos reducir,o esperar hacerlo,la conciencia del yo y de la creatividad de la mente humana  a una experiencia animal y,si las cuestiones uno y dos son respondidas de manera afirmativa,,a física y química?.

La respuesta a estas cuestiones,nos dice Popper,dependerá del significado que se de al concepto de reducción.

Pero , antes de continuar con ello,debe hacerse hincapié,a juicio de Popper,en que no se

puede aceptar- y él mismo se muestra en este punto muy severo – un método en el cual el análisis de significados  y el intento de resolver problemas complejos por medio de

definiciones sea aceptable,en términos gnoseológicos.

Veamos,pues,cuál es su propuesta al respecto.Aunque reconoce que una teoría,como la de Newton,tiene éxito,si consigue reducir las teorías de Kepler y Galileo a una nueva.Pero

esto no es la “base” del método científico.Más bien,en su propuesta de la teoría falsacionista,Popper considerará que un problema conocido es tratado de resolver

mediante un teorema desconocido,al cual llama “conjetura”.

El considerar la extensión de un modo “esencialista”,dice Popper,tal como lo hiciera Descartes,suponía una teoría sobre el movimiento que implicaba un error , que fue mostrado como tal por la ley de la inercia de Newton y la ley de la gravedad .Pero ,en opinión de Popper,la teoría de Newton seguía siendo sustancialista y no será hasta la teoría de Einstein

que se logre una nueva teoría más probable,es decir,Einstein falsa la teoría de Newton,en cuanto a lo que se refiera al movimiento de atracción de los cuerpos.El problema de la

acción a distancia de Newton fue resuelto,nos dice Popper,” no tanto por la acción gravitacional einsteiniana de la velocidad finita,cuanto por la reducción de la materia inercial

a materia gravitacional.”

En el contexto de lo que Lakatos ha denominado “programas de investigación”,Popper comenta que no fue por medio de una reducción de lo electromagnético a lo mecánico que

se resolvieron los problemas de un programa de investigación acerca del electromagnetismo,sino que Hertz y J.J. Thomson desarrollan el programa de investigación opuesto,es decir,buscan reducir la mecánica a la teoría electromagnética.

De este modo – continúa argumentando Popper en su artículo sobre los límites del reduccionismo – “la teoría electromagnética de la materia – es decir , la reducción tanto de la mecánica como de la química a una teoría electromagnética del atomismo – fue

enormemente exitosa desde aproximadamente 1912 , el  año del modelo del átomo nuclear

o planetario elaborado por Rutherford,éxito que duró hasta 1932.”


3- Planteamientos adecuacionistas de la ciencia :


3.1              Definición del “adecuacionismo”

La definición que encontramos en el glosario del Vol.5 de TCC de Bueno es esta:

“Una de las cuatro alternativas consideradas básicas entre las concepciones gnoselógicas

de la ciencia,caracterizada,en primer lugar,por distinguir,en los cuerpos de las ciencias,una forma(lingüísitica,conceptual,teórica,&.) y una materia(empírica,real,&.),y,en segundo lugar,por definir la verdad científica como correspondencia(adequatio) entre las

construcciones formales de las ciencias y la materia empírica o real de sus campos.”

Bueno distingue entre el adecuacionismo realista,en el que incluye a Reichenbach y a

Tarski, de cuya teoría de la verdad hace un exhaustivo análisis,que vamos a considerar

como fundamental en esta primera parte , ya que ella es de gran relevancia gnoseológica

y por

tanto, necesaria para hacer de la filosofía de la ciencia algo realmente dialéctico.

En una segunda categoría,incluye el adecuacionismo estructuralista o neutro.Desde

esta perspectiva,Bueno propone establecer las relaciones , o conexiones,que,según él,

pueden establecerse entre “ciertos aspectos del estructuralismo(el de Sneed o el de

Stegmüller) y de sus conexiones con el teoreticismo historicista de Kuhn que,de otro modo,pasarían desapercibidas.”

Bueno propone tres tipos de adecuacionismo realista,a saber:

1)adecuacionismo realista de orientación naturalista .

2)adecuacionismo realista de orientación esencialista .

3)adecuacionismo realista de orientación dialógica .

En el primer grupo se encuentra Mario Bunge.

En el segundo grupo considera Bueno que el principal representante sería Leibniz,pero

teorías como la Gestalt,que considera que las estructuras que presiden el funcionamiento

del cerebro y las estructuras conformadoras de la realidad son isomórficas.[13]

Veamos algunos aspectos de la teoría de la ciencia de Mario Bunge,como modelo del adecuacionismo realista “naturalista”.

En el capítulo tres ,titulado “Naturaleza de los objetos conceptuales”,esboza Bunge lo

que será su propuesta de teoría de la ciencia.[14].Dado que ninguna de las filosofías tradicionales de lo conceptual es,pues ,satisfactoria”,Bunge nos propone la que denomina “materialismo conceptualista y ficcionista”.

Las tesis básicas serían estas:

“a)Los objetos materiales no son materiales ni mentales : no son signos,ni procesos

cerebrales,ni sucesos que ocurren en una mente inmaterial.Son en cambio  objetos que

poseen una naturaleza peculiar e irreductible.Ésta es una primera tesis conceptualista.

b)Los objetos conceptuales no existen como objetos materiales ni como objetos mentales

y por lo tanto no están sometidos a las leyes de unos u otros.Existen en la medida en que pertenecen a ciertos contextos(p.ej.teorías).Por ejemplo, el número 2 existe en matemática

pero no en mitología, y Blanca Nieves existe en mitología pero no en matemática. Ésta

es una segunda tesis conceptualista.

c)La existencia conceptual, lejos de ser ideal(platonismo),o mental(empirismo),es fingida o convencional. Hacemos de cuenta que hay conjuntos, relaciones, funciones, números , estructuras, proposiciones, teorías, hadas, brujas ,etc. O sea, no sólo inventamos los

objetos conceptuales sino también su modo de existencia: pedimos, exigimos, estipulamos

que existen en determinados contextos. Esta es la tesis ficcionista.

d)El concebir un objeto conceptual y asignarle existencia conceptual(por decreto) son dos aspectos de un mismo proceso que se da (por decreto) en el cerebro de algún ser racional humano,subhumano,o superhumano).Los objetos conceptuales no existen de por sí no son idénticos a los signos que los designan,ni se confunden con los pensamientos que los

piensan; la propuesta de Bunge insiste en que se justifican sus teorías mediante lo que él

llama “constructos”,que consisten en “creaciones mentales(cerebrales),habrá que criticar

estas teorías en base a ello.Bien,su definición de “constructo” aporta cuatro clases básicas

de constructo: conceptos;proposiciones;contextos y teorías.

Los conceptos son “átomos conceptuales”,según la propuesta de Bunge.Por ejemplo,en la proposición “los números son constructos”,los conceptos son : “los números”,”son”, y “constructos”.

Las proposiciones son los constructos que satisfacen algún cálculo proposicional  y que

pueden ser evaluados en cuanto a su grado de verdad.

El contexto es un conjunto de proposiciones formadas por conceptos con referentes


Una teoría es un contexto cerrado respecto de las operaciones lógicas.

Aclara al respecto Bunge,antes de exponer la relación entre “existencia material y existencia formal”,que “cualquier constructo que viole nuestro postulado de la partición de los objetos

en cosas y constructos se dirá ontológicamente mal formado”.

El ejemplo que cita Bunge es el siguiente: “La atribución de propiedades conceptuales

a objetos físicos , y de propiedades físicas (o químicas, o biológicas o sociales ) a objetos conceptuales, pertenece a la categoría de los objetos ontológicamente mal formados.

Ejemplo 1: “Un campo electromagnético es un tensor antisimétrico” en lugar de “Un campo electromagnético puede ser representado por un tensor antisimétrico”.

Veamos un ejemplo propuesto por Bunge para explicar ,desde una categoría de la causalidad,un tema de la termodinámica.[16]

El caso que cita Bunge para poner un ejemplo de lo que sería una autodeterminación

cualitativa: “la transformación espontánea de un sistema termodinámico aislado son de tal

índole que lo conducen a estados de entropía creciente.La autodeterminación cuantitativa

es la categoría de determinación que prevalece en el continuo desarrollo de estados que difieren entre sí sólo  en sus aspectos cuantitaivos en algunos casos,sobre todo en termodinámica,puede observarse que la autodeterminación cuantitativa surge de procesos caracterizados por otras categorías de determinación,entre ellas la de causación”.[17]

Nosotros proponemos a continuación un análisis de esta “teoría” adecuacionista,que

supone que la “causación” explica el fenómeno de la entropía,como se explica el cambio en Aristóteles ,desde una relación causa/efecto,que supone que el intelecto lo que hace es adecuarse a la realidad , como dice aquí Bunge, cuantitaiva.El asunto es que,como vamos

a demostrar,la “construcción” de la teoría no se lleva a cabo por medio de una materia dada que ha de ser adecuadamente adaptada al intelecto,sino que supone un proceso de “construcción material” que implica tanto a la materia como a la forma.Una forma que no se corresponde con lo que Tarski o los positivistas lógicos entienden por “sintaxis lógica” de un lenguaje que explica/formalmente),los hechos y datos empíricos(la materia).[18]

Podemos pensar que Bunge tiene razón cuando leemos en Angris y Hepler que : “A causa

de que la segunda ley de la termodinámica puede ser establecida en tantas formas distintas,puede ser que muchos la consideren una teoría mal construída,por lo cual no sería

una ley importante dela naturaleza”.Pero no es así,ya que ,como afirma Eddington en 1927 :

“la ley acerca de que la entropía siempre decrece- la segunda ley de la termodinámica –contiene,en mi opinión,la más relevante ley de la Naturaleza.Si alguien te propone que tu

teoría del universo está en desacuerdo con  las ecuaciones de Maxwell.Si se encuentra que

es contradicha por los datos observados –bien,estos experimentalistas hacen a veces cosas estrafalarias.Pero si tu teoría va contra la segunda ley de la termodinámica,no te doy ninguna esperanza;caerás en la más honda humillación sin remedio”.

Cuando los científicos quieren discutir sobre la naturaleza del calor,deben utilizar al menos

dos números: uno para medir la cantidad de energía y otro para medir la cantidad de desorden.La caloría se ha aceptado como adecuada para medir la cantidad de energía. La cantidad de desorden es medida en términos de entropía.[19]

Una manera de definir la entropía es en términos del número de estados que son posibles

en un sistema en una situación dada. El desorden surge porque no sabemos en qué estado

se encuentra el sistema.El desorden es lo mismo que la ignorancia,que es el modo en que la entropía se relaciona con la teoría de la información.De un modo no sofisticado podemos

definir entropía como la medida del número de grados independientemente de la libertad

que tiene un sistema.Podemos hacer este punto un poco más claro examinando el valor de entropía por “mol” para algunas sustancias diferentes bajo presión atmosférica y temperatura ambiente.


SUSTANCIA                                   ENTROPÍA[cal./oK.mol]

DIAMANTE                                             0.6

PLATINO                                                10.0

PLOMO                                                    5.5

AGUA(líquida)                                         16.7

GAS HILARANTE                                   62.6

Esto  nos ayuda conocer estos hechos , porque comprobamos que los sólidos son menos entrópicos que los líquidos y éstos menos entrópicos que los gases.

Pero el concepto de entropía tiene otras útiles funciones,porque nos puede proveer de una definición rigurosa de la temperatura.

La temperatura T puede definirse como la razón del cambio de  energía de un sistema  E a

su cambio en entropía  S

Para un volumen constante (trabajo cero) en el proceso.



Incremento en energía                     E

T =                                                     =

Incremento de entropía                     S


Dejando en este momento el proceso histórico que  explica el desarrollo del “cuerpo de la ciencia del calor”,desde Lavoisier,Thomson, Rumford, Sadi Carnot, Robert Mayer, Helmholtz o Kelvin, nos interesa detenernos en  Willard Gibbs quien es reivindicado por los ingenieros mecánicos por sus investigaciones en ese campo, o por los matemáticos por sus investigaciones en el análisis de vectores, o los físicos que lo consideran uno de lo suyos por sus aportaciones a la mecánica estadísitica,los químicos lo reconocen como un pionero por sus trabajos sobre la aplicación de la termodinámica a la química.Su trabajo publicado en 1873 supone el intento de unificar desde una perspectiva lógica la energía y la entropía en un sistema con su presión,temperatura y energía,además de la entropía de un sistema con su presión,temperatura y volumen.Por cierto,para comprobar que no se construye la ciencia sino a través de un proceso de “identidades sintéticas” [20],como plantea Bueno,podemos recordar que la llamada “tercera ley de la termodinámica” no se presenta sino hasta mediados del siglo XX,con las aportaciones hechas entre otros por William Giauque acerca de la termodinámica,basándose,en gran parte en los trabajos de Gibbs.

Un importante físico nos puede aportar , desde su libro The direction of time , interesantes elementos para comprender mejor este modelo adecuacionista, realista .Pero antes,quisiera citar un texto de la TCC de Bueno ,que nos permitirá ,me parece,contrastar conceptos .

“(…)supuesto que todo conocimiento físico se obtiene mediante una “construcción  mental”

a ,apoyada en percepciones a´ ;cualquier proposición sobre cosas objetivas podría ser transcrita en una proposición sobre vivencias perceptivas : a – a ´  .Ahora bien (dice Reichenbach),cabe interpretar la flecha doble de dos modos : (1) como una identidad

(a    a ),, uy estamos en el positivismo,para el cual – Reichenbach cita a Mach como

precursor y a Russel y Carnap como expositores – las cosas de la naturaleza se alcanzan por “constitución” (método que consiste en definir una “constitución de grado superior” mediante “elementos”).(2)como relación que no es de identidad,puesto que se supone que el lado izquierdo contiene un “plus de significación”, estamos en el realismo.Pero Reichenbach

sostiene que no es posible decidir entre ambas posiciones (positivismo o realismo) con los medios de la ciencia natural;ni siquiera se trata de la cuestión de si existen realmente

las cosas del mundo exterior,sino de qué es lo que propiamente queremos decir cuando hacemos esa afirmación de existencia.Sin embargo,Reichenbach, – gracias a su importante distinción entre “configuraciones homogéneas con sus elementos”(la configuración muro respecto de sus ladrillos) y “configuraciones heterogéneas” ( la configuración casa y las percepciones de la misma) – se sitúa en la posición del realismo y utiliza un lenguaje abiertamente adecuacionista en su teoría de la verdad como correspondencia,que incluso

llega a atribuir al propio Schlick.”[21]

El libro de Reichenbach(publicado después de su muerte en 1953),contiene un capítulo de sumo interés para nuestra exposición,dedicado a la termodinámica.[22]

Citemos al propio Reichenbach :

“Que la entropía se incrementa durante los procesos físicos significa ,en esta

interpretación [23] , que  agrupaciones ordenadas de moléculas se transforman en desordenadas.Se observa con sencillez que la probabilidad de los últimos estados [desordenados] excede con mucho a la anterior;el orden es una excepción en un mundo de probabilidad.”

Bien,para tratar de resumir diremos que el problema ,para la teoría de  la ciencia,viene dado por la distinción entre dos “tipos” ,digamos,de leyes físicas: las que son estrictamente

basadas en la causalidad y las que se basan en la probabilidad.Aquí surge un problema,

al que Reichenbach tratará de aportar alguna luz desde el análisis de la macrofísica de la relatividad.Por eso Russell insistió tanto en discutir la noción de probabilidad de Reichenbach,pues de ella se derivan consecuencias gnoseológicas y metodológicas fundamentales para las ciencias, y no sólo las naturales,sino,en la opinión e Russell,las

ciencias sociales. Acaso,sugerimos,la propuesta de Bueno en este aspecto,acerca de que

hay metodologías alfa y metodologías beta operatorias,[24] sea un modo de enfrentar

el problema, pero desde luego, no lo soluciona, al menos eso me parece. Claro que si consideramos que las ciencias sociales son más bien “técnicas”,se puede pensar que

estamos en el camino de una solución al problema de la inducción y de la probabilidad.

No es posible ahora desarrollar íntegramente la prolija formulación de teorías que aporta Reichenbach en el libro citado,pero al menos podemos destacar que ,tras su modo de

exponer los conceptos de las leyes de la entropía,hay esa cuestión del tipo de lenguajes que utilizamos,es decir,la cuestión dela “verdad”,que a continuación expondremos,siguiendo para ello las investigaciones de Bueno,tal como las plantea Tarski.

Esto es relevante para la filosofía d ela ciencia,porque tras estos problemas se encuentra

el desarrollo de la matematización de modelos.Pongamos por caso,el célebre libro de

William R. Ashby,Proyecto para un cerebro.Se habla en este modelo del cerebro,de

sistemas homeostáticos.Lo que queremos mostrar,es que este método ,basado en modelos

para la ingeniería de sistemas,que implica la hipótesis de que estos sistemas cerebrales

son funcionalmente concebidos como “base para el comportamiento adaptativo”.Pero al establecer este modelo , se olvida,por una parte,que existen mecanismos biológicos,tales

como los que Faustino Cordón explica en su obra sobre la evolución de los organismos a

partir de la alimentación. Lo que es evidente,en estos momentos de nuestra exposición,es

que resulta urgente la tarea gnoseológica para evitar reduccionismos que levantan falsas expectativas acerca de los alcances de cada “campo de las ciencias”,en cuanto a su

capacidad “explicativa” de los fenómenos.La no consideración de la distinción – clave en

la teoría del cierre categorial – entre las Ideas filosóficas y las Categorías científicas – lleva

a caer en esas interpretaciones reduccionistas de la ciencia.

La concepción tarskiana de verdad en el contexto del adecuacionismo :

Tarski trata de definir la verdad a través de las proposiciones.Distingue entre un lenguaje formalizado L,cuyas propsiciones satisfacen y un criterio puramente sintáctico de “estar bien formados”.Por otra parte,establece una interpretación  T , de L,que es una estructura que consiste en dominios de individuos definidos  y predicados y relaciones definidos en estos dominios.Los dominios proporcionan los valores de variables de tipo apropiado en el

lenguaje , y los predicados y las relaciones de T son relacionados con predicados y símbolos de relaciones de L.Se puedo,entonces,establecer una caracterización de la verdad en T

porque las proposiciones en L pueden ser especificadas por medio de la relación  de satisfacción,definida inductivamente.La definición requiere en la teoría de Tarski ,de un metalenguaje.

Si cada uno de los conjuntos Q de proposiciones de L es verdadero en T, se dice que T

es un modelo de Q.La teoría de la consecuencia lógica propone que : una proposición s es consecuencia de un conjunto P de premisas,cuando ambos están formalizados, en el caso

de que cada modelo de P es un modelo de s .

La crítica de Bueno en TCC a la teoría adecuacionista de Tarski nos aclara que no debe ser confundida la teoría con la tomista,ya que mientras la adequatio intellectus et rei de Santo Tomás es claramente metafísica,pues la adecuación se establece entre el entendimiento

(el juicio intelectual,mental:”la verdad reside en el juicio”) y la cosa(la realidad).En elcaso

de Tarski-explica Bueno- “la correspondencia se establece entre un metalenguaje y el

lenguaje objeto . ( En el párrafo anterior,sería el lenguaje objeto L y el metalenguaje T ).

La diferencia,sería,pues,que la definición de verdad tarskiana,en principio,sería positiva.[25]

Bueno reconoce la “habilidad” de Tarski para lograr ,mediante la “condición modular”

de la verdad,lo que Ayer y otros positivistas querían: eliminar el concepto “metafísico” de verdad ,de las ciencias.Pero Tarski lo hace de un modo más elegante,es decir,de alguna

manera logra “salvar” este concepto estableciendo que lo que debe hacerse es definir la

verdad a través de los metalenguajes.Veamos como lo expone Bueno:

“gracias al criterio T de Tarski,sin necesidad de apelar al supuesto carácter “metafísico”,”mísitico” u “oscurantista” de la idea de verdad,sino,por el contrario,de un

modo mucho más “elegante”,apelando a su carácter modular(carácter que,en principio,permitiría eliminar el término de manera mucho más radical y,por decirlo así,sin

dejar adherencias y además sin comprometer opiniones filosóficas explícitas).”[26]

Y lo más importante,dentro de la perspectiva en que nos hemos situado,gnoseológica,esta definición de verdad de Tarski “asigna al lenguaje(al metalenguaje de los lenguajes formalizados) el papel de forma de los cuerpos científicos”.Por tanto,el papel del lenguaje objeto es el de la materia . Y quizá a los propios objetos de ese lenguaje.

Lo que habrá de ser criticado es el criterio de adecuación.

Para ello,consideramos que resulta conveniente introducir la definición de circularismo,ya

que es desde ella ,desde donde podremos emprender la crítica ( que debe necesariamente

ser “dialéctica” ) a las diversas teorías de la ciencia,entre ellas,la de Tarski.




4- Propuestas circularistas de la ciencia :

4.1              Definición del “circularismo”

En el glosario de TCC encontramos esta definición del circularismo,una de las cuatro “familias básicas de las teorías de la ciencia” :

” Cualquier tendencia a concebir a los sistemas(proposicionales o causales)como multiplicidades de elementos que se relacionan entre sí,no tanto según el orden lineal(de principios a consecuencias,de causas a efectos),sino según un orden circular,en el que las “consecuencias” o los “efectos” puedan desempeñar a su vez,en un momento dado, el papel de “principios”( o de “causas”).En la teoría del cierre categorial el término circularismo se especifica por respecto a los sistemas científicos categoriales en la medida en la cual puedan ser descompuestos en multiplicidades formales y materiales.El “circularismo” alude a la concepción de la ciencia que concibe la unidad entre esas multiplicidades según nexos circulares y no de mera yuxtaposición ni de reducción mutua.”

A partir de esta “definición”, es preciso ,digamos,”pulir” conceptos .Podemos comenzar recordando que,frente a descripcionismo,adecuacionismo y teoreticismo,que llevan a cabo diversas “hipóstasis” de materia y forma, el “materialismo gnoseológico”(se suele utilizar indistintamente cierre categorial,circularismo,para referirse a la teoría de la ciencia de Bueno,pero hay que aclarar además que hay otras variantes).

Veamos el modo en que Bueno expone estas ideas acerca d ella relación entre materia y forma:

” “Negar” (la sustancialización o hipostatización en)la materia y la forma no significa,en modo alguno,intentar prescindir de sus conceptos respectivos,poner entre paréntesis la distinción,ignorándola,a fin de iniciar un análisis de los cuerpos de las ciencias susceptible de llevarse a efecto con plena independencia e inmunidad de tan,al parecer,peligrosa distinción.

Si nuestra negación tomase un sesgo tan radical,sus consecuencias alcanzarían al sistema mismo de alternativas gnoseológicas que estamos exponiendo,puesto que no solamente las tres primeras(descripcionismo,teoreticismo,adecuacionismo)habrían de ser consideradas como meros “errores circunstanciales”(vinculados a una distinción oscura y prescindible)sino que la misma cuarta alternativa,el circularismo,perdería toda posibilidad de ser presentada como una concepción de la ciencia con estructura o enjundia propia(tan sólo podría ser presentada como “Gnoseología negativa”, y negativa de determinaciones externas,erróneas y poco relevantes…”

No se propone que la materia y forma sean yuxtaposionables(adecuacionismo), o que la forma se considera reducible a la materia(descripcionismo),o la materia reducible a forma(teoreticismo).El papel unificador de la forma es ejercido,según plantea el cierre categorial, ” a través de la determinación de identidades sintéticas que se encadenan y entretejen(a esto se le da el nombre,tomado de Platón, de Symploké)en el cuerpo material de la ciencia.[27]

Una interesante propuesta que puede ser de utilidad para explicar el modo en que el “circularismo” concibe “gnoseológicamente” la relación materia/forma la encontramos en el concepto de forma algebraica,lógico matemática : el caso del “teorema de Hauber”,mediante el cual Bueno muestra cómo es un error pensar que la “materia” es tan sólo un caso particular de una “estructura formal”(…)cuando en realidad lo que ocurre es que  la llamada “estructura formal “ es ella misma una estructura material algebraica coordinable con otras y que desempeña,a lo sumo,el papel de canon,ni siquiera el de prototipo.

“Si (p,q,r,s) constituye una enumeración completa de antecedentes considerados verdaderos de (p1,q1,r1,s1) consecuentes que se excluyen entre sí,entonces podremos escribir no sólo  [ (p –  p1),(q –  q1),(r –  r1),s –  s1) ] sino también sus recíprocas : [ (p1 –  p),(q1 –  q),(r1 –  r),(s1 –  s),(t1 –  s) ]”. Como demostración “formal” podemos proponer la siguiente : la “recíprocas”  pueden escribirse,por definición,de este modo : [ (¬p1 v p),(¬q1 v q), (¬r1 v r),(¬s1 v s) ].Todos los elementos de este conjunto han de ser evaluados como 1 (verdaderos),dado que,por hipótesis,las alternativas todas tienen un miembro 1; asimismo todas las letras negadas han de evaluarse 0,pues son transformaciones de elementos evaluado s1(no pueden agruparse como antecedentes,porque hemos supuesto que la enumeración era completa).Luego habrá que evaluar como 1 a sus negaciones : [ (¬¬p1,¬¬q1,¬¬r1,¬¬s1) ],por lo cual podremos transfromar los paréntesis (¬p v p)en (p1  –  p),&c.Ahora bien,supongamos que tenemos dadas una circunferencia de radio r y una recta distante d del centro de aquélla(consideremos la recta y la circunferencia como conjuntos de puntos A y B).Podríamos construir el siguiente sistema de proposiciones (utilizando al subconjunto constituído por los tres primeros del conjunto N,es decir : { 0,1,2 }) :

(1)(d>r) –  A  B = o [la recta es exterior a la circunferencia]

(2)(d=r) –  A  B = 2 [la recta es tangente]

(3) (d<r) –  A  B [la recta es secante)

Como los antecedentes del conjunto de implicaciones {(1),(2),(3)} constituyen una enumeración completa, y como los consecuentes se excluyen entre sí,podremos “aplicar” el teorema de Hauber

y concluir circularmente (según algunos,”formalmente”,es decir,sin intervención de ulteriores principios geométricos)las recíprocas :

(1)´ ( A  B) = 0) –  (d>r)

(2)´ (A  B) = 1 –  (d=r)

(3)´ (A  B) = 2 –  (d<r)

¿Hasta qué punto la circularidad-reciprocidad es formal?Desde luego no lo es la determinación de las condiciones que constituyen el sistema {(1),(2),(3) } en tanto está formado por un conjunto de antecedentes que son enumeración completa y por un conjunto de consiguientes que se excluyen : los criterios de completud y de exclusión son estrictamente geométricos.Por tanto,y esto es lo decisivo,el sistema { (1),(2),(3) } es un sistema de alternativas geométricas,como lo son cada uno de sus miembros-proposiciones (d>r),(A  B)=2,&c.Peroel sistema recíproco {(1)´ ,(2)´ ,(3)´ }puede ser obtenido sin necesidad de “aplicar”el teorema de Hauber ,pues bastaría aplicar el teorema general de la transitividad del signo “ –  “ en situaciones de reducción al absurdo (por ejemplo si suponemos que (A  B)=1 –  (d>r),como (d>r) –  A  B= 0 ).Nos encontramos aquí con una utilización,en contextos geométricos ,de un functor más general ( el “ –  “).Pero el absurdo al que conduce la falsa hipótesis es un absurdo geométrico ( al margen de que sea también una contradicción algebraica con el resto de las fórmulas utilizadas).Asimismo,la aplicación del teorema de Hauber tampoco requiere ser entendida como una norma interna,puesto que es suficiente interpretarla como una “guía” sistemática,una vez establecidas las correspondencias entre (1) y

(p –  p1),(2) y (q –  q1) y (3) y (r –  r1).Aquí,la “forma” es tan sólo una “forma algebraica” que representa las relaciones formales lógicas ejercidas en la interconexión de los miembros del sistema geométrico.” [28]

El problema suscitado por el asunto de “cierre” o “clausura”,lleva a GustavoBueno o introducir un “postulado de finitud”,para evitar,precisamente,caer en la “aporía del estadio , de Zenón de Elea.

Nos dice Bueno que “ una sentencia aplazada indefinidamente por la investigación de condiciones previas,necesarias para confirmar el jucio firme ,no podrá ser nunca una sentencia probada,no que no significa que la determinación de las concatenaciones precursoras carezca de toda función,no sólo en los procesos jurídicos,sino también en los científicos:lo que no significa que la “cadena cerrada” haya de ser,por ello mismo,una cadena aislada o clausurada,es decir,separada de toda otra realidad y fija en sí misma en cuanto al número de eslabones,como si no fuera posible sustituir un eslabón por otra serie de eslabones dados a otra escala,intercalar nuevos eslabones entre otros dos,no sólo distantes,sino también contiguos,formar bucles o divertículos , e incluso rodear la cadena de referencia con otras cadenas más amplias.”[29]

El ejemplo puesto para explicar este postulado de la finitud,nos parece esclarecedor.El zinc,visto desde la Química clásica,parece estar incluido en el campo “cerrado” el de la tabla periódica de los elementos de Mendeléiev,pero al surgir la termodinámica y la Física cuántica,parece como si el “cierre” se deshiciera.Esto no es así,desde la teoría del cierre categorial,ya que “ese cierre permanece en la misma medida en la que permanecen los eslabones de la cadena,los elementos químicos.”En la explicación de Bueno tenemos que : “Que el átomo de zinc haya de resolverse en una configuración orbital electrónica determinada no significa que deba ser borrado como mera apariencia fenoménica,reabsorbida en la esencia o estructura de la configuración Zn=(Ar)4s2 3d 10.El átomo de zinc,a la escala de la tabla periódica,desempeña ya el papel de una configuración esencial(por su concatenación con los otros elementos de la tabla)respecto de los fenómenos dados a un nivel de experiencia y tecnología operatoria plenamente definidos;puesto que lo que llamamos “esencias” o “estructuras” del eje semántico no tienen por qué entenderse metafísicamente,como entidades absolutas,sino como círculos que se constituyen precisamente a una escala fenoménica de la construcción tecnológica.


Otro ejemplo de interés,para aproximarnos a la comprensión de las propuestas de la teoría circularista de la ciencia,es el que expone el caso de la Genética mendeliana.Cuando la ciencia de la herencia ha comprobado que sus cadenas no son elementos simples,no por ello ha “aflojado” el rigor de sus cierres .Como menciona Bueno,no perdieron fuerza “tras el descubrimiento de los cromosomas en el núcleo de la célula y más aún,tras los descubrimientos ,en 1944,de Oswald T.Avery y colaboradores (lo que venía llamándose el principio transformador o Tp de las bacterias causantes de la neumonía,era,en realidad,un constituyente de los cromosmas que,lejos de ser una proteína,era el ADN).Pues toda la genética molecular se ha mantenido en los círculos de concatenación dibujados por eslabones dados a la escala de la tabla periódica.Por medio de estas “esencias”(los genotipos como principia media dentro de los genomas de la Genética)se estructura,determinísticamente,masas ingentes de fenómenos relacionados con la herencia de los seres vivos.[30]

La cuestión ,en este punto,de la pretensión de una “ciencia unitaria universal”,es desde la perspectiva de los cierres categoriales,inacpetable,ya que se construyen a partir de distintas categorías las distintas ciencias,aunque el problema de la relación entre ellas,es de enorme relevancia,como vemos en estos casos.En la próxima parte de este escrito,veremos las dificultades para establecer un criterio categorial de la evolución,tal como la explica Faustino Cordón,en la cual es necesario explicar el paso de unos niveles a otros .

Para terminar esta Primera Parte,,y enespecial,la definición de circularismo,queremos recordar que,al ser equivalente a “materialismo” y no ,por ejemplo,a otras teorías circularistas posibles,el “cierre categorial” ,como “núcleo más claro” de su teoría,establece “la doctrina de los contextos determinantes”,lo que supone que la propuesta del circualrismo implica la “negación conjunta” de la materia y la forma ,negación que nose reduce a una mera posibilidad combinatoria,sino que es presentada como “un modo positivo de “reabsorción” de la forma y la materia según la conjugación diamérica que tiene lugar en un contexto finito susceptible de ser desconectado de la totalidad del mundo.” [31]



I – La Biología

Decíamos en la introducción que los modos de funcionar de las ciencias incluyen :definiciones,demostraciones,modelos y clasificaciones.Por otra parte,se construyen los

cuerpos de las ciencias ,teniendo en cuenta principios y reglas,que,en la teoría del cierre categorial,se han,digamos,organizado en torno a lo que se llaman “ejes” del “espacio gnoseológico.Dichos ejes ,el sintáctico,el semántico y el pragmático,incluyen a su vez ,los siguientes aspectos,a saber:

Eje sintáctico:a)térrminos;b)relaciones;c)operaciones.

Eje semántico:a)referentes fisicalistas o fisicalismo;b)fenómenos y c)esencias o estructuras esenciales.

Eje pragmático:a)autologismos;b)dialogismos y c)normas.

En el caso de la Biología , si tomamos,pongamos por caso , el libro divulgativo de John D.Bernal,encontraremos un glosario de términos.Tomemos,por ejemplo el término

“pentosa”.Su definición es la siguiente ,en el citado libro de Bernal:

“Carbohidrato (fórmula general : [CH2O]m )que contiene cinco átomos de carbono ,por ejemplola ribosa,que forma parte del ARN,y la desoxiribosa , que froma parte del ADN.




Ribosa                                              Desoxiribosa


Bien,tenemos una definición,que nos remite a otros conceptos que son definidos a su vez:

Para ribosa,se nos remite a   la definición de azúcares:

“azúcar: un glúcido;fórmula general Cn(H2O)n.Los azúcares simples más importantes son

los que contienen cinco y seis átomos de carbono en una estructura cíclica(pentosa y hexosa).Los azúcares simples forman la base para la construcción de los polímeros del

azúcar,o polisacáridos,como la cadena lineal de la celulosa y de los polímeros de reserva almidón y glucógeno.”

ADN (ácido desoxirribonucleico), se define como:”Véase ácidos nucleicos.El ADN está constituido por nucleótidos  que tienen desoxirribosa y una de las cuatro bases nitrogenadas siguientes: adenina,timina,guanina y citosina(ver figura)









Están unidos por un enlace entre el fosfato de un nucleótido y el azúcar del siguiente.La estructura en que suele presentarse el ADN es la de una doble hélice formada por dos polímeros simples arrollados uno en torno del otro.En esta hélice los nucleótidos están dispuestos de tal forma que la columna vertebral de azúcares-fosfatos de los dos polímeros

está en el exterior; en el interior se disponen las estructuras cíclicas planas de las bases que

se encuentran en planos casi perpendiculares a los ejes de las hélices,estando unidas a otras bases del polímero opuesto.El apareamiento de las bases opuestas no es arbitrario;una base con dos anillos(purina) se aparea siempre con otra de un solo anillo(pirimidina),y,además,

la adenina siempre se une a la timina y la guanina a la citosina,siendo estos dobletes purina-pirimidina los más estables.Ello significa que,aunque la secuencia de bases a lo

largo de un polímero cualquiera pueda variar mucho según la procedencia del ADN,los filamentos de cada hélice tienen secuencias estrictamente complementarias.Esta teoría de la estructura del ADN es conocida como hipótesis de Watson y Crick que explica el funcionalismo de la duplicación cromosómica.”

Para comprender el primer concepto , ha sido necesario introducir otras definiciones, y

nos falta aún la de ARN,y la de “ácidos nucleicos”.Pues consideramos que es preciso introducirlos ,con el fin de entender un tema complejo como el que queremos proponer,

a través de la obra,inmensa,de Faustino Cordón.

“Ácidos nucleicos : Polímeros formados por nucleótidos que se encuentran en todas las

células vivas.El ácido desoxirribonucleico(ADN) se halla principalmente en el núcleo y constituye el material genético de la mayoría de los organismos.El ácido ribonucleico

(ARN) se encuentra tanto en el núcleo como en el citoplasma y aparece en tres formas,

cada una de las cuales desempeña un papel en la síntesis de proteínas.Véase ARN,código genético,cromosomas.En algunos virus,el ARN constituye la totalidad del material genético;

no se conoce ningún caso en que otro tipo de compuesto distinto a los ácidos nucléicos

forme el material genético.”

“ARN : El ARN está constituido por cadenas de polinucleótidos similares a los del ADN,

pero que contienen ribosa en lugar de desoxirribosa y uracilo en vez de timina.En las

células se encuentran tres formas de ARN: ARN mensajero(ARNm),ARN de transporte (ARNt) y ARN ribosómico (ARNr).Ninguna de ellas posee la estructura helicoidal regular

del ADN,si bien se cree que existen cortas regiones de hélice en el ARNt y ARNr.”

“Código genético : Las cuatro bases nitrogenadas (A,C,T y G : adenina,citosina,timina,

guanina , en elADN ; y A,C,U,G : adenina,citosina,uracilo,guanina, en el ARN)constituyen

un alfabeto de cuatro letras, y su secuencia a lo largo de la molécula de ADN o ARN

forma un código que contiene la información genética de acuerdo con la cual la célula

sintetiza nuevas proteínas.Se sabe que este código consta de “palabras” de tres letras,por ejemplo GAC,UUA,cada una de las cuales codifica a un determinado aminoácido.Así,la secuencia de amonoácidos en cada proteína de la célula depende de la secuencia de nucleótidos en una parte del ADN del núcleo de esta célula.La transcripción del código se realiza con la mediación de moléculas de ARN.Se sintetiza ARNm utilizando las secuencias

de bases del ADN como molde.La molécula mensajera se une a un ribosoma.Un enzima activador ocasiona la unión de aminoácidos determinados a moléculas de ARNt específicas

que son capaces de reconocer las tres letras que forman el codón del ARN mensajero

para su aminoácido específico. Los complejos aminoácido-ácido-ARNt se alinean a su

vez a lo largo de la molécula mensajera según el orden dictado por los codones, se

establecen enlaces peptídicos entre los aminoácidos adyacentes y queda constituída la

cadena protéica.”

“ATP : Adenosintrifosfato.Trifosfato de adenosina.



Trifosfato de nucleósido,compuesto,por ejemplo,de adenina,ribosa,y tres grupos fosfato.

Es un compuesto de alto contenido energético,de modo que cuando transfiere un fosfato

a un receptor,se libera gran cantidad de energía(7kcal/mol).La pérdida de un fosfato

convierte el ATP en un difosfato,el ADP;la pérdida de dos produce un monofosfato,el


Faustino Cordón nos aporta una “Teoría de integración de niveles de la materia”. Esos tres niveles ,tal como los expone en su magna obra en tres volúmenes , el Tratado evolucionista de Biología.(Historia natural de la acción y experiencia),son los correspondientes a un primer nivel: basibiones , proteinas globulares); la célula, segundo nivel y el primer animal. La evolución de unos niveles a otros supone el estudio del origen, naturaleza  y evolución  de cada uno de ellos y,lo que Faustino Cordón define como “evolución de la acción y experiencia”(basibiónica,celular o animal).El principal papel en la evolución corresponde a estos últimos aspectos,pero , además , al “ambiente trófico celular”.

No resulta labor sencilla analizar este enorme trabajo,que incluye,no sólo una base biológica muy fundamentada, sino análisis críticos(gnoseológicos),que incumben al ámbito de la

crítica filosófica,(lo que venimos denominando “teoría de la ciencia”).

Vamos a intentar mostrar cómo la evolución ,en los términos de la teoría propuesta por Cordón,puede ser interpretada,gnoseológicamente,desde las coordenadas de la teoría circularista de la ciencia.

Veremos cómo el propio Faustino Cordón está ejercitando su crítica ,al elaborar su teoría evolucionista de la Biología,propuestas que encuadramos en la Teoría del cierre categorial.Es decir, cuando habla de relaciones entre términos del campo de la Química y el reduccionismo de los químicos del siglo XIX,que,según él,dejan en el siglo XX,digamos,el prejuicio teórico derivado de concepciones reduccionistas de la célula y del organismo vivo.Los componentes del campo de la ciencia Química y de la ciencia de la Biología,en cuanto a los referentes fisicalistas,cuya expresión fenoménica es organizada en torno a sus estructuras esenciales(recordemos que en el cierre categorial,estos componentes gnoseológicos los establece Bueno en el eje semántico de lo que hemos definido como “espacio gnoseológico”. En cuanto a las normas,autologismos y dialogismos de los químicos del siglo XIX y el XX,veremos cómo Cordón los interpreta ,en una symploké,una red que ,construida materialmente,va “conformando” el cuerpo de la ciencia,estableciendo,desde los “contextos determinantes” y los “contextos determinados”,los cierres correspondientes.No,en el sentido del “falsacionismo” popperiano,o en el sentido de un adecuacionismo,sino,como veremos,desde una relación problemática entre “materia “ y “forma”,en el sentido de que hay aportes que se mantienen,que son además necesarios para comprender aspectos que la misma materia,desde los laboratorios,va planteando al hacer nuevas y necesarias comprobaciones.Lo que interesa destacar es el hecho,mostrado detalladamente por Cordón,de que la teoría debe ser corregida,los modelos deben ser adaptados y readaptados,en ese “tejerse” de las teorías,modelos,hipótesis,en el que los conceptos de materia y forma aparecen como “conjugados”,como los dióscuros,en el sentido en que Bueno lo propone en TCC.

Vamos a entrar al tema desde la Parte segunda del Vol.II del libro de Cordón,a saber: origen,naturaleza y evolución de la célula,más por motivos de espacio,que por el método más riguroso que exigiría,evidentemente,empezar por las primeras etapas de la evolución(basibiones).Nos ha parecido,en el contexto de este trabajo(Historia de la Ciencia y Filosofía de la Ciencia),de mayor interés,por tanto,comenzar desde este punto,que hace una referencia a la Historia de la Química que nos será de utilidad para nuestro objetivo expositivo y crítico de las diversas teorías de la ciencia en el contexto de la Historia de la misma.

Algunas teorías de Faustino Cordón:

Los biólogos aparecen divididos,según Cordón entre dos reduccionismos , a saber :

Aquellos que admiten que “el animal es la unidad absoluta de vida”,como los que “prosiguen desarrollando la taxonomía zoológica,la filogénesis animal,los etólogos,los psicólogos asociacionistas,los psicólogos evolucionistas,los psicólogos de la Gestalt,etc.”.Por otra parte,tendremos,en la propuesta crítica de FaustinoCordón,aquellos otros reduccionistas que “consideran la célula como unidad absoluta de vida”,entre los cuales tendremos a “los que se dedican a la genética clásica y a la de poblaciones,a la embriología,los psicólogos experimentales,los fisiólogs del sistema nervioso,etc.”. [32]

Me parece de enorme importancia para la filosofía de la ciencia recordar,antes de continuar con esta brevísima exposición de las teorías de Cordón,una advertencia suya alrespecto de loque se señala:

“Parece un síntoma de grave disolución del espíritu crítico que convivan en la biología actual los dos reduccionismos biológicos sin que el hecho perturbe ni menos estimule a nadie a intentar entenderlo y superarlo.”[33]

En los primeros años del siglo XIX ,Virchow y su precursor Schwann  consideraban a los tejidos como conjuntos de células “de carácter idéntico para cada tejido”.

La tesis de Cordón introduce la definición de célula ,no como Virchow acertadamente expone en términos fisiológicos de la célula,sino,además,como un ser vivo de segundo nivel de integración, “un foco unitario de acción y experiencia que resulta de la acción cooperante-conducida por él [la célula] de unidades de integración del nivel inmediato inferior,unidades que,por razones de muy diverso tipo,no pueden ser moléculas .”

Sobre este ser vivo del segundo nivel de integración,la célula,se constituye directamente la unidad animal,y él mismo(la célula) está constituído por la actividad cooperante de los basibiones,que sí surgen directamente de moléculas. [34]

La propuesta de Cordón es tan precisa que nos expone,en un brevísimo párrafo,toda una leccón,tanto para la biología como para las teorías de la ciencia.Me refiero a lo siguiente :

“En definitiva,desde comienzos del siglo XIX  y a lo largo de todo el siglo,los átomos son considerados como las unidades absolutas de materia,en las que se verifica la ley de conservación de ella,descubierta por Lavoisier,que mejor podría denominarse la ley de conservación de los tipos absolutos de materia.”Y una nota que explica esta idea con más detalle,nos ayuda a plantear algunos aspectos de la biología en el contexto de nuestro planteamiento de la filosofía de la ciencia(gnoseológico),a saber :

“Pocos decenios después se establece la ley de la conservación de la energía,básica de la termodinámica,que,como la de la conservación de la materia,es perfectamente aplicable a las reacciones químicas.Como se sabe desde comienzos de nuestro siglo [se trata del siglo XX],ni una ni otra ley son absolutas,aunque sean perfectamente aplicables al estudio y gobierno por el hombre del nivel molecular.Es sabido que,con generalidad,se unifican ambas leyes en la transfromación de materia en energía y viceversa según la ecuación formulada por Einstein,


m =


donde m es la masa en gramos,E la energía en ergios y c es la velocidad de la luz en cm/seg;el enorme valor de c2 (9  10 20)hace que los pequeños cambios de E en las reacciones químicas,en los cambios de estado de las sustancias,etc.,sean inapreciables conrespectoa los ingresos y pérdidas que afectan alsistema termodinámico constituido por la superficie de la Tierrra que se encuentra en estado molecular(corteza,hidrosfera,atmósfera).”

Las cuestiones de física aquí expuestas por Cordón,las veremos con detalle a través del siguiente apartado de esta Segunda Parte,al considerar la aportación de García Bacca a esta temática de la energía,etc.

Lo que nos interesa es señalar cómo se construye el “cuerpo” de las ciencias .Los dialogismos ,discusiones entre científicos,constituyen un elemento fundamental del “espacio gnoseológico” que en el cierre categorial se   incluyen en el “eje pragmático “.Las propuestas mismas de Faustino Cordón,en este aspecto,son no sólo dialogismos,sino que tratan de “regresar” (“regressus”) a la construcción esencial de los fenómenos de la biología, para proponer ,a través de lo que Bueno define como “progressus”, [35]

nuevos modelos que expliquen los fenómenos,según leyes,teorías,demostraciones,que desde luego ,están determinadas o limitadas,en cuanto a su “cierre categorial”,que se produce por medio de identidades sintéticas,por las relaciones y operaciones con los términos de la ciencia o ciencias en cuestión.

De acuerdo con la propuesta de la TCC de que cada ciencia tiene sus categorías,podemos recordar ,siguiendo el estudio histórico crítico de Cordón,cómo la química orgánica surge , separándose de la inorgánica,en los años que van desde 1845 a 1865,y constituirse como ciencia especializada,por el “orden de problemas y conceptos,teorías y métodos”.El estudio del átomo de carbono y sus propiedades especiales,destaca la de su tretavalencia fija,la aptitud de combinarse en largas cadenas mediante enlaces recíprocos en los que pueden aplicarse una,dos o tres de sus valencias,la existencia de cadenas cerradas(anillos aromáticos y ciclos),la aptitud de fijar agua en los dobles enlaces,su capacidad de enlazarse,por una o más valencias,con el oxígeno y el nitrógeno,etc. [36]

Y los logros de Mendeléievque l epermiten correlacionar un criterio físico(pesoatómico) y propiedades químicas y asíprever la existencia de átomos,de propiedades determinadas ,que llenarían los huecos del sistema.

No sería hasta el siglo XX ,cuando se logra una “estructura esencial” ,una explicación causal del átomo,de tal manera que se “deja atrás” el nivel de los fenómenos.Y no sólo en el eje semántico se dan estas transformaciones,ya que ,desde la perspectiva circularista de la teoría de la ciencia,los principios y reglas de las relaciones y de los términos(eje sintáctico),van transformándose al mismo tiempo que se suceden los cambios semánticos(en el sentido de Bueno).Claro está que todo se organiza dialécticamente en el campo de la pragmática,en el cual dialogismos entre científicos y autologismos,suponen la búsqueda de nuevas normas.Así se van “construyendo” esas concatenaciones de categorías bioquímicas,sin las cuales es incomprensible que pueda “avanzar” la ciencia.

El siglo XX inicia,con el descubrimiento de las partículas elementales  del nivel subatómico de integración(los modelos del átomo).Lo que se hacía hasta ese momento es como una casi perfecta clasificación taxonómica de elementos,pero faltaba la justificación de la misma mediante un “árbol filogénico,producto de la evolución”.

Liebig se forma en las ideas de Berzelius que ya había aportado a la química orgánica conceptos como el de “isomería”.Sentó Liebig las bases de la dietética y la agricultura científicas,con sus estudios sobre la relación entre lo orgánico y lo inorgánico de dos maneras: dedicando esfuerzos ,en colaboración con Wöhler,a aislar y transformar unas enotras ,clasiificándolas,moléculas orgánicas.Sus estudios sobre los intercambios de materia entre vegetales y animales.Trabajando sobre el radical del ácido benzoico ,lograron Liebig y Wöhler aislar elementos del mismo: a partir del aceite de almendras amargas logran el benzaldehido,que tratado a su vez con potasa alcohólica da benzoato potásico.El producto simultáneo,alcohol bencílico,no se descubriría sino hasta 1853 con los experimentos de Cannizaro,es decir,veinte años después.

Abrió el camino a la “teoría de la sustitución”,al constatar que el oxígeno electronegativo no puede formar parte de un radical electropositivo ni el hidrógeno sustituido por cloro o bromo.

Sólo podemos citar algunos de sus relevantes descubrimientos,pero nos interesa señalar que se “construyen” desde esa perspectiva gnoseológica que venimos denominando,con Bueno,de conjugación entre materia y forma.

La cuestión de los procesos dados en la fermentación se llevó a cabo con aportaciones empíricas de Schwann y Pasteur.Este último,químico opinaba ,al igual que el biólogo Schwann,que las transformaciones de azúcar en alcohol son una reacción sencilla que se formula así:

C6H12O6  –     2CH3 — CH2OH + 2CO2

La cuestión a debatir giraba en torno a la característica de dicha reacción: meramente química(molecular),en opinión de Liebig, y algo más que eso,según Schwann y Pasteur,es decir, la fermentación es un proceso intracelular, y para ellos ,por tanto, dado que células y átomos son orgánicas e inorgánicos,respectivamente,la reacción al interior de la célula es parte de algo vinculado a la vida,”a la fuerza vital”. Lo que desencadena la fermentación es ,como había postulado Traube (1826-1894) ,debida ala acción de una sustancia química, a la que por cierto,Kühne llamó enzima,con lo cual Liebig tiene parte de razón.Esto sería una cuestión sin aclarar sin la aportación de Buchner en 1897,cuando observó que “ultrafiltrados de levadura desmenuzada conservan la capacidad de fermentación propia de la levadura”.

Los conceptos de peso molecular y peso atómico aportados a la química por Cannizaro logran abrir paso a la solución de problemas empíricos que no podían ser explicados por la “forma teórica” digamos. Las aportaciones Kekulé(1829-1896)a la química orgánica abren paso a los avances de comienzos del siglo XX. El concepto de valencia, que expresa la capacidad de fijación de un átomo por otros átomos, y el concepto de afinidad química, la fuerza que estabiliza a las moléculas, con toda la imprecisión que tienen, incluso hoy en día, resultan fundamentales para construir ese cuerpo de la ciencia, y aunque sea de modo abstracto, se  busca solucionar un hecho empírico al que no es posible explicar con los datos teóricos incompletos de que se dispone en un momento determinado. Ante las explicaciones imprecisas, como Cordón las denomina, en el caso de la “fuerza vital” que explica los fenómenos cuya estructura el científico aún desconoce ,aunque sí explica elemento fenoménico como un proceso empírico “repetible”. La postura de Berzelius es considerada por Cordón como “cientifista”[la aplicación imprecisa de datos de otra ciencia a la propia]; mientras que la postura de Kekulé sobre la valencia y la afinidad química, es definida como una postura “científica” por Cordón [prescindiendo de lo concreto y sabiendo mirar lo que no se podía precisar pero que era pertinente con respecto a las unidades del nivel de integración en que entiende la química, las moléculas].A todo este proceso lo llama Cordón “la inflexión de la química orgánica, desde el empirismo a teoría experimental”. El “descripcionismo” [37],como modelo de teorías de la ciencia que establecen como criterio para establecer la relación materia/forma, la implicación de la forma en la materia (subordinación de la forma a la materia dice Bueno, pero, cuidado , subordinación no significa negación), es sustituido, al parecer de Cordón,y ello lo mostrará a lo largo de su propia obra, por otro en el cual materia y forma se “desconectan”(gnoseológicamente),para establecer entre ellas una relación de conjugación, que, pensamos, es equivalente a lo que Faustino Cordón explica como “inflexión del empirismo a teoría experimental”.[38]

Para Cordón,Pasteur significó un ejemplo de científico que fue capaz de “sostener puntos de vista opuestos de antemano a ideas que persisten en la bioquímica,como consecuencia de su reduccionismo erróneo de su sistema interpretativo a la mera química”.La célula no es ,pues,la unidad biológica más sencilla,para Pasteur,ya que hay seres vivos de nivel subcelular,que persisten en los ultrafiltrados y que de hecho gobiernan las transformaciones químicas.Hechos comprobados hoy por la bioquímica en el campo del metabolismo,dan la razón a Pasteur.La discusión sobre el hecho de que los cristales enantiomórficos del tartárico,en caldos de levadura,producen alcohol amílico ópticamente activo,le llevó a postular que “la actividad óptica es propia de moléculas vinculadas a la vida”.La discusióntiene fundamento en cuanto a que es posible ,en cuanto a que “en moléculas con carbonos asimétricos producidas fuera de la vida(laboratorio)se originan los dos estereoisómeros enla misma proporción,y que,además,hay cristales naturales fromados por uno de ellos”.Esta es la crítica de los reduccionistas(de lo bioquímico a lo meramente químico).A continuación ,veamos el modo en que Faustino Cordón explica esta cuestión,ya que es , a mi juicio,de una capacidad gnoseológica para la confrontación entre teorías de la ciencia,que en ninguna otra parte he encontrado.

“parece obvio que estos dos hechos no son sino,,la condición química y la ventaja selectiva,respectivamente,para que el basibión pueda hacer lo que está a su alcance y es privativo de su nivel,a saber,inclinarse a producir,ante sus coyunturas filogenéticas,,una determinada molécula entre dos químicamente posibles( en este caso un estereoisómetro y no el otro)por convenir al ejercicio de su acción y experiencia”.[39]

En su documentado modo de exponer la historia de la bioquímica,Cordón nos aporta muy interesantes comentarios,pero lo relevante,creemos,en nuestro caso,es el modo en que estos comentarios históricos,son puestos bajo la luz “crítica” .

El caso del holandés van ´t Hoff(1852-1911),discípulo de Kekulé,puede resultar

interesante en relación a lo que se planteaba acerca del metabolismo y los isómeros(estereoquímica).Los logros de van ´t Hoff permiten entender la diferencia del comportamiento de las moléculas en el ámbito inorgánico e invitro,del que desarrollan cuando actúan en cuanto moléculas gobernadas por basibiones,lo que nos permite entender el modo de acción y experiencia de éstos en tanto agentes biológicos de lo que Cordón define como primer nivel de integración biológica. Descubre ,en sus trabajos , que la presión osmótica es “con toda probabilidad” la forma de energía que realiza el trabajo celular. Demostró en un escrito de 1886 que “en las soluciones diluidas se cumple una ley que corresponde a la de los gases perfectos y se representa por la misma fórmula pv = RT,en la que p representa la presión osmótica(proporcional a la concentración molar de los solutos)”.Introdujo el concepto moderno de “afinidad química”, definido como “el trabajo máximo obtenido de una reacción, y el modo de calcularla en operaciones realizadas a partir de : medidas de presión osmótica, presión de gas, y fuerza electromotriz de células galvánicas reversibles”.

La referencia a von Baeyer,en la que Cordón nos advierte de su “pretensión realmente ilusa,que le aparta tanto de su maestro Kekulé,de mantenerse como empírico y experimentador puro”,resulta de sumo interés ,dado que comprobamos la teoría descripcionista de la ciencia .[40]Es decir,la forma lingüística teórica y la materia lingüística observacional,,como opción gnoseológica,desde la crítica de la TCC , se lleva a cabo,por el descripcionismo de von Baeyer,de tal manera que ,dada la alternativa cuasialgebraica [(0,1)],en la cual se da una subordinación (reducción) de la forma a materia,tendremos que “el núcleo de la ciencia no consiste en el discurso teórico sino en u contenido observacional”.[41]La crítica de Bueno se desarrolla a partir de estas cuestiones que a su juicio,plantea el descripcionismo :

“es de señalar la circunstancia de que en la mayoría de los programas metodológicos-gnoseológicos descripcionistas el “término clave”, a saber,”descripción”,es antes usado que definido o analizado : “el fin de la ciencia – decía Schlick -no puede ser otro sino el de “dar una descripción verdadera de los hechos” “;también Husserl presentaba el ideal de la fenomenología como “descripción pura”.Pero,¿qué describir?.Se exige que las descripciones sean verdaderas,ajustadas…,como si se supiera ya de antemano qué es una “descripción” y que lo que importase fuera su verdad o su justeza”.[42]

Hasta aquí lo que consideramos,dado lo extenso del asunto,importante para nuestro propósito de mostrar la concatenación entre teorías de la ciencia y la propia práctica y reflexión de los científicos.Ahora bien,no quisiéramos terminar este apartado, ( que se verá ampliado en lo que se verá acerca de la física a continuación -debido a la relación entre los átomos yyy las moléculas en el nivel biológico – )sin hacer referencia a una importante cuestión que menciona Cordón , a saber : el problema del concepto de “sistema”.

Muy brevemente, aceptando las leyes de la termodinámica expone Cordón que :

“todo sistema molecular general (como es la biosfera aun sosteniendo sus seres vivos) tiende a transcurrir con aumento de la entropía”, por lo que “parece incontrovertible :

a)Que la multiplicación de las levaduras tenía que implicar síntesis químicas anteriores que habían de exigir una fuente de energía química exterior, y

b)Que en un sector de la realidad elevado a unidades moleculares como nivel de integración superior, la ley de acción de masas, que vincula, en todo punto de él, reacciones de demolición exergónica, determina que, por el segundo principio de la termodinámica, el conjunto desordenado reaccional se produzca con aumento global de energía y

degradación de energía en calor, y , por tanto, no puede personificar el ser vivo”.

Lo importante es su crítica,decíamos,a la teoría de von Bertalanffi.Para Cordón,la consideración “rigurosa” del nivel molecular “nos debe poner en guardia frente a la interpretación de la célula como un sistema ,sea de moléculas, sea de fermentos, y, en general,f rente a la concepción “organímica” del ser vivo de von Bertalanffi, de hecho, mecanicista “.[43]

Reproducimos textualmente la tesis de Faustino Cordón respecto de este asunto, por considerar que ella nos aclara muchos de los problemas que se suscitan al considerar esas cuatro familias básicas de teorías de la ciencia:

“Todo ser vivo(la propia individualidad humana) ha de considerarse un foco unitario de acción y experiencia que surge continuamente de un conjunto cooperante de unidades del nivel inmediato inferior, guiando su cooperación para explotar un ambiente trófico, en concurrencia con otros seres vivos libres de la misma especialización. Distinguir estos conjuntos de individuos del nivel inmediato inferior( a los que corresponde la designación precisa de soma, no de sistema)de la unidad del alto( el organismo, en nuestro sentido, opuesto al de mecanismo, de campo unitario circunscrito) y explicar el origen y sostenimiento el uno por el otro me parece la tarea esencial del biólogo”.

Sobre la crítica de Cordón a la Teoría general de los sistemas dinámicos de von Bertalanffi, podemos añadir lo que Bueno comenta en el Vol.3 de su TCC citado:

“El “formalismo” propio de la teoría general de los sistemas dinámicos no es (pese a lo que podría sugerir su caracterización como formalismo)una condición que pudiera ser derivada de una “forma pura”(¿mental?,¿matemática?),puesto que tal formalismo,en tanto incluye un parámetro temporal t ( que está geometrizado, sin duda, pero en el contexto del desarrollo de una trayectoria sucesiva viene a ser un modelo físico material estilizado, antes que una pura forma matemática”.


2 – La  Física

Los problemas gnoseológicos que presenta la física han dado lugar,sin duda,a una mayor cantidad de trabajos teóricos, hasta la fecha,que los dedicados a la biología. Este hecho puede obedecer al mayor auge de ésta durante los primeros años del siglo XX y , acaso,al impacto social de la física a través de la bomba atómica, los desastres nucleares y en menor escala, el impacto de la teoría de la relatividad y “la indeterminación” cuántica. Las dificultades para entender los problemas proceden de dos fuentes fundamentalmente, a saber : una de ellas, la dificultad inherente a la propia ciencia física, que ha llegado a desarrollar un “aparato matemático” tan complejo que dificulta incluso a algunos físicos su comprensión de fenómenos también contradictorios .Por otra parte, la diversidad de teorías de la física, que incluye en ocasiones lo que podemos definir como “la filosofía espontánea” de los científicos, muchos de los cuales, al menos en los primeros años del siglo XX, tenían nociones de filosofía y de historia de la filosofía que, derivadas de la filosofía alemana que partiendo del siglo XIX ,dio lugar a desarrollos tales como la fenomenología e incluso, desde la psicología de la Gestalt, se hacen propuestas teóricas sobre las ciencias, como es el caso de Ernest Nagel en su libro La estructura de la ciencia. Por lo pronto, establece una clasificación en la cual tendríamos cuatro modelos de explicación. Su definición de explicación es la siguiente: “respuestas a la pregunta “¿por qué?” “.Ejemplos: ¿Por qué es siempre un cuadrado perfecto la suma de cualquier sucesión de enteros impares consecutivos que empiece con 1(por ejemplo 1+3+5+7 = 16 = 4 2 ).

¿Por qué se cubrió de humedad la parte exterior del vaso, cuando se lo llenó de agua helada?. ¿Por qué durante el último cuarto del siglo XIX hubo un porcentaje de católicos suicidas menor que el de los suicidas protestantes, en los países europeos?.  ¿Por qué flota el hielo en el agua?. ¿Por qué la adición de sal al agua disminuye su punto de congelación?. ¿Por qué sucede que la progenie de guisantes híbridos obtenidos cruzando progenitores redondos y arrugados aproximadamente 3/4 de los guisantes son siempre redondos y 1/4 arrugados?.¿Por qué Casio tramó la muerte de César?. ¿Por qué Enrique VIII de Inglaterra trató de anular su matrimonio con Catalina de Aragón?.

Bien, los cuatro tipos de explicación o respuestas al por qué de estas preguntas, son los siguientes, según Nagel :1- modelo deductivo;2-explicaciones probabilísiticas;3-explicaciones funcionales o teleológicas y 4-xplicaciones genéticas.

Nagel propone diferenciar entre “leyes experimentales ” y “teorías”. El caso que cita es la ley de Boyle sobre los gases, en que se explica un fenómeno,los gases mantenidos a temperatura constante cuando se hacen variar las presiones, a partir de cuyas observaciones experimentales “afirmó con carácter general la variación inversa de la presión y el volumen basándose en el supuesto de que lo que era verdadero en los casos observados es verdadero universalmente”, sin embargo cuando se incorpora la ley experimental a un vasto sistema de leyes, “es posible basar una ley experimental no solamente en datos confirmatorios directos sino también en elementos de juicio indirectos”. Otro ejemplo, la ley de Galileo sobre la caída libre de los cuerpos, que puede ser fundamentada en experimentos directos con datos relativos a distancias recorridas en tiempos distintos, o puede ser confirmada la ley de caída libre de cuerpos, mediante experimentos sobre los períodos de los péndulos simples, ya que ambas leyes se hallan vinculadas,”en virtud de su inclusión en el sistema de la mecánica newtoniana”.[44]

La cuestión de Newton y su teoría.

Newton ha de entenderse en el marco de la geometría como método, pero que ya incluye ,tras Descartes, la geometría analítica, el cálculo mediante derivaciones e integraciones, el cálculo infinitesimal.

Veremos cómo Khun analiza la llamada “Revolución copernicana” desde su perspectiva de las “revoluciones científicas”, y trataremos de contrastar este modo de entender las cosas,con el modo que Bunge propone, pero deberemos , en el contexto de la dialéctica entre esas cuatro familias de teorías gnoseológicas de la ciencia que venimos manejando, también ver cómo lo presenta Popper, para relacionar los tres modelos con el propuesto por Bueno, en el que, como decíamos, se conjugan materia y forma, no, como el adecuacionismo , yuxtaponiéndolas, sino negando que la ciencia las relacione como elementos cuya adecuación basta para establecer las teorías sobre los hechos empíricos, o como Popper defendía, la teoría define criterios, que mientras no sean falsados, son “válidos”, o como el caso del descripcionismo,la teoría sirve de respaldo “formal” a la mera descripción de fenómenos(lo que mencionábamos sobre Nagel, por ejemplo).

También, como mencionamos en la introducción y en la Primera Parte ,queremos introducir el modo en que García- Bacca maneja los conceptos de la física en la concepción ,que podemos ver muy cercana a la de Husserl.En este sentido, a saber:  “Si “positivismo” quiere decir tanto como fundamentación , absolutamente exenta de prejuicios, de todas las ciencias en lo “positivo”, en ,pues, lo que se puede aprehender originariamente entonces somos nosotros [los fenomenólogos ,(añade Bueno) ] los auténticos positivistas”.[45]

En el capítulo  VI de su La estructura de la ciencia , Nagel ,dentro del apartado “el papel de la analogía”,pone el  caso de la propuesta de Poincaré(Elecrticité et optique,1890) sobre la afirmación de que “si es posible dar una explicación mecánica de un fenómeno,entonces también es posible construir una infinidad de otras explicaciones”.

Con detalle,que merece la pena reproducir íntegramente aquí,se explica así Poincaré:

El número de ecuaciones que relacionan las coordenadas de posición y cantidad de movimiento de las masas del modelo hipotético con los parámetros determinables experimentalmente del fenómeno es mayor que el número de estos parámetros.De esto se desprende que es posible elegir las coordenadas del modelo a voluntad, sujetas solamente al requisito de que las mismas satisfagan alguna ley atinente a ellas que sea compatible con las ecuaciones. En detalle, el argumento es el siguiente:

Sean q1,q2…,qn los parámetros que pueden ser determinados experimentalmente y que especifican el fenómeno en investigación. Estos parámetros están relacionados entre sí y con el tiempo t por leyes de las que podemos suponer que pueden ser expresadas como ecuaciones diferenciales. Supongamos que hay un modelo consistente en un número muy grande de p moléculas, cuyas masas son mi y cuyas coordenadas de posición es ,xi,yi,zi (i = ,1,2…,p).Suponemos que rige para el modelo el principio de conservación de la energía de modo que exista una  función potencial V de las tres p coordenadas xi,yi,zi ; entonces,las 3p ecuaciones del movimiento de las moléculas serán :


d 2 xi          V


mi                 =


dt 2                     t


con ecuaciones similares para i y z ;mientras que la energía cinética del sistema será :



T =    –     mi (x2 + y2 +z2)


de modo que :


T + V = constante.

Entonces el fenómeno tendrá una explicación mecánica si podemos determinar la función potencial V y podemos expresar las 3p coordenadas x,y,z como funciones de los parámetros q.

Pero si suponemos que existen tales funciones , de modo que

xi =   i(q1,…,qn)

yi =   i(q1,…,qn)

zi =   i(q1,…,qn)

la función potencial V puede ser expresada como función  de los q1 solamente,la energía cinética T sería una función cuadrática homogénea de los qi y sus primeras derivadas qi , y las leyes del movimiento de las moléculas pueden ser expresadas mediante las ecuaciones lagrangianas :





Por consiguiente ,la condición necesaria y suficiente para que pueda darse una explicación mecánica del fenómeno es que haya dos funciones V (q1,…,qn) y T (q1,…,qn , q1,…,qn) que satisfagan estos requisitos ,con la estipulación obvia  de que las leyes del fenómeno puedan ser transformadas de modo que adopten la forma lagrangiana indicada.Tales funciones pueden ser especificadas si y sólo si









Y análogamente  para



Pero puesto que puede tomarse el número p tan grande como nos parezca, siempre es posible satisfacer esta condición,y hasta en un número infinito de maneras diferentes”[46].

El filósofo y físico mexicano Jorge Serrano explica con estos términos la postura de Poincaré :

“para Poincaré, la experiencia es por completo singular y concreta; y por lo tanto, la ciencia exige la intervención del entendimiento,que alcanza la universalidad introduciendo las hipótesis.(…)las hipótesis más generales,esto es ,los principios de  la física,del mismo modo que los principios de la matemática, son también construcciones del espíritu -libres convenciones – que no pueden ser confirmadas o invalidadas por la experiencia -no pueden ser verdaderas o falsas – sino sólo más o menos cómodas para sinnnntetizar los datos de la experiencia” .[47]

Será Kepler el primero que utilice con claridad la distinción entre “tendencia hacia” y “atracción por”. Los cuerpos graves(ponderables) y su atracción mutua son un axioma de Kepler, quien lo explicaba así en su carta a Maestlin de 1605: “la piedra atrae a la Tierra tanto como ella es atraída y dos piedras colocadas en el espacio,fuera del campo de atracción de un campo de acción de un tercer cuerpo emparentado (cognati corporis) se atraen el uno al otro”.[48]

No podemos deternos en los detalles de la transformación de los conceptos físicos de la célebre “revolución copernicana”,pero sí quisera recordar un comentario de Koyré,en el que se explica por qué, con la teoría de Newton,se mantiene una concepción teista o

Deista de la Naturaleza: el mismo Voltaire lo dice así: el reloj implica el relojero (“La razón me prueba que existe un ser que organizó la materia de este mundo(…)”).Salvo,señala Koyré, Laplace,esa visión newtoniana ,es interpretada de este modo.

Laplace dice a Napoleón: “no necesito esa hipótesis”, la hipótesis de un relojero(Dios ) para explicar el orden del mundo.

Koyré se lamenta de que,si bien Newton unificó dos mundos separados,el celeste y el terrestre,al aplicar el modelo matemático,se llega a disociar la teoría y la práctica,de tal manera que la geometría “reificada”(cosificada) y el mundo de la cantidad,hay en ese modelo lugar para todo lo existente, pero a costa de desplazar al hombre. Dice Koyré que “así,el mundo de la ciencia -el mundo real – se separó y se separa cccompletamente del mundo de la vida,que la ciencia ha sido incapaz de explicar – incluso por una explicación disolvente que haría de ella(la vida)una apariencia “subjetiva” “.[49] Dos mundos, dos verdades, o acaso, ninguna ,es el modo en que lo expresa Koyré.[50]

García-Bacca : espacio y tiempo newtonianos .


Para este filósofo, que ha sido definido por José Luis Abellán como ” un gran filósofo independiente “,el planteamiento de la llamada “física clásica”, al contrario de lo que sucedía hasta Newton ( y sus predecesores,Galileo,Kepler [51], Copérnico, Tycho Brahe ), ” toda la física clásica y moderna es física formulada con leyes analíticas,con puras estructuras de orden entre variables y constantes, sin esencial referencia a cuerpos concretos, fuera de la referencia indeterminada a “mobile quodam”, a un móvil cualquiera, como cualquiera es la constante (a) o la variable (x)”. “el Espacio se presta a tal tipo de tratamiento analítico puro. El Espacio es una “variedad” (Mannigfaltigkeit) ,no una multitud actual ; que algo muy diverso es que sobre esta mesa haya “muchos” libros y otra el que el agua pueda estar en muchos “estados”.Y por ser el Espacio algo absoluto, indivisible,único, (wessentlich einig, de Kant ) es de tipo

” variedad” , multiplicidad ni múltiple ni multiplicable en “muchos” : lo irremediable ya en plural.

De ahí que el Espacio se exprese por constantes y por variables (a,b,c…,x,y,z…) y que sus estructuras,las del puro al lado de ,fuera de,desde,hacia,distancia…deben ser expresadas por funciones entre constantes y variables,vgr.,por la fórmula del elemento de distancia infinitesimal ,

Ds2 = g (m,n) dx2 dx2 ;

o que la línea “espacial”, la que no es de ninguna cosa, como lo es la línea que hace de canto de este lápiz, se exprese por

y = ax +b , o por F (x, y) = 0 ,

tratándose de una línea cualquiera ; o que la superficie “espacial” ,la que no puede llevarse como piel, tenga por fórmula

z = ax + by + z ,o F (x,y,z) = 0 ,etc.

Por esto dirá sutilmente Newton que “los espacios” – así, en plural,según las pretensiones apropiatorias de las cosas – ,son “semilugares” (quasi loca),es decir : no pueden llegar a ser lugares -de las cosas,o espacios-de-cada-cosa. Las cosas quedan,a lo más, colocadas en el Espacio ; son caso espaciales,o quisiespacio.(Y,tal vez,como descubrirá la física moderna cuántica,las cosas no pasaban de ser quisicosas,casi-casi cosas)”.Lo mismo dirá García-Bacca acerca del Tiempo newtoniano,en tanto es un tiempo “absoluto”, y cita al propio Newton :”El flujo del tiempo absoluto no puede ser alterado. La misma es la duración o perseverancia de la existencia de las cosas tanto que los movimientos sean veloces, como tardos, como nulos”. “El tiempo relativo, aparente y vulgar es una medida sensible y externa de una duración cualquiera por medio del movimiento,y de la que se sirve el vulgo en vez del tiempo verdadero;cual la hora,el día,el mes,el año”.[52]

De gran interés gnoseológico consideramos la siguiente constatación de García-Bacca sobre las Ideas de “masa” y de “fuerza” : “La física newtoniana se integraba de dos conceptos indefinibles : Masa ,como sustituto “real” de causa material ; y Fuerza , como sustituto “real” de causa eficiente”.[53]

García-Bacca lleva a cabo un “regressus”( en el sentido de Bueno [54] ) para tratar de determinar la “estructura esencial” de conceptos como Espacio y Tiempo en la física de Newton.

En primer lugar, dice Bacca , “precedió en la historia del pensamiento físico clásico un período de eliminación de la causa material antes de llegar al concepto de “masa”.” Al contrario de lo que sucedía con la física en Sto.Tomás, de la que la unión real de materia y forma resultaba el compuesto real del ser físico real, Newton hace desaparecer esa separación entre pasividad y actividad al establecer que ya no pertenecen las leyes físicas ni a los individuos ni a las especies, diferencias específicas y accidentes individuales son eliminados de la “forma” de la física.

El concepto de causa es sustituido por el de fuerza, y en este sentido podemos entender las palabras de Newton, en el libro III de la Optices :

“estos principios,por ejemplo,la gravitación,no los considero cual si fuesen cualidades ocultas que se finja provenir de las formas específicas de las cosas, sino como leyes universales de la naturaleza por las que se forman las cosas mismas”,y añadía ” no dudo en proponer los antedichos principios (inercia, gravitación…)como principios del movimiento porque están difundidos amplísimamente por la naturaleza toda; pero dejo de lado la investigación de sus causas”.

Newton ,al relacionar a través de la “igualdad”, la fuerza F y la masa m y la aceleración a,(Segunda lex),está dejando atrás la explicación causal aristotélica, para introducir una explicación situada en un “campo”, que deberá ser complementado, la fórmula F = m.a , con la introducción de potencial cinético (Helmholtz),de energía potencial, en la formulación de Lagrange  y las funciones de Hamilton ,es decir, en expresión de García-Bacca: “los aspectos cósmicos, las magnitudes físicas en cuanto acampadas en el Campo del Mundo”. [55]




Crisis de las ciencias europeas y la física clásica . Nuevos paradigmas


Edmund Husserl plantea el hecho de que Locke y Hume llevan a la situación de un escepticismo tal que no hay fundamento gnoseológico par ala “verdad científica”.Según Husserl,lo que sucede es que se olvida el planteamiento gnoseológico para caer en el problema “psicológoco” ,es decir,concebir nuestro conocimiento de los datos empíricos con nuestro proceso psicológico y no con nuestra relación ontológicamente dada con los mismos lleva ,en el caso de Kant , a errores de tal magnitud que Husserl llega a hablar de una especie de construcciones míticas, como sería la idea kantiana del noúmeno. [56]

Quisiera ahora recordar la obra de otro filósofo español que murió en el exilio en México, se trata de Eduardo Nicol. En su libro Los principios de la ciencia , hace una importante reflexión, que a mi juicio, debe ser tenida en cuenta en el ámbito que nos ocupa.” La historicidad de la física compromete el fundamento en que había creído constituirse esta ciencia tradicionalmente.[Transcribo aquí su nota explicativa sobre esta idea]:

“Lo grave no es que la relatividad y la mecánica cuántica obligaran a cambiar por otro el esquema teórico de Newton. Lo grave ha sido comprobar que unos esquemas como éstos puedan y deban cambiarse; pues el valor de la ciencia física se fundaba, al parecer, precisamente en el supuesto de que tales esquemas eran inalterables. La confusión entre principios y esquemas de teoría ha producido ahora entre los físicos el convencimiento opuesto, de que la ciencia no tiene principios, por consiguiente, puesto que la ciencia sigue prosperando sin tenerlos, una investigación de los principios parecería tan superflua que no tendría siquiera carácter científico: sería una mera “especulación metafísica”.[57]

El cambio de paradigma(utilizando el modo de expresión de Kuhn),de Newton a Einstein,supone que el describir los fenómenos del espacio y tiempo como absolutos,en Newton, ha de explicar el movimiento y el reposo,no como sustancias, sino desde las coordenadas de dos variables separadas,digamos,a saber,las variables del lugar que ocupa el cuerpo en movimiento y la de la fuerza con que se mueve en cada momento. El definir la masa de un cuerpo en relación a su “vis insita”(inercia),supone que debe ser calculada “geométricamente” su posición en el espacio en un momento dado .Y esto supone que ha de calcularse el tiempo, pero siempre dentro de la relación a su distancia y la gravedad, que es una constante que está relacionada con la masa.

Lo que hace que la teoría de Newton sea ” falsada “, si vemos la cuestión bajo la perspectiva gnoseológica de Popper,es ,no que Einstein llegue a plantear la relación entre fuerza ,masa y aceleración de manera distinta radicalmente, sino que la separación


( mecanicista) entre espacio y tiempo, haciendo cálculos separados para la causa sin tener en cuenta que la masa es un elemento cuyo papel en el cambio resulta crucial, supone una limitación, que ya vio Leibniz, y que Huygens ya trata de solucionar al hablar de “fuerza viva” e introducir la proposición de que la fuerza que para newton era proporcional al cuerpo que la posee , según la propuesta de Huygens era el producto de la masa por el cuadrado de la velocidad.

Einstein, en la relatividad restringida supone que “la energía de un punto material con masa m ya no se expresa con la fórmula tradicional


M =



sino con la fórmula


la cual [la masa]se aproxima al infinito en la medida en que la velocidad v se acerca al valor constante y límite de c . La velocidad es, pues, factor definitorio de la masa, cosa que no ocurría en la física de Newton ,y la fuerza no es sólo una propiedad inercial de la materia, sino que, en forma de energía, es un equivalente ontológico de la materia. Materia y energía son una misma realidad con dos formas fenoménicas : son la realidad física”.[58]

El asunto,en la Historia de la Ciencia, implica introducirnos en el tema de lo que se denomina la “dinámica”, y superar el campo restringido de la mecánica ,dicho en los términos de Nicol,” en una dinámica del tipo de la leibniziana , por el contrario [que la de Newton] ,la energía es irreductible a los conceptos de fuerza inercial, de acción mecánica, de trabajo, de energía cinética,  etc., porque es algo más radical, algo cuya existencia permite conocer el ser de lo físico, y que procede de este ser mismo; de tal suerte que el despliegue de fuerzas que se produce durante el movimiento puede ser referido a esa energía radical como a su causa primitiva “.[59]

El problema de la “invención de las hipótesis” del que hemos mencionado anteriormente su complejidad, surge aquí nuevamente a raíz de la distinta concepción de la mecánica y el modo de manejar los fenómenos de la extensión y el reposo y el movimiento. El estudio llevado a cabo por Koyré es imprescindible, como ya hemos mencionado, aunque aquí no podemos extendernos en su detallada argumentación, pero el caso es que Newton sí introduce “hipótesis”, cuando le hacen falta ,y ello no es ,si nos olvidamos de los prejuicios psicológicos  a los que se refiere Husserl cuando tiene en cuenta a Locke y Hume, si de lo que se trata cuando se hacen esas hipótesis ,es de buscar lo que Bueno define como “identidades sintéticas”. La teoría de Newton no queda “falsada” por la nueva manera de entender la relación entre la masa y la energía, sino que se corrigen algunos de los aspectos que no habían llevado a cabo el “cierre” categorial, es decir, si Newton no fue capaz de establecer algunas de las “categorías” de la física, no significa ello que toda la física de Newton esté equivocada en sus principios y reglas .Y los principios de los términos y las relaciones ,podemos decir ,son dialécticamente construidos, no resultan absolutamente independientes de los fenómenos, cuya estructura esencial se trata de explicar a través de leyes, de cuya concatenación se llega a teorías generales, pero ello no supone que esas teorías no son históricas. En el sentido dicho de que los contextos determinados son necesariamente dependientes de contextos determinantes que se pueden variar ,y ello no es debido a cuestiones de “construcción de teorías” ,desde leyes formales sometidas a la lógica matemática, sino que son los fenómenos los que hacen necesario, al irse comprobando datos y sometiéndolos a los dialogismos necesarios, esas variaciones en las teorías, pero la “forma” lógica no es el motivo de las variaciones, sino nuestra manera de construir el cuerpo de las ciencias a través de la propia construcción material de las categorías que lo conforman.

La causalidad como problema en la filosofía de la física :

Cuando se considera que los cuerpos materiales están formados por átomos y moléculas comienza a adoptarse en la física la tesis de Leibniz,” según la cual las leyes dinámicas de la materia dependen de la composición interna de la materia misma”, explica Nicol, y esto supone que el problema se expone en relación con el estudio del calor. Lavoisier y Laplace en su célebre Mémorie sur la chaleur, ” declaran que el calor es la fuerza viva que resulta de los movimientos insensibles de las moléculas, y que el valor que lo representa es la suma de los productos de la masa de cada molécula por el cuadrado de la velocidad”.

La ecuación


P= 1/3   mn V2

Donde p es la presión, n el número de las moléculas por unidad de volumen, m la masa de cada molécula , y V2 el cuadrado de la velocidad. El producto mn del número de moléculas por la masa total del gas , por unidad de volumen , y constituye la medida de su densidad “.

En esta ecuación queda el factor decisivo  no está determinado unívocamente porque el factor V2 representa “el promedio del cuadrado de la velocidad”.Aquí se empieza a utilizar el cálculo de probabilidades en la física.Tanto Maxwell como Boltzmann emplean la ley del error de Gauss, [60] es decir, el término “azar” se introduce en la ciencia. Pero las leyes estadísticas siguen siendo leyes causales, la capacidad de predecir los fenómenos sigue siendo igualmente una de las actividades de la ciencia.

Un asunto muy polémico, en este contexto, es el siguiente: si al establecer las medidas y sus cálculos, en el nivel macroscópico son aceptables “errores” estadísticamente controlables, en el caso de las medidas de los niveles de la materia microscópica, esos “errores” pueden resultar enormes, de tal modo que ya no es posible establecer viables cálculos que puedan predecir los fenómenos, en base a tales estadísticas.

Energía y materia : ondas y partículas .

En el nivel atómico, la energía y la materia aunque son distintos componentes de la misma materia, están “ligados” de tal manera que, al hablar de discontinuidad, se está hablando no sólo de esa discontinuidad entre el mundo macroscópico y el microscópico, en cuanto a lo que respecta a que la discontinuidad entre materia y energía que se advierte en el nivel microscópico no se advierte en el macroscópico Pero hay que establecer con claridad que es imposible que esta dualidad en la discontinuidad real no puede tener un fundamento teórico, pues es imposible, tal como Nicol lo plantea, que “la causalidad sea vigente en un sector de la realidad y no en otro sector”.

La constante de Planck, que no es sino un factor de proporcionalidad sirve para expresar esta discontinuidad de la energía de la que venimos haciendo referencia.Las emisiones de radiación no se producen como un fluido continuo , (a esto se refiere la discontinuidad entre materia y energía, que es otra cuestión diferente de la discontinuidad entre macro y micro física),sino en cantidades finitas proporcionales a la frecuencia de la onda. La expresión matemática de este fenómeno aportada por Einstein es la siguiente

E = hv

Donde v es una variable que expresa la frecuencia de una emisión de energía(número de vibraciones por segundo); h es un factor constante y E es el cuanto de energía que es siempre múltiplo de h.

En cuanto a lo relacionado a la discontinuidad corpuscular , los átomos están compuestos, como es sabido, por los electrones, cuya carga es negativa, que giran en torno a un núcleo pesado de protones, partículas con carga positiva. No se trata de unidades simples, sino de una tal complejidad en su estructura que va aumentando al descubrirse constantemente nuevos elementos nucleares.

Se ha demostrado que el electrón se comporta como un corpúsculo cuando se mueve en un campo magnético o eléctrico exterior, pero al ser difractado por un cristal, se comporta como si fuese una onda. La luz, pues , parece ser a la vez corpuscular y ondulatoria. La discontinuidad es un factor irreductible en ambos casos. Cuando un electrón gira en torno a un núcleo, emite ondas electromagnéticas de la misma frecuencia que la rotación. Pero por otro lado, a ecuación de Einstein muestra que la energía de la onda depende de su frecuencia. Por lo tanto, si la frecuencia es discreta también loes la energía.

Así, tenemos la posibilidad de mostrar que de tal ecuación se deriva otra que tiene en cuenta el factor longitud de onda y no el factor frecuencia, se trata de la ecuación que nos propone De Broglie

p =  h lambda

en la que p representa el estado de movimiento del electrón y lambda la longitud de onda .El factor lamba es inversamente proporcional al factor v , es decir, la longitud de onda es inversamente proporcional a la frecuencia, el aspecto corpuscular pues, en ambas ecuaciones, está asociado al aspecto ondulatorio .   Lo que sucede en este asunto , es que la física cuántica ya no estaba en posibilidad de utilizar los esquemas de la física clásica, ya que era imposible aplicar el mismo esquema newtoniano del punto material”, porque lo impiden tanto el factor de discontinuidad de la  constante de Plank h como el factor ondulatorio v y lamba. A esto se le ha venido denominando “principio de indeterminación de Heisenberg .

La Idea de causa y la relación materia / forma .

Causalidad en el sentido de la física ,y desde las coordenadas gnoseológicas que hemos propuesto, siguiendo a Bueno en ello,

Supone que ,en el caso de la teoría del cierre categorial , materia y forma, como venimos diciendo, son “conceptos conjugados” ,en el sentido siguiente, a saber :

“Consideramos, en resolución, a la forma y a la materia como partes del cuerpo conformado. Al cuerpo conformado le atribuiremos el papel de “todo”. Esto nos lleva a entender las relaciones de unidad entre forma y materia en términos de una conjugación de conceptos. Si tratamos a la materia y a la forma como conceptos conjugados, la forma(que ya no se concebirá como principio global)equivaldrá a la misma codeterminación de las diferentes partes que constituyen la materia del todo. Por ejemplo: el alma de los seres vivos, como forma, equivaldrá a la misma “armonía entre las partes del cuerpo”, según leemos en el Fedón  platónico. O bien : el espacio-tiempo de  Minkowski ,en la teoría de la relatividad general, asumirá las funciones de forma como expresión física de la codeterminación de las masas materiales ligadas por la gravitación; y, por ello, el espacio-tiempo de Minkowski consistirá íntegramente ( en tanto sea un contenido físico con curvatura positiva y no un concepto meramente matemático) en la codeterminación diamérica de las masas gravitatorias. Por ello sólo cuando el espacio-tiempo de Minkowsi alcance el límite 0 de su curvatura, se convertirá en forma pura separada, carente ya de entidad física (precisamente, para ese valor de su curvatura, la materia ha desaparecido, y el espacio-tiempo es un espacio-tiempo absolutamente vacío). “…Para llenar nuestra finalidad – decía Einstein – es necesario vincular los conceptos fundamentales de la Geometría con objetos naturales, pues sin esa vinculación esta ciencia no tiene ningún valor ni significación para el físico”. Por tanto, la presencia de las funciones diaméricas de forma y materia podrá advertirse también en las ecuaciones relativistas que ligan los tensores métricos y los tensores energéticos. En efecto, aquéllos se refieren a la estructura geométrica(“formal”) o curvatura del espacio tiempo de una región considerada, y éstos al contenido material (energía/impulso) de la región que es fuente de la curvatura ligada a los fenómenos”. [61]

El reconocimiento hecho por Einstein, de la enorme importancia que las consideraciones de la “nueva geometría” ,llamada por algunos no euclideana, en la que puede haber la posibilidad de que no sea sólo el lugar determinado en las coordenadas planas(espacio de curvatura nula o euclideano) ,no implica que puede ser estudiado el problema, como, a mi juicio, hace Nagel , sin tener en cuenta, como lo hace el propio Einstein, el problema de la necesidad meramente formal de introducir una cuarta dimensión, sabiendo que no es factible fuera de la construcción matemática formal. Es decir, cuando se deja de tener en cuenta la relación entre materia y forma de la física. Einstein tiene mucho cuidado en no caer en teoreticismos o en descripcionismos, cosa muy delicada tanto desde la gnoseología como desde la propia ontología de la ciencia. Comentamos esto porque en el libro La estructura de la ciencia, Nagel analiza las “otras geometrías” y sus relaciones ,como si de problemas “teóricos” se tratase,  sin tener presente la relación de conformación o conjugación con la materia. Es decir,la física, cuando debe recurrir a los tensores, por necesidades derivadas de los nuevos problemas surgidos al estudiar el comportamiento de partículas atómicas, no determinables, en cuanto a su masa, aceleración , etc., desde las coordenadas euclidianas, este recurso es sólo una necesidad derivada de los contextos determinantes ,materialmente dados ,en los que el físico opera, en términos de la teoría circularista.[62]







Un ejemplo para la crítica gnoseológica :









Pongamos como muestra de esta experiencia, el modelo del teoreticismo .

Según Popper, la ley aquí experimentada, es expresada a través una formulación teórica, que será verdadera, siempre que no exista una nueva manera “ formal ”de explicar los fenómenos experimentados ,y desde su teoría de la ciencia, lo que hará que la teoría en cuestión(hipótesis o ley científica)sea “falsada” por el surgimiento de nuevas experiencias “inductivas”, que llevan a proponer otras “conjeturas”. Es decir, como es sabido, para Popper, lo que se da en la ciencia no son leyes(en cuanto a que su verdad pudiera ser considerada como  universal y verdadera), sino meras conjeturas, que al ser refutadas o “falsadas”, aunque la lógica de su construcción fuera impecable(su formalización), los hechos empíricos acaban mostrando que su capacidad de explicar los fenómenos de un modo plenamente satisfactorio, es una mera quimera epistemológica.

Este experimento no es un caso aislable,desde la Historia de la ciencia. Se trata de un problema relacionado con el llamado número de Avogrado, y una hipótesis(la de Avogadro), que quedó confirmada un siglo después de ser enunciada.

Muchos elementos y compuestos se estudian en estado gaseoso. Se ha encontrado que en una reacción en que las sustancias iniciales y finales son gaseosas ,los volúmenes de los elementos y sus compuestos que intervienen están relacionados por una expresión muy sencilla. Para explicar la conducta de los gases Avogadro (1811)estableció su hipótesis de que volúmenes iguales de diferentes gases, en las mismas condiciones de presión y temperatura, contienen igual número de moléculas. Ampère apoyó esta hipótesis le hizo observar que, de ser correcta, debía conducir a un método para determinar las masas relativas de los átomos, y las proporciones en que deberían combinarse. ”  [63]


El número de Avogadro puede determinarse por dos métodos,  a saber : el estudio de la electrolisis y el estudio del movimiento browniano de partículas suspendidas en un fluido.

Esto muestra cómo puede,desde el cierre categorial , ser una propuesta para la gnoseología de la ciencia, el concepto de identidad sintética, en este caso, tenemos que hay dos modos de llegar a un mismo cierre, es decir, el número de Avogadro no resulta una hipótesis ,eventualmente “falsable”, sino que se trata de una constatación a la que se llega, cerrando categorialmente el campo fenoménico de las partículas de los distintos componentes de los cuerpos , mediante leyes que responden a estructuras esenciales de dichos fenómenos.

Es por ello que queremos mostrar aquí el modo en que se construye mediante esa conjugación entre materia y forma de la que venimos hablando,el “tejido” gnoseológico de la ciencia,


Volviendo a nuestro ejemplo, que tiene relación con el problema de los pesos atómicos y masas de los elementos, además de sus cargas electrónicas, tenemos que,si se elige el estudio de movimiento browniano de partículas ,es preciso, además, para relacionar los términos del campo operatorio(que incluye además de los elementos,los aparatos y todos sus componentes ,definidos y clasificados en ese “históricamente dado” complejo de modelos y demostraciones)con las normas ya propuestas en el eje pragmático. Por ejemplo, en el caso de este experimento de Hopper y Laby para determinar la carga del electrón ,hay que tomar en cuenta el problema del llamado “movimiento browniano”.[64]

No se trata de algo tan sencillo, sino que es preciso tener en cuenta,para comprender el alcance del número de Avogadro y su relevancia para la ciencia física y química ,es necesario tener en cuenta las llamadas leyes de Faraday, que explica el comportamiento de partículas en las cubas electrolíticas , a saber: M= kQ (la cantidad de una sustancia liberada en una solución sólo depende de la carga total que pasa a través del circuito.

M es la masa depositada en el electrodo; Q la cantidad de carga que ha pasado a través del electrolito y k un factor de proporcionalidad llamado equivalente electroquímico de la sustancia.

La segunda ley de Faraday                A    1

M = Q   ——–

V    F

Para cada sustancia, la masa depositada al circular cierta cantidad de electricidad es proporcional al equivalente químico de la sustancia

La razón del peso atómico a la valencia del elemento , A/v , es el equivalente químico de éste , y F es una constante de proporcionalidad llamada constante de Faraday , o simplemente faraday .

Hemos propuesto este caso de una “célula gnoseológica” del “cuerpo de la Física”, porque consideramos que a través de él, podemos hacer una crítica de Popper y de Bunge ,al menos de un modo muy general, sin entrar en detalles, pero que puede muy bien servir como modelo crítico,en el sentido mencionado de la perspectiva de cuatro “familias” de teorías de la ciencia.

Estas mediciones ,cuya precisión en cuanto a las medidas se va perfeccionanado ,no supone que se esté dando un “falsacionismo”,alestilo de lo que Popper propone,ni tampoco que los planes, -en el sentido de la heurística (negativa o positiva) que forma parte de los llamados “programas de investigación”,de los filósofos de la ciencia Popperianos,Lakatos y Musgrave- sean dejados de lado ovariados,lo que sucede es que se va llevando a cabo lo que Bueno define como”cierres” operatorios .Aquí vemos que el concepto de “inducción” de Popper tiene poco que ver con la práctica de los físicos atómicos y nucleares.Se parte de determinadas “teorías”,que no son “aproximaciones altamente probables”,sino que son teroías que se han ido “construyendo” al conjugar las formulaciones “formales”(matemáticas),que ,apoyadas siempre ,en los datos observados o en sus efectos observados, van dando lugar a leyes: las “normas” de que habla Bueno, en tanto partes constitutivas del eje gnoseológico pragmático.Debemos recordar que la teoría falsacionista de Popper no es ni psicología ni sociología de la ciencia.Como explica acertadamente Jorge Serrano:

“Es cierto que lo que ocurre en la mente del científico puede interesarle a él y a su familia,a quien escribe su biografía,o a quienes se interesan por ciertos aspectos de la psicología y/o de la sociología, pero no influye en la valoración de su obra. Frente a la obra de un científico lo que uno debe preguntarse es: ¿qué nos dice la teoría? ¿Es internamente consistente? ¿Es genuinamente empírica o analítica? ¿Cómo resiste la comparación con otras teorías ya contrastadas? ¿Nos dice más que ellas? ¿Cómo puede ser contrastada? El mundo científico la aplicará en condiciones particulares y mediante procesos deductivos, derivará consecuencias lógicas en forma de enunciados particulares que puedan ser contrastados por la observación y el experimento. Cuanto mejor parada salga de estas constataciones con otras teorías tanto mejor será considerada como corroborada”.[65]

Para terminar este apartado sobre la filosofía de la física, quisiera comentar que ,dado el programa propuesto y la necesidad de pasar a las cuestiones relativas a la filosofía y las ciencias sociales, y la Parte Tercera, quiero terminar este apartado comentando que los planteamientos de Kuhn acerca de los “paradigmas” y las revoluciones científicas, suponen un modelo de hacer filosofía de la ciencia que se enfoca más a criterios históricos que a criterios gnoseológicos y que no podemos tratar in extenso aquí,por falta de espacio y por considerar una cuestión gnoseológicamente implícita en nuestra crítica a otros modelos, la crítica ala posición de Kuhn; considero, sin embargo ,crucial el estudio de este autor, para la Historia de la Ciencia.

En cuanto a la filosofía de Bunge y su insistencia en la “metodología” como elemento fundamental de la ciencia, quiero sucintamente comentar que resulta poco interesante su insistencia en la cuestión de la metodología, pues se dejan de lado probelmas muchomás relevantes,tales como esta realción entre la “forma” y la “materia” de la ciencia. El caso de la utilización de “modelos”, por ejemplo,lo que interesa no es criticar el uso de modelos como parte de la metodología de la ciencia, sino el reduccionismo creciente de la ciencia a la elaboración de modelos,”formales”,que dejan en muchas ocasiones,a la experiencia,a la materia,en segundo plano.Esto sucede, como veremos en el próximo apartado de esta Parte Segunda, en la que hemos de analizar la cuestión de la “demarcación” entre ciencias físico naturales y ciencias sociales o humanas. Es el momento en que resulta interesante introducir algunos elementos no comentados hasta el momento ,de la Teoría del Cierre Categorial. Nos referimos en concreto a la concepción de las metodologías alfa y beta.


3- La ciencia social :la teoría general de la información

Uno de los problemas que encontramos al tratar cualquiera de las llamadas ciencias

sociales o ciencias humanas, es el de la objetividad de las mismas.Como es sabido,

este fue uno de los principales “puntos de crítica” que hacía el Círculo de Viena y todo

el neopositivismo del siglo XX a la “metafísica” ,en cuanto ella trataba de ser ,

digamos,el modelo para la ciencia social(e incluso la natural).

Desde el circularismoo Teoría del Cierre catgeorial,se ha hecho un planteamiento que se

muestra en este apartado.Sin embargo,quiero introducir un tema muy puntual en este

momento.Se trata de la cuestión de la metodología,en cuanto a criterio para diferenciar dialécticamente ambos tipos de ciencias.[66]

Parte Bueno del concepto de “operaciones apotéticas”( de separar/aproximar)Todas las operaciones se dan en un “ámbito proléptico”,esto es: no hay operaciones al margen de

una estrategia teleológica”.

Tenemos,además,que la ciencia parte ,en general,de dos tipos de situaciones que Bueno

propone denominar como “alfa” y como “beta”.

Uno de los criterios del cierre categorial consiste en “el proceso de neutralización” de

las operaciones.[67]

Se propone el principio gnoseológico general que “prescribe” :a) el regressus de los

fenómenios a las esencias y b) el progressus de las esencias a los fenómenos.

Dentro de loque Bueno concibe como “Teoría general de los estados internos de equilibrio” encontramos las siguientes propuestas gnoseológicoas:

(I)                 metodologías alfa-operatorias : el estado límite de ellas ,por ejemplo,la Ciencia

histórica dejará de serlo para ser Ciencia Natural.

Situación alfa 1 : se da “en aquellos casos en que el regressus conduzca a la eliminación

total de las operaciones y de los fenómenos humanos(“de escala humana”).

Situación alfa 2 : no está dicho que todo curso operatorio tenga que dar resultados

operatorios. La Etología,puede servir como ejemplo de esta situación.También podemos

concluir un camino de progressus que partiendo de las operaciones y sin regresar a sus

factores naturales anteriores considere los eventuales resultados objetivos ( no operatorios)

a las que esas operaciones puedan dar lugar.Tendremos dos modos inmediatos de abrirse

camino las metodologías alfa dos ,a saber:

Las metodologías I alfa dos: se parte desde situaciones beta,pero se llega a alfa dos:

Pavlov,la Etología.

El modo segundo,modo II alfa dos: cuando las estructuras o procesos puedan considerarse específicas de las Ciencias Humanas o Etológicas.

Tanto en I alfa dos como en II alfa dos,las operaciones beta están presupuestas,no ya ordo cognoscendi sino ordo essendi por las estructuras o procesos resultantes,los cuales

neutralizarán las operaciones “envolviéndolas”,pero una vez que han partido de ellas.[68]

Entre la metodología alfa y beta se produce una antinomia.Al respecto señalemos que no

se acepta la distinción entre Cultura y Hombre ni entre Espíritu objetivo/Espíritu subjetivo

de Hegel. Bueno propone la siguiente idea: ” las estructuras culturales se parecenmás a las geométricas o a las aritméticas que a las etológicas o psicológicas”.

El estado límite en las metodologías beta es designado como beta dos.”Las disciplinas práctico-prácticas no tienen un campo disociable de la actividad operatoria, puesto que

su campo son las mismas operaciones(…)en tanto están sometidas a imperativos de orden moral,económico,político,jurídico/…(estamos ante “tecnologías” o “praxiologías” en

ejercicio”.En esta situación se encuentran la Jurisprudencia,la ética includens prudentia,

la política económica, etc.

En cuanto a la situaciónbeta uno,la determinación de las operaciones se puede dar de dos modos,que son los siguientes:

a)Un modo genérico(I-Beta 1) : en estos casos,en los que se determinan las operaciones

a través de contextos objetivos (objetuales),aparentemente estamos en II-alfa2,pero no es así,puesto que se regulan ,en la situación I Beta uno,las disciplinas científicas por el criterio

del verum est decir,se regulan por el conocimeinto del objeto que consiste en

regresar a los planos operatorios de su construcción. Un ejemplo de ello sería el caso de las ciencias de estructuras tecnológicas.

b)un segundo modo de la determinación de las operaciones ,que denomina el circularismo

como II-Beta uno,en el que las operaciones aparecen determinadas por otras operaciones(procedentes de otros sujetos gnoseológicos).Este sería, pongamos por caso,

el problema de la Teoría de juegos.Cabe preguntarse si es una disciplina matemática o no

lo es.La característica más importante ,su imposibilidad de una perspectiva neutral,no partidista,que abarque a todos los jugadores a la vez.La imposibilidad de que una persona

juegue al ajedrez consigo misma.

A continuación expondré dos diferentes proyectos ya realizados ,(con prioridad a la

elaboración de este Proyecto Docente), y que simplemente pongo a la consideración

como dos tipos de propuestas para el estudio de los problemas en ellos expuestos,en

tanto que “guía de estudio”,pues considero que en ellos hay una serie de problemas que

resultan interesantes para ser puestos bajo la crítica gnoseológica de la filosofía de la ciencia,

que considero ,debe tener en cuenta el estudio de las llamadas ciencias sociales,no sólo,

como parece ser que ha venido siendo tradicional en muchas ocasiones,el estudio de las

ciencias naturales.

El hecho de centrarme en la llamada ciencia de la comunicación social o de masas,es

sencillamente que puede ser más asequible y puede ayudar a centrar ,digamos,el objeto de estudio,además de haber sido parte de mis investigaciones en los últimos años,por lo que considero que puedo manejarlas con mayor soltura.

3.1 Proyecto de una crítica a Mc Luhan



(Algunas cuestiones sobre “El Hombre de la Galaxia Electrónica”)

“(…)Formulado por seudoo-pensadores,y popularizado en todas las formas posibles,se ha generalizado el convencimiento de que la civilización es privilegio de una élite,y que el hombre de la masa es sólo un medio para realizarla.Al mismo tiempo la ayuda espiritual a que tienen derecho les es negada a esos hombres que deben librar una dura lucha para conservar su naturaleza humana(…)(…)El hombre ahora tiene que afirmarse solamente contra las circunstancias que encuentra,y ya no más contra sus semejantes también(…)”.

SCHWEITZER,Albert; Kultur Und Ethic; Munich;1923.Traducido al español como Civilización y Etica;Sur Ed.B.Aires;1963)


“(…)el alma tiene aversión a imaginar lo que disminuye o reprime su potencia o la del cuerpo”.

SPINOZA,B.;Etica,demostrada según el orden geométrico.Parte III;Proposición XIII,Corolario.


El propósito que persigue este trabajo consiste en analizar los problemas de los llamados medios de comunicación,que presentan situaciones que han llevado a algunos “especialistas”-(profesores e investigadores de Facultades de Ciencias de la Información”,o en ocasiones llamadas “Facultades de Ciencias de la Comunicación Social”,o de “Ciencias y Técnicas de la Información”)-a plantear la necesidad de organizar “racionalmente”,desde los criterios de la “Ciencia”-en tanto garante de la “objetividad” y “verdad” de nuestros juicios al respecto-una Ciencia encargada de estudiar los fenómenos de la “Información” y de la “Comunicación”.

Este trabajo sería,posiblementte,poco creíble para aquellos que,como especialistas o “técnicos” o simplemente profesionales de los llamados “medios de comunicación”,en tanto que pudiese ser considerado por ellos como un “intruso” el autor de este trabajo,teniendo en cuenta que su “profesión” es la de profesor de filosofía y ética en un instituto de bachillerato.Simplemente quiero comentar dos cosas al respecto de esta posible crítica:

1)Mi interés por los medios dee comunicación-(considerando como tales la TV,la radio,la prensa y revistas escritas,el cine y el vídeo,pero también el ordenador,vídeo interactivo,internet,etc.,y claro que aunque algún lector de Mc Luhan pudiese haberse cegado por la novedad del llamado “hombre electrónico”,sigue habiendo un medio de comunicación que es el libro)-viene de tiempo atrás,ya que hace casi veinticinco años comencé a estudiar una carrera universitaria que me hubiese llevado a poder trabajar en el cine o la televisión,pero que por causas que no viene en este momento al caso,cambié por los estudios de filosofía “oficiales”.Quiero decir que aunque no he sido nunca periodista-sí he escrito artículos en prensa,sin percibir dinero a cambio-pude haberlo al menos intentado o lo que más me interesaba en esa época de juventud(a los veinte años)dirigir películas de cine.Por otra parte,la propia legislación no exige un título universitario para ejercer profesionalmente,por ejemplo,como director de cine,etc.

2)Considero que dado que cualqquier ciudadano de la “Aldea Global”-en el sentido de Mc Luhan-,aunque no sea emisor de mensajes,sí es receptor,y como tal,cualquier “ciudadano” de esa inmensa aldea electrónica,en cuanto es un sistema,puede participar o al menos debiera hacerlo.Si realmente la comunicación,para ser eficaz,en tanto mecanismo de adaptación al medio ambiente,implica la “retroalimentación”(o en inglés “feed-back”),en cuanto ella implicaría ,digamos,el intento de equilibrar el mensaje a través de la información,en el sentido de que el sistema busca-como causa final-mantener el orden,en tanto éste supone la garantía de mantenimiento de entropía “negativa”,es decir,que sirve para mantener el orden,frente al caos.

La participación en el análisiis de esta problemática,por lo tanto,no puede ser considerada como exclusiva de algunos expertos en medios,sino que afectaría a los diversos especialistas que tengan algo que ver con lo que genéricamente se llama “El Hombre”,o el “Ciudadano”,ahora bien,ello supone que habrá diversas maneras de considerar la cuestión que nos ocupa,y lo que parece primeramente pertinente es establecer unas coordenadas desde las que quede claro al menos “dónde situamos nuestro estudio”.Vamos a considerar dos cosas muy sencillas,pero fundamentales en este trabajo,a saber:

a)consideraremos el estudio dee la información y comunicación en la “Galaxia electrónica”-por contraposición a la “Galaxia Gutenberg”,en el sentido expuesto por Mc Luhan-desde la perspectiva de la filosofía crítica,una alternativa que supone que consideramos necesario partir de los saberes de nuestro tiempo que tienen relación con el problema que abordamos,y además será una filosofía materialista y no idealista.

b)Partiendo de la base mencionnada en a),planteamos la necesidad crítica de utilizar,para una mayor “fertilidad” de nuestro análisis,el concepto de “espacio antropológico”,ya que nos permite “ver” con mayor claridad el problema de los “medios”,en tanto que éstos y su actual desarrollo-vinculado,como es bien sabido,a la industria y las finanzas,dentro del llamado “neocapitalismo”,y por supuesto,a los intereses políticos y militares-no pueden ser considerados,nunca-so pena de incurrir en análisis que,por decir medias verdades,o verdades a medias,al dejar fuera cualquiera de los elementos del “sistema” en tanto que forman una red interactiva de carácter permanente-como aislados,en el sentido de funcionar autónomamente.Me refiero en este momento al caso de un artículo publicado en la revista “El Basilisco”,titulado “Filosofía y comunicación:de la polis a la telépolis”.()El artículo firmado por Eugenio Moya Cantero-que no debemos olvidar que fue presentado como ponencia en un Congreso de Filosofía celebrado en Granada,España,en septiembre de 1995 bajo el tema general:”)Para qué Filosofía?”-plantea tres “hipótesis” o ,como él las denomina,”conclusiones”.La primera consiste en afirmar que la filosofía surge a partir de los textos escritos como una reflexión sobre ellos y a partir de dicha interpretación,se habría dado el surgir de la filosofía como interpretación de las cosas a que dichos textos harían referencia.

La segunda conclusión de Moya Cantero sería que al surgir la imprenta,el individuo podía ya ilustrarse al leer por sí mismo el libro escrito por el “sabio” elegido por el lector,sin necesidad de esperar que alguien se lo leyera en voz alta.El progreso engendrado por la época de la Galaxia Gutenberg sería debido,además de al progreso de la técnica y las ciencias,al esfuerzo por “ilustrar”,es decir,por alfabetizar a los ciudadanos.

La tercera conclusión es que &”(…)Es la pérdida del libro impreso como soporte de la cultura y su sustitución por medios electrónicos lo que amenaza hoy tanto con la deriva tecnológica de la conciencia moderna como con convertir a la filosofía en una actividad anacrónica y disfuncional(…)”.

No quiero entrar en discusionees acerca de cuestiones defendidas por el autor del citado artículo muy discutibles,como son:la afirmación de que la escritura alfabética trae consigo una progreso en cuanto que las culturas anteriores(pensamiento pre-lógico)fueran más atrasadas respecto a su “capacidad de pensamiento lógico”.Por cierto,el propio Mc Luhan plantea la cuestión en el libro “póstumo” La aldea global,de manera más convincente que Levi- Strauss o Levy-Bruhl.

Afirmaciones como la de que el <homo typographicus sería un “pensador solitario”,tal como plantea Moya citando a Apel,nos parece absurdo,ya que dicha afirmación olvida que el libro era ya desde los primeros años,un modo de “comunicar” las ideas de su autor.Por ejemplo,la lectura de Rousseau en el México del siglo XVIII influyó en los hombres que harían del movimiento revolucionario de independencia que el nuevo modelo político,educativo,afectase al modelo alternativo,en el cual la Iglesia era considerada la monopolizadora,por ejemplo,de la educación de los “ciudadanos”.Los filósofos,como Locke,no eran solitarios sabios que “parían modelos políticos” en sus paseos matutinos o vespertinos,sino que eran partes de un todo en el que había implicados intereses de diversos grupos o clases sociales,de los que en un momento dado podían llegar a ser una especie de “portavoces”,en cuanto serían,podemos decir,”forjadores de opinión pública”,al estilo de los periodistas en la actualidad.

Mc Luhan no afirmó-y ello quedda bien claro en el libro La aldea global,el cual por cierto Moya ni siquiera menciona,lo mismo que sucede con el importante libro posterior a The Gutenberg Galaxy,titulado Understanding Media-que los medios

“trabajaban para acercar a los ciudadanos de todos los pueblos”,en el sentido que lo plantea Moya.En todo caso,Mc Luhan,tal como se plantea en Understanding media,temía,en los años sesenta,cuando publicó ese libro,-quizá fuera influido por el “ambiente cultural y político de esa época”-,que el mensaje fuese utilizado como “masaje”,en su célebre afirmación de que “el medio es el mensaje”,pero llegó a plantear este juego de palabras:”message is massage”,el mensaje es el masaje.El planteamiento de Mc Luhan en Understanding Media,no se limitaba a la afirmación de que los artefactos son prolongaciones de nuestro cuerpo,cuestión que tendría que ver con la relación entre las Ideas de Naturaleza y Cultura.El planteamiento de ese libro crucial-(que por cierto está agotado y es una pena ya que a mi juicio es muy valioso para el estudio de los medios de comunicación,)será acaso considerado como “políticamente incorrecto”?)-,insiste en una cuestión que no resulta,para el estudio crítico de la comunicación,secundario,como parece al leer algunos libros sobre el tema.Me refiero a la teoría de Mc Luhan de que hay medios “cálidos” y medios “fríos”.Los medios cálidos serían aquellos en los que el receptor del mensaje participa “activamente” en la interpretación y descodificación del mensaje,como sucede en la gente que lee un periódico de los considerados no de “masas” sino de “élites”.Un medio de comunicación frío sería el que supone por parte del receptor del mensaje una participación “decodificadora” baja o prácticamente nula.

Como plantea Jesús Timoteo Alvvarez,en el libro Historia y modelos de la comunicación en el siglo XX,habría medios “masivos” de comunicación y medios de “élite” de comunicación.Según él,un diario como El país,o el Washington Post,serían diarios de “élite” y otros diarios de tipo “amarillista”-(que venden los “escándalos,las imágenes llamativas”)-serían “de masas”.Lo mismo sucedería con los programas de radio o de TV.Sería el caso,pongamos,de Tele 5,que vende imágenes,más que dar informaciones serias o dirigidas a “élites” de espectadores “no masivos”.Considero que esta afirmación es muy discutible,porque los medios de comunicación son parte de intereses políticos,financieros,religiosos,muy determinados,y no en vano se les ha denominado como “el cuarto poder”.Quiero decir que,aun aceptando que hay ciertos medios “elitistas”-o quizá mejor habría que pensar en medios “mixtos”,que en ocasiones parecieran dirigir su mensaje a “élites” y en ocasiones a la “masa”-considero que un diario como el Washington Post o el New York Times,dirigen sus mensajes a lectores de “élite”,pero el lector no siempre está preparado para manejar o descodificar adecuadamente esa información,que ha sido “cribada” porque el diario está al servicio de determinados intereses políticos y financieros.Cuando se ve esto con claridad,es en el caso de la información sobre política exterior del gobierno de los Estados Unidos,tal y como trata de demostrar Noam Chomsky en varios de sus libros sobre la cuestión.

Volviendo a los planteamientoss de Moya,creo que las teorías de Mc Luhan han de ser analizadas desde la perspectiva de la Idea de “espacio antropológico”,tal y como lo intentó-sin ser consciente de que utilizaba ese “modelo” de análisis materialista propuesto por Bueno-el propio Mc Luhan.

Para Mc Luhan,resulta muy clarro el poder económico y político de los nuevos medios de emisión y control de información.Pone como ejemplo,en el libro La aldea global,el poder gigantesco que les da a las compañías que manejan el flujo de crédito en los diversos países de la “aldea global”,al extremo de que podrían llegar a provocar la caída de gobiernos.No hay más que recordar el caso de la ITT en Chile,que buscó por todos los medios “desestabilizar” el gobierno socialista de Allende.Pero eran otros tiempos.Lo que sí está claro es que los medios electrónicos de comunicación han de ser considerados como inmersos ellos mismos en un determinado modelo político y económico y de ninguna manera como exentos,es decir,que suponen una red de intereses económicos y políticos de los que forman una parte mucho más dependiente de lo que se nos quiere hacer ver.Cuando se plantea la utilización de las autovías de la información como una posibilidad de lanzar mensajes,por ejemplo,desde la filosofía,puede resultar ingenuo pensar que ello es una “esperanza” más.Lo que sí puede ser es imprescindible entrar a esa “vía de comunicación”,y hacerlo sabiendo que se trata de un modo diferente al tradicional.Pero pensar que el libro impreso quede obsoleto es una necedad.La diferencia entre medios cálidos y fríos no es una mera metáfora,se trata de una afirmación con base en experiencias científicas.() Esta cuestión resulta muy importante para analizar el papel de la filosofía en la enseñanza,en cuanto que cada vez hay más niños y adolescentes-así como ciudadanos en general,que son “educados” por la televisión,lo que acaso sea uno de los motivos del aparente crecimiento en las aulas de los centros de enseñanza tanto primaria como secundaria,de lo que algunos sociólogos han llamado “analfabetos funcionales”.Yo propondré aquí el concepto de “ilustrados electrónicos”,que supone que cualquier ciudadano de lo que Marcuse-por ejemplo,en su libro El hombre unidimensional-llamaba “sociedades tecnológicamente avanzadas”,está ilustrado en cualquier cuestión científica,política o religiosa o sobre ética y moral,si dedica algunas horas al día a ver la televisión,que jugaría el papel de transmitir la Gracia,no ya a través del púlpito y el confesionario y la oración en común o solitariamente,sino a través del “púlpito electrónico” que sería la pantalla de su televisión.Cuando un alumno que ya ha sido debidamente ilustrado por la televisión tiene que someterse a un modo de ilustración “anticuado” y “trabajoso” como es el estudio de libros,revistas especializadas,y además argumentar racionalmente sobre,pongamos por caso,la eutanasia o el aborto,o la “ingeniería genética” o las teorías políticas defendidas por el Nobel de Economía Hayek, labor del profesor será considerada superflua,ya que el alumno ya ha conocido el tema a tratar en el aula a través de un debate de televisión entre “expertos en el tema”,o a través de un vídeo o de una serie televisiva,e incluso a través del “telediario” o de un vídeo de campaña electoral realizado por un partido político,como sucedió en la campaña electoral de marzo de 1996 en España,en la que ni siquiera se consideró necesario hacer debates en TV,bastó con la emisión de imágenes para influir en la decisión ciudadana de votar.

No estoy de acuerdo con la ideea defendida por Moya,siguiendo en ello al parecer el planteamiento de Derrick Kerckhove,director del “Mc Luhan Programm”,en la Universidad de Toronto,que mantiene que la idea de Mc Luhan de “aldea global” electrónica,ya es hoy obsoleta,porque el sujeto individual es “nadie”,porque los individuos han sido desbordados por la sociedad “informática”.Esa afirmación de que “todos somos nadie” me parece que es “orwelliana”,en el sentido de que está escrita en “novolenguaje”,y hay que traducirla a un lenguaje que exprese algo entendible tal y como son las cosas:)qué significa esta expresión?,a mi juicio,puede significar que pertenecemos a ese ochenta por ciento de ciudadanos que son dirigidos por el restante veinte por ciento-(la gente importante que da las órdenes,dice Chomsky al respecto en su libro Lo que realmente quiere el Tío Sam)- de controladores del “rebaño de los perplejos”,o del rebaño de los “ilustrados electrónicos”.

Acerca de esta última cuestiónn,en la aldea global,Mc Luhan explica cómo sería esa sociedad que podemos,en el sentido de Marcuse,denominar como “unidimensional”,pero no en su totalidad,sino atributivamente,se trataría de la unidimensionalidad del ochenta por ciento de los ciudadanos.

Para Mc Luhan,el hombre de la “Galaxia elctrónica”,que volverá a un modo de vida “mítico”,habitará un mundo en el cual

“(…)Se quebrarán las viiejas reglas del fondo de una lógica punto-por-punto-[[la cultivada por Occidente a través del modo impuesto por el libro impreso,etc]]-.Surgirá el holismo como una forma de pensamiento dominante,gobernada por un grupo considerablemente más pequeño de una élite directiva.

Del mismo modo que ningún ingeeniero puede concebir una red de costa a costa de los Estados Unidos en otra cosa que no sea una dimensión de 360 grados,el software(en el ordenador),se convertirá en sí en una forma de arte,con firmas humanas individuales altamente reconocibles.Sin embargo,se pueden falsificar con facilidad las formas humanas.Por lo tanto,uno de los elementos del pensamiento holístico en el futuro,será la necesidad de encerrar redes de datos enteras y sistemas de satélites para proteger áreas clave de información.sin las cuales las corporaciones y los gobiernos no podrían funcionar.Una pequeña élite se convertirá en guardián de las puertas del templo(…)”.()

La manipulación de las masas,aa través de teorías de la ciencia como el operacionismo de Bridgman en colaboración con lo que el influyente psicólogo conductista Skinner(ver su libro Más allá de la libertad y la dignidad),es cada vez más eficiente en lo que se refiere al éxito en conseguir equilibrar libertad y planificación.En este asunto han jugado un papel crucial los medios de comunicación,sean de “élite” o de “masas”,en el sentido que maneja esta distinción Timoteo Alvarez.La importancia de los medios radica en el uso de lo que se ha conocido como “propaganda”,ahora llamado eufemísticamente “publicidad”,en tanto que ella misma forma parte de ciencias como la psicología social o la economía,viendo el asunto desde las conexiones materialmente dadas entre las llamadas técnicas de marketing y las técnicas psicológicas manejadas por los publicistas.()

El título que hemos puesto a eeste escrito no implica tanto la importancia de saber a qué tipo de filósofo pertenecería Mc Luhan,cuanto a qué tipo de filosofía pertenecerían aquellos que se colocaran en su misma línea explicativa cuando tratan de explicar cuestiones relacionadas con los medios de comunicación de la “Galaxia electrónica”-en tanto que esta supone una etapa “superior” respecto de la anterior etapa cultural,la llamada Galaxia Gutenberg-.Bien,según propone Gustavo Bueno()Qué es la filosofía?;1995),las teorías-[“filosóficas”,en el sentido de que son “críticas”,es decir,inmersas en los saberes,tecnologías digitales del presente,etc.]-de Mc Luhan,)son una filosofía inmersa,pero “adjetiva o genitiva”?,)o se trataría más bien de una filosofía que pudiera considerarse como efectivamente crítica?.

A mi juicio,se trataría de fillosofía adjetiva,en el sentido de que la técnica sería el sustrato,que al ampliar metafóricamente los supuestos contenidos implícitos en el saber técnico o científico,daría lugar a la “filosofía de(…)”-[en este caso de los medios electrónicos de comunicación]-.Bueno plantea la cuestión en los siguientes términos:

“(…)Acaso pudiera serviirnos como criterio el concepto de “intuición social y cultural del presente”,es decir,un “estado del mundo” que,a partir un cierto nivel de desarrollo tecnológico y científico,experimenta un proceso de confluencia con otras corrientes sociales o culturales que hacen posible la aparición de una actitud crítica(dentro de este estado del mundo,ocupará un puesto importante el desarrollo del lenguaje jurídico,científico,técnico,etc).

Las filosofías adjetivas se opponen,por tanto,principalmente,a toda forma de filosofía exenta,tanto a las de índole histórica,por arcaicas,como a las de índole escolástica,por ideológicas;pero también a cualquier forma de filosofía crítica(en el sentido en que la entendemos aquí,como filosofía crítica que defiende una sustancialidad,al menos actualística,para la filosofía)(…)”.()

Estas cuestiones son claves poorque acaso el planteamiento de Moya en el citado artículo de “El Basilisco” sigue el hilo argumental propuesto por Mc Luhan en su libro The Gutenberg Galaxy,respecto de la inutilidad de la Filosofía,como un producto de la “cultura impresa”,que sería obsoleto,en el sentido que “sistemas” del estilo del propuesto por Descartes,por ejemplo,son obsoletos,podemos decir,porque su modo de pensar,”lineal”,queda inutilizado,según Mc Luhan,por el modo “holístico”,de entender el mundo,que es el que definirá las culturas post Gutengerg.Pongamos a la consideración de los lectores estas palabras de Mc Luhan respecto de la filosofía “anticuada” de la era de Gutenberg,para que se comprenda mejor el alcance de la crítica propuesta por Mc Luhan:

“(…)Esta especie de balllet del pensamiento coreografiado por Gutenberg mediante el sentido visual aislado está levantado tan filosóficamente como lo está la asunción del espacio euclideano como a priori por Kant.(…)”.()

No creo que el concepto de &quuot;cibernautas” que utiliza Moya sea de utilidad para una filosofía crítica,ya que es excesivamente “vago”.Ni considero que la llamada “era electrónica”,o era de la “aldea global”,sea tan novedosa en el terreno político o incluso económico.Quiero decir que,a mi juicio,el uso de las nuevas tecnologías de la comunicación no supone la desaparición de aspectos ya planteados por Carlos Marx,que hace ciento cincuenta años,se “veían venir” por el autor de El Capital.Me refiero a lo que se denomina ahora “mundialización” o “globalización” de la economía,que no es otra cosas que lo que Marx dice cuando habla de la tendencia a la mundialización del capital y a la monopolización del mismo.Otra cuestión que Marx apenas insinuara,pero a mi juicio hoy es uno de los factores que incluso estarían a la base de las crisis políticas es lo que él llamaba “fetichización de la mercancía”.Por cierto,el ordenador,o el sistema internet,por poner un caso,podemos verlos desde esa perspectiva dibujada ya por Marx,como “fetiches”,en este sentido:se trata de mercancías que hay que vender,y que no serían en tanto mercancías para el consumo,sino meros fetiches.Me explico:en la red internet,-al igual que en el mundo todavía “gutenberguiano” de las revistas y libros impresos-el usuario puede acceder a visualizar de modo en parte distinto,pero “esencialmente” semejante,cuerpos de las mujeres de la revista Play Boy,o acceder a la información de informes “aprobados” como “publicables” en internet,de la Casa Blanca o del Pentágono e incluso de la CIA,o de cualquier otro tema,aunque a una mayor velocidad,y en teoría,con una mayor posibilidad de retroalimentación o feed-back-“interactivamente”,dice Moya.El problema,desde la crítica filosófica,estará en el hecho de que ,si se entiende el feed-back como participación del sujeto que recibe el mensaje de modo que él también puede influir en la mejora de manejo de los mensajes,para conseguir una mayor entropía positiva,en el sentido de mayor posibilidad de mantener el equlibrio “dinámico” del sistema,resulta claro que los hechos confirman que el sistema no es como se supone es el “modelo” del que se nos habla desde las coordenadads políticas actuales-en las democracias capitalistas.Y esto es así,porque,tal como ha mostrado contundentemente Noam Chomsky y otros críticos de este modo ,no ya positivista,cuanto utilitarista,o como dijera Marcuse,operacionalista,de plantear la situación respecto del papel que juegan los medios de comunicación.

El peligro,evidente,de la era electrónica,radica,precisamente,en el control,-por parte de un sector social cada vez más restringido(llamémoslo “oligarquía plutocrática”)-de los medios a través de los que el mensaje se emite.Se busca que la capa basal-productores-de la sociedad,se comporte como el sistema precisa para su buen funcionamiento.Y no resulta gratuito insistir en casos como el denunciado por Bueno,cuando el diario El País ocultó -“controló”,en el sentido de Chomsky,el pensamiento de sus lectores a través precisamente de la manipulación de un encuentro que Bueno pretendió hacer “filosóficamente crítico”-su intervención los días 24 y 25 de noviembre de 1995 en Madrid en las I Jornadas de la Sociedad de Historia y Filosofía de la Psiquiatría,una intervención que denunciaba,precisamente,no la eliminación,vía reducción de horas de clase en el bachillerato,para la enseñanza y estudio de la filosofía,ya que se mantiene,sino el intento de “silenciar”,no ya a la filosofía en general-conviene incluso mantener esa enseñanza de la filosofía exenta,adjetiva o del tipo de un “sucedáneo” de tipo “científico”(o más bien pseudocientífico,por acrítico,en la mayoría de los casos),o en el caso de la Historia de la Filosofía como optativa de los estudiantes de “letras o humanidades”,que quedaría reducida a una arqueología acríticamente objetiva,”asépticamente neutral” en lo político,etc.La consigna no es,pues,eliminar la “filosofía”,al contrario,hay incluso que hacerle la debida publicidad,pero cuidando mucho de no permitir que se desarrolle ninguna semilla del mal crítico ,tal como sucediera hace siglos con el modelo socrático-platónico.O en modelo propuesto por la metáfora de el “Basilisco”.

Los medios de comunicación,quee necesitan de tecnologías tan costosas,han de mantener su funcionamiento sustentados por un sistema económico,que sin duda alguna es cualquier cosa menos democrático.Los usuarios de los equipos internet,por ejemplo,son por decirlo brevemente,”privilegiados”:empleados y ejecutivos de multinacionales,industriales y banqueros;profesores universitarios o investigadores científicos;médicos,incluso filósofos,como propone Gustavo Bueno hijo en El Basilisco No.19,pero sin duda lo que puede llegar a ser un camino de liberación al estilo de la utopía soñada por Marcuse y algunos miles de jóvenes en 1968,puede llegar a convertirse,si no se lucha de algún modo contra ello,en una pesadilla al estilo de la descrita por la novela 1984 de George Orwell.Claro que los medios están allí como artefactos y no podemos oponernos a su presencia cada vez más extendida,pero no podemos pensar inocentemente que hemos llegado,a través la técnica de esta era electrónica,a “un mundo feliz” en que Skinner sería la voz y el pensamiento del Gran Hermano,porque aunque así fuese,suponiendo que Fukuyama tuviese razón (no “pura”,pero sí “práctica”,por utilizar metafóricamente a Kant),si la filosofía crítica tiene alguna razón de ser,será precisamente esta:hacer frente a esta sociedad de control del pensamiento por ser un modelo social plenamente anti filosófico,que nos llevaría a un permanente “tiempo de silencio”,tal como denunciara Luis Martín Santos y lo reiterara Bueno en la citada conferencia sobre el libro del psiquiatra socialista.Recordemos que Luis Martín Santos no conoció la “renuncia al marxismo” del PSOE).

Lo que estaría sucediendo en llas sociedades “tecnológicamente avanzadas”(Marcuse) iría en el sentido de lo que Bueno propone en el escrito “Principios de una teoría filosófico política materialista”(),cuando se refiere al concepto de “individuo flotante”:

“(…)El materialismo fillosófico ofrece una idea que puede desempeñar en muchos casos las funciones que juega la idea del hombre alienado-concepto,el de alienación,que por cierto tiene,según plantea Bueno en el mismo lugar,”un formato claramente metafísico de estirpe teológica”-:es la idea del individuo flotante..Porque el individuo flotante no es una figura pensada a partir de una situación metafísica de alienación,sino a partir de las circunstancias positivas que noldean la configuración de todo individuo personal,y que son circunstancias históricas y sociales.El individuo flotante,por esta razón,aparece en las sociedades políticas que han alcanzado un determinado nivel crítico cuanto a su volumen y heterogeneidad.El individuo flotante,sin embargo,no es el resultado formal de la aglomeración ni del descenso del nivel de vida(las dificultades del individuo que busca trabajo no producen normalmente la despersonalización sino que,por el contrario,pueden constituir,dentro de ciertos límites,un campo favorable parta imprimir un sentido personal a la vida de ese individuo).Las individualidades flotantes,en el seno de la gran cosmópolis,resultarían no precisamente de situaciones de penuria económica,ni tampoco de anarquía política o social(anomia)propia de las épocas revolucionarias ,sino de situaciones en las cuales desfallece,en una proporción significativa,la conexión entre los fines de muchos individuos y los planes o programas colectivos,acaso precisamente por ser estos programas excesivamente ambiciosos o lejanos para muchos individuos a quienes no les afecta que “el romano rija a los pueblos para imponer la justicia”.(…)”.

Quizá el propio Mc Luhan,cuanddo analizaba las “desventajas” o como el las llamaba,”insatisfacciones” de lo que describía como “robotismo global”-concepto de claros ecos “fukuyamescos”-,presintiera esa idea propuesta por Bueno de los “individuos flotantes”-()-cuando escribía(La aldea global,1980) que:

“(…)Su cuerpo permaneceerá en un solo lugar,pero su mente volará hacia el vacío electrónico,estando al mismo tiempo en todos los lugares del banco de datos-[podríamos añadir nosotros:como potencial consumidor,como individuo electrónicamente controlado,por los “vigilantes nocturnos” de la “era electrónica” del “fin de la Historia”,por ejemplo,un servidor,Eliseo Rabadán,que vive en un pueblo del norte de España,está registrado por en una base de datos en Dayton,EEUU,porque la aseguradora de su automóvil tiene allí se “sede central”,etc.]-.

El hombre descarnado-continúa Mc Luhan en su libro póstumo,de 1980-tiene tan poco peso como un astronauta-[)puede ser el cibernauta de que nos habla Moya?]-pero puede moverse con mayor velocidad.Pierde su sentido de identidad privada porque las percepciones electrónicas no están relacionadas con ningún lugar.Atrapado en la energía híbrida que despiden las tecnologías de vídeo,estará ante una “realidad” quimérica que abarca todos sus sentidos a un grado de distensión,una adicción tan adictiva como cualquier droga.La mente,como figura,retrocede hacia el fondo-[el uso por parte de Mc Luhan de las tesis de la psicología de la Forma(Gestalt)es constante en su interpretación “filosófica” de la cultura de las sociedades “electrónicas”,lo que confirmaría nuestra teoría de que su filosofía es de carácter no crítico sino adjetivo,o peor aún,sucedánea de la verdadera filosofía crítica]- y flota entre el sueño y la fantasía.Los sueños tienen una conexión con el mundo real porque poseen un marco de tiempo y lugar verdaderos(por lo general en tiempo real);la fantasía no posee dicho compromiso.

En este punto la tecnología see halla fuera de control(…)”.

Nos preguntamos,)del control por parte de los “individuos flotantes”,pero no de quienes forman esas “heterías soteriológicas” que “controlan el pensamiento”,como propone Chomsky o el propio Bueno en el artículo citado en la nota 11 de este escrito?.Precisamente la tesis de Fukuyama en el famoso artículo divulgado mundialmente puede ser interpretada desde esta perspectiva.Esas heterías,organizadas como apóstoles y sacerdotes de la Idea del fin de la Historia en una Aldea Global-que sería dirigida por el gobierno de Washington,en colaboración “trilateral” con Japón y Europa Occidental-ayudarían a “trivializar” el artículo del “asesor” de la Casa Blanca,pues el propio libro de Fukuyama acaso fuera insuficiente al respecto,ya que no es labor sencilla esa trivialización ,o acaso pudiéramos hablar de “difusión masiva” del mensaje,(o del masaje!.

Podemos plantear la siguiente hipótesis:que el libro El fin de la Historia y el último hombre,trivializa-seguimos en ello el planteamiento de Bueno en Primer ensayo sobre las Categorías de las Ciencias Políticas,además de su escrito de El Basilisco N1 11,20época:”Estado e Historia(en torno al artículo de Fukuyama),1992- el artículo,debido a que Fukuyama es incapaz de argumentar dialécticamente,críticamente,ofreciendo “criterios de verdad” aceptables gnoseológicamente,etc.,para demostrar que la tesis del “fin de la Historia”,tesis que nos trataría de convencer de que el llamado “Nuevo Orden Mundial”,que supone una organización “mundializada” de los asuntos económicos,políticos,según criterios neoliberales o neocapitalistas.Dicha tesis tiene un adecuado “ideológicamente correcto”,y ello sin prejuicio de que al mismo tiempo se mantenga que ya no se precisa ninguna ideología,porque la tecnocracia,-a mi juicio “pseudocientífica”,en tanto es “sucedánea” de la crítica argumental dialéctica-ya ha superado la etapa “atrasada y anticuada e inoperante”de las ideologías “modernas”.Pero la importancia de la tesis de Fukuyama para los miembros de las “heterías soteriológicas” controladoras del individuo flotante-[)podríamos relacionar esta idea con la de “hombre unidimensional” de Marcuse?]-tiene la importancia,como señala acertadamente,me parece,Gustavo Bueno,de ser capaz de haber puesto a disposición de “un gran público” una teoría a “escala filosófica”,”destinada a interpretar los acontecimientos macropolíticos,macroeconómicos y macroculturales de nuestra época”.Estos acontecimientos no reflejarían,según Fukuyama y aquellos de quienes es servidor en Washington,otra cosa que el máximo desarrollo del Espíritu,en cuanto que éste,-al igual que afirmara Hegel hace ya casi doscientos años-supondrá el nivel superior a que aspira la Humanidad en el siglo XX y el XXI ya en puertas,un nivel tal de libertad,garantizada por Estados Unidos y su modelo político neoliberal y neocapitalista,extendido,tras la Segunda Guerra Mundial y tras la caída del Muro de Berlín,a lo largo de toda la faz de la Tierra,con la ayuda de los medios de comunicación,con el dinero que circula con la rapidez de la luz,(“las tarjetas VISA y American Express”)y claro está,con la ayuda,si se precisa,de la Organización del Tratado del Atlántico Norte(OTAN).El internet,en esta época del máximo desarrollo del Espíritu(en versión yanqui),será la manifestación de la “Conciencia de Dios”,no ya a través de Hegel,sino de toda la caterva de “filósofos”(de la Etica,del Derecho y de la Ciencia y la Técnica,etc.)posmodernos.

Cuando una filosofía que,al iggual que la marxista en su tiempo,se opone a este supuesto idealismo del Espíritu(sea éste moderno-hegeliano- o posmoderno-fukuyamiano-),-que es en realidad un gran engaño en contra de la racionalidad liberadora de la razón ilustrada,que a mi juicio no puede estar agotada,ya que no ha hecho sino comenzar su singladura enmedio de hipóstasis de toda laya,que inclusive parecen renacer con mayor fuerza en esta época-se intenta por parte de quienes ven peligrar sus privilegios(como intelectuales al servicio de un sistema neoliberal,por ejemplo.Me refiero a periodistas,profesores universitarios,etc.),mantener indefinidamente ese “tiempo de silencio”,aunque acaso no les sea sencillo lograrlo,porque las condiciones materiales de cada vez más gente parece estar minando,tanto en el Primer como en el Tercer mundo,el orden neoliberal.Me refiero no a meras especulaciones.Podemos recordar el trabajo realizado por James Petras en Barcelona el año 1995,en el que se muestra una situación social que difícilmente puede hacernos pensar en una eutaxia-en el sentido de Bueno- que no sea la del capitalismo más salvaje con todas sus lacras de sobra conocidas.Claro que aun enmedio de una situación de vocerío “posmoderno” reinante en universidades de Europa y Estados Unidos,permanece una tea encendida en el materialismo crítico,a pesar de quienes hacen de sacerdotes y predicadores del sofisma de esa “Aldea Global”,donde incluso se definen las guerras y guerrillas como “Realidades virtuales”(Me refiero a Baudrillard cuando afirmaba en 1991 que “la Guerra del Golfo no ha tenido lugar”,porque según él se trató de una guerra virtual,o cuando el escritor mexicano Gabriel Zaid afirmaba en la revista “Claves de Razón Práctica”- dirigida,por cierto, por un periodista del silencio y un filósofo posmoderno del “ruido intelectual”entendido como interferencia en el mensaje.Me refiero a Javier Pradera y a Fernando Savater,como es notorio-que la guerrilla del EZLN en Chiapas era una guerrilla “posmoderna”,dando a entender que era una guerrilla de carácter “virtual”,lo que,pienso,puede significar,según Zaid,que es una guerrilla sin sentido en un momento de la Historia en el cual la Historia se ha detenido absorbida-genocidio indígena incluido-por el Gran Hermano,Señor del Espíritu Absoluto materializado en el altar del FMI(Fondo Monetario Internacional),bajo el ceremonial secreto de la Comisión Trilateral).

Para terminar,quisiera resumirr con la mayor claridad las tesis que he pretendido poner a consideración de los lectores de este trabajo.

En primer lugar,que estoy de aacuerdo en que los artefactos (TV,ordenador,etc.etc.)fabricados por los hombres son en alguna manera “prolongaciones” de nuestro cuerpo,que ayudan a adaptarse al medio para sobrevivir.

Pero,a diferencia de los animaales,hemos desarrollado unas actividades,que hemos llamado siguiendo a Gustavo Bueno,”circulares”,que,aun teniendo componentes etológicos,añaden normas(el Derecho es característico de los seres humanos,por ejemplo),etc.

La tecnología forma parte de uun complejo militar,industrial y económico,que supone que la propia producción y manejo de esos artefactos transformadores de la cultura a nivel mundial,están fuertemente relacionados con los componentes de lo que podemos llamar el poder(político,económico,militar) y siempre que se planteen cuestiones al respecto de esos instrumentos -que nunca pueden ser considerados como “neutros” o exentos respecto de los individuos que nunca están aislados sino que están formando parte de un “cuerpo político” que está sometido a un curso determinado tanto histórica como culturalmente,de ahí la dificultad de aceptar sin criticarlo,el planteamiento de que hemos llegado a una etapa de la Historia en la cual todo el mundo sería como una gran fraternidad,semejante a la Santísima Trinidad,en que habría,no Una sola persona en Tres Naturalezas distintas,sino una sola persona y casi infinitas personas distintas,es decir,que la idea de una aldea global electrónica implicaría que todos somos consumidores satisfechos,o estamos en vías de serlo,aunque seamos culturalmente diversos.Eso de que la Coca Cola se podrá pedir y vender según lo pida el individuo budista,musulmán o lo que sea a cambio de sentir “la sensación de vivir”libre y feliz,parece que no está tan claro para muchos “aldeanos”.

Por último,creo que estos arguumentos que hacen referencia a lo que Chomsky ha llamado “necesidad del control del pensamiento en las sociedades democráticas”,resultan,en sí mismos,críticos,y lo que pide,me parece,la crítica dialéctica,es tratar de poner manos a la obra,y,desde luego,podría valer la pena intentarlo a través de las redes del internet,desde luego,y ahí está la propuesta lanzada por Gustavo Bueno Martínez en “El Basilisco” número 19 de la segunda época en su artículo “Presentación del Proyecto “”Filosofía en Español””(información,documentación y textos de la filosofía en español)”.Podría ser un paso interesante para generar una frente anti silencio desde la filosofía escrita en español,desde la crítica materialista y dialéctica:un interesante reto para la verdadera filosofía,que no es otra,creo,que la crítica y además inmersa en los saberes del presente,sin duda alguna,aunque,desde luego,sin desdeñar-sería absurdo,evidentemente-los saberes valiosos del pasado.

3.2 – La llamada “Era de la Información”(Proyecto para la crítica filosófica)


La Era de la Información : un ensayo crítico




Llevamos  casi medio siglo escuchando afirmaciones como estas:

-“La Era de Gutenberg ha sido dejada atrás por la nueva Era de la Información,

en la cual ya no es la lectura de textos escritos en papel(imprenta)la manera en que podemos conocer racionalmente el mundo que nos rodea”.Son las tesis que hizo célebres el investigador canadiense Marshall Mc Luhan. Desde su muerte en 1980,se sigue hablando en estos términos, pero hay que hacer una crítica sobre esta cuestión. Dicha crítica ha de

abordar algunas cuestiones previas, de carácter metodológico, sin las cuales el confusionismo de nuestros análisis se agregaría a las miles y miles de reflexiones que, aun de buena fe y mejor voluntad por parte de cientos de “expertos” en el asunto, llevan a enormes contradicciones que ,de no ser por sus resultados en cuanto al impacto social de las mismas,

no merecían acaso mayor atención que algunas anécdotas curiosas acerca de lo mal

que están operando las instituciones de investigación superior y sus mecanismos de difusión del conocimiento.

-“Vivimos en la Era de la Información”.En este ámbito, se nos dice, aquellas sociedades que

no sean capaces de desarrollar mecanismos mediante los que los miembros de la misma no sean capaces de adecuar sus estructuras sociales, políticas, educativas, económicas, a la

nueva manera de organizar los conocimientos y las tecnologías “de punta”,están de alguna manera condenadas a una especie de ostracismo, de anquilosamiento ,que llevaría a dichas sociedades a quedar, incluso, fuera de las corrientes de la Historia en que ya se nos dice que hemos llegado a una especie de Mundo Feliz, que basa su fundamento social, político,

cultural, en el uso de las llamadas Nuevas Tecnologías de la Información, que incluyen a

todas las actividades de una sociedad. Entre los principales exponentes de esta versión de nuestro mundo, podemos citar a Manuel Castells, que se nos presenta, mediante los medios

de comunicación, la publicidad de editores y mundo académico, como un profeta de

nuestros tiempos, que hace olvidar incluso al ya “superado” Mc Luhan. Una de las características, como veremos, de esta Nueva Era de la Información, es, precisamente, el hecho-se nos repite machaconamente-de que la nueva manera de conocer y organizar la sociedad implica necesariamente que los conocimientos y las tecnologías son cambiantes, y

se habla irónicamente, en ocasiones de una “vertiginosa inmovilidad”.Se habla inclusive de una suerte de “evolución” del pensamiento humano, ya que -se dice-el uso de nuevos instrumentos de comunicación, hace que nuestro modo de organizar los datos de los fenómenos y pensar acerca de los mismos, mediado, como está, por el uso de máquinas capaces de desarrollar “Inteligencia Artificial”,nos están llevando a un Hombre en el que la cibernética ya lo hace concebir una diferencia entre lo real y lo virtual, de tal manea que nuestro cerebro ya percibe dos diversos espacios y tiempos, a saber: el real y el virtual.

Como se puede ver, estas cuestiones afectan a nuestra manera de organizar el Mundo en el que vivimos, y es preciso tratar de reflexionar acerca de estas cuestiones, ya que puede ser

que sí ocurra que se están produciendo cambios importantes en nuestras estructuras sociales

, económicas , políticas, de tal manera, que si no debatimos de manera crítica-en el sentido de que criticar supone clasificar, organizar, analizar y hacer síntesis dialécticas acerca de ese cúmulo de conocimientos acerca de los múltiples y complejos fenómenos que ,en la cuestión

de la educación de los ciudadanos, resulta crucial ,en cuanto a la “eutaxia” política ,es decir,

en cuanto a la manera en que ,como miembros de un cuerpo político, nos relacionamos a través de todo ese cúmulo de instituciones que ,acaso, están siendo transformadas

radicalmente por el creciente papel de las máquinas en ese complejo que algunos

antropólogos han definido como “Cultura”.


Una de las cuestiones que más parecen preocupar a investigadores de todo el mundo, es la relativa al problema de cómo organizar los datos que se nos presentan.

Se proponen diversos modelos teóricos ,basados en algunas de las más significativas autoridades en la materia. Se nos citan a autores, de un modo que me recuerda aquello de

la Edad Media:” Magister dixit “. Es decir, lo dice el maestro y es un argumento. Pero cuando se nos cita a Paul Feyerabend, o a Thomas Kuhn, o a Karl Popper o Lakatos o Mario

Bunge, se nos hace creer que los autores señalados están en lo cierto, inclusive cuando

se afirma que una Teoría Científica es verdadera mientras no surge otra que la “false”.Así, el recurso a autores que no han sido debidamente criticados, resulta ,a pesar de la buena fe de quienes los manejan como referentes metodológicos, contraproducente, en el sentido de que sus análisis de los fenómenos no hace sino describir hechos ,o en ocasiones, adecuar, más o menos ingenuamente, fenómenos y categorías ,es decir, adecuar teorías y hechos empíricos ,como si en eso consistiera la manera en que la Ciencia se elabora.

Quisiera proponer a su consideración la siguiente cuestión acerca de las Teorías de la ciencia

y acerca de propuestas metodológicas que se manejan ,como señalaba, de manera poco o nada crítica, en el sentido mencionado en la Introducción, de organizar,”cribar” hechos y teorías.

Lo que está haciéndose en los diversos modelos de Teorías de la Ciencia, es mantener ,de

uno y otro modo, el criterio de Aristóteles o de Kant,por citar a dos autores que han destacado en estas cuestiones. Quiero decir que al hacer análisis de las Teorías de la Ciencia, observamos que se sigue manteniendo un concepto de que la distinción fundamental ,

en el terreno de la Ciencia, se fundamenta en la relación entre la Materia y la Forma, es decir, entre la realidad empírica, captada por los sentidos- o a través de instrumentos, tales como microscopios, radiografías, sondas espaciales, etc.-.Ahora bien, en tal distinción interviene nuestra manera de organizar esa relación ,a través del pensamiento y del lenguaje. Según esto, en el modelo de Aristóteles, hay unas “Categorías”,que permiten organizar, relacionar, esos datos empíricos, esa materia, de la cual “extraeríamos ” la Forma, es decir, establecemos principios y reglas del conocimiento científico, mediante la adecuación de las cosas al


Para Kant, también sucede algo similar ,lo que los sentidos captan, organizando espacial y temporalmente los fenómenos sensibles, que aporta la realidad material, digamos, es organizado mediante unas Categorías, que son ,en el sentido cartesiano, innatas. Es decir, todos tenemos la capacidad de conocer porque todos tenemos esas Categorías. Los problemas surgen al rebasar nuestra capacidad de razonar, de pensar, acerca de algunos problemas como son el origen del Universo, o la Idea de Libertad y la Inmortalidad del Alma. En este momento ,dice Kant, la razón cae víctima de incoherencias lógicas, de aporías, de “Ilusiones de la Razón”.

Desde que Kant hiciera esta crítica de la razón, se ha derramado mucha tinta acerca de los límites de lo que la llamada Metafísica pueden determinar.

Y precisamente en este contexto que coincide con lo que se ha llamado el Siglo de las Luces en Europa, la Ilustración, además de coincidir con varios hechos históricos de relevancia

para nuestro propósito, a saber: la Revolución francesa, la Revolución Industrial y algunos procesos políticos que llegan hasta la explosión de bombas atómicas a mediados del siglo

XX, que marcan un hito en el desarrollo de la Tecnología, que ha llevado a muchos a propuestas que incluyen afirmaciones tales como las siguientes:

la Era Moderna, iniciada en el Siglo XVI, se agotó ,tras un desarrollo importante de las Ciencias y Sociedades que ,bajo la guía de los Ilustrados del siglo XVIII, y todo el auge de

un modelo de capitalismo que incluía una fe en el Progreso de la Humanidad fundamentado

en un modelo social positivista que excluía aspectos humanos relevantes, tales como los aspectos que resultaban necesarios, en el planteamiento de un Ilustrado célebre, el mismo Kant, a pesar de resultar ,digamos,”no científicos” o metafísicos como son la Idea de

Libertad ,el Ideal de una paz Perpetua para todas las naciones y una ética idealista ,en la que los

valores se fundamentan en un concepto del individuo como ser religioso.

A lo largo del siglo XIX se produce un enfrentamiento por establecer modelos sociales, metodológicos, científicos, que da lugar ,desde la influencia del positivismo sociológico de Marx, de Augusto Comte, basados en el modelo darwinista de la organización de las sociedades a través de la pretensión de racionalizar todo lo real. El sueño de Hegel transformado por el positivismo.

En los albores del siglo XX se produce, desde Viena y el núcleo mismo del mayor Imperio todavía dominante, el Reino Unido, un ataque feroz a todo lo que implica ,según estos movimientos conocidos como el Círculo de Viena y el Análisis Lógico del Lenguaje ,un

cultivo de la pseudociencia. La pseudociencia, se dice en estos influyentes movimientos que incluyeron a grandes físicos ,matemáticos, sociólogos incluso economistas, al estilo de Von Hayek, amigo de Karl Popper, ha de ser denunciada en todos los ámbitos ,pues ha hecho mucho daño a nuestras sociedades. Y pseudociencia es, según estos llamados neopositivistas, todo lo que trate de fundamentar sus teorías en el uso metafísico de la razón.

Se establecen métodos ,desarrollados a partir de los modelos incluidos en los Principia Matemática , de Sir Bertrand Russell y Whitehead. Pero además surgen diversos paradigmas o modelos ,en el campo de las Teorías de las Ciencias, que incluyen elexitoso modelo desarrollado por lingüistas de la talla de Fedinand de Saussure y de la llamada escuela de Praga, en cuya estructura de análisis se llega a posiciones como la defendida por el influyente antropólogo Levi-Strauss, a afirmar ,en polémica con Jean-Paul Sartre, que “hay que estudiar a los hombres como si fueran hormigas”.Así, el estructuralismo como método de estudio de los fenómenos, cuando se aplica en la sociología, lleva a desarrollar modelos ,derivados del célebre Talcott Parsons ,que incluyen el utilizar los fenómenos, organizados estructuralmente, para desarrollar a través de ellos ,sistemas sociales funcionales, sin atender a valoraciones de carácter “metafísico” ni filosófico: por otra parte, en el contexto de la llamada Guerra Fría, en la que dos modelos sociales, económicos, políticos, se tratan de imponer, se da el estructuralismo, mediante las propuestas teóricas de la izquierda francesa, mediante su principal exponente, en que el marxismo es delimitado, transformado, por un estructuralismo que pone en boga la moda de Althusser en países de América Latina, con su célebre “corte epistemológico”,que habla de una “sobredeterminación” de la Economía por otros factores que dejan de ser “supraestructurales” o secundarios, para ser relevantes en el proceso de producción económico.

Ante el caótico panorama y la crisis de modelos que se desarrolla desde 1960,encontramos hoy diversas propuestas entre las que destacan: la Teoría General de Sistemas; la Teoría del Caos y la llamada “posmodernidad”.

En cuanto a la posmodernidad, esa Idea tan nebulosa, pero que tanto éxito parece tener entre muchos intelectuales, podemos afirmar que se trata de un modelo decadente, pero útil .Decadente, en cuanto que defiende un agotamiento de la Ilustración, un uso de la parte que Nietzsche definía como lo Dionisíaco, o su maestro filosófico, el alemán tan admirador de Kant, Schopenhauer, definía como la Voluntad-o el Eros, para utilizar términos manejados tanto por Platón en el diálogo El Banquete, como por Freud e incluso por un relevante filósofo de la Escuela de Frankfurt, Herbert Marcuse, quien lo utiliza-el concepto de Eros-para tratar de explicar el modo en que la parte volitiva, el instinto, digamos, de la sociedad, es encauzado por parte de quienes controlan la sociedad tecnológicamente avanzada, en sus obras Eros y Civilización y El Hombre Unidimensional .La cuestión en cuanto a metodología, respecto a las propuestas de los defensores del llamado posmodernismo, contiene varias falacias importantes que hay que destacar:

1)decir que el proyecto de la era Moderna, que se desarrolla en la Ilustración y que pasa por el modelo científico y tecnológico de la Primera Revolución Industrial del siglo XIX resulta ya agotado, es cuando menos impreciso, puesto que muchos de los métodos de investigación actuales tienen raíces en la Matemática de Newton y Leibniz, aunque haya sido desarrollado un ámbito en el cual las matemáticas y las geometrías llamadas no euclideanas hayan añadido aspectos importantes ,así como el hecho de que la Física de Einstein y sus Teorías del a relatividad hayan supuesto importantes cambios, no implican la desaparición de las Teorías de Newton, cuando menos a un nivel donde la Tierra y la Luna se relacionan a través de tiempo y espacio.

2)Por otra parte ,afirmar que ya no tiene sentido buscar la verdad en los grandes relatos y discursos ,porque es preciso reconocer que hay diversas perspectivas que implican la presencia de un relativismo y escepticismo que nos llevan a manejar el concepto de “pensamiento débil”.Pero no creo que esto sea mera discusión irrelevante de filósofos europeos aburridos o deseosos de destacar en el cielo de estrellas intelectuales tan admirado por algunos. Más bien tenemos el caso de un momento histórico en que se trata de afirmar en todos los sitios de impacto social a través de medios de comunicación y foros, que ya estamos en la nueva etapa de la Humanidad en que el modelo social que representan las economías de mercado han dado lugar a lo que se definiera hace unos ocho años como “El Fin de la

Historia” y el “Fin de las Ideologías”. Esto supone que nada que tenga que ver con explicaciones críticas cabe en un orden de cosas en que sólo queda organizar ,desde una economía que se rige a sí misma por las leyes del mercado, y ello incluye la investigación científica, tanto a nivel de las llamadas Ciencias Físico Naturales, como de las llamadas Ciencias Humanas, desde luego, pasando por el arte ,la religión, y hasta la vida privada

de los individuos, acosados constantemente por la propaganda política mediatizada por la televisión, auténtico “púlpito” de la Era de la Información. Hay quienes acusan a los que criticamos este modelo posmoderno de la sociedad y de la Ciencia de estar desfasados,

de ser intransigentes, de permanecer en el “pasado”, pero esto es lo que en este ensayo tratare de discutir, precisamente.

En cuanto a ésas Teorías del Caos y General de Sistemas, creemos necesario hacer algunas precisiones ,en cuanto a su contenido metodológico,  hechos y las relaciones entre los


Se recurre a instrumentos de organización de los hechos que se han desarrollado en la Ciencia, en el caso de la Teoría General de Sistemas-que no es tan novedosa como se pretende hacer ver, ya que se basa en la consideración de los sistemas físico-químicos de la Termodinámica-.

Lo que nos interesa señalar es que se está recurriendo en muchos casos a presentar como Teorías de la Ciencia , a modelos derivados de las ciencias naturales, y ello lleva a

confusiones epistemológicas, que surgen de la consideración indiscriminada de  conceptos categoriales utilizados sin rigor epistemológico. Pongamos por caso a los autores de El Principio Antrópico , Tipler y Barrow,que presentan un modelo a partir de Teorías de la Bioquímica o inclusive de la Astronomía, para establecer ciertas propuestas que implican la idea de que es el Hombre la medida de todas las cosas, pero siempre bajo parámetros científico categoriales determinados por las ciencias naturales.

Una propuesta alternativa : el mundo académico español, es conocido, fue víctima de la dictadura militar franquista a lo largo de prácticamente cuarenta años. En especial se dio una fuga de intelectuales, escritores, científicos, pero se dio el caso de que algunos de ellos ,

aun en esas adversas circunstancias, o quizá por ser jóvenes y no verse obligados a exiliarse tras la Guerra Civil de 1936-1939,pudieron trabajar en un medio hostil. Tal es el caso del filósofo Gustavo Bueno, nacido en 1926,y que tras la muerte del dictador Franco, comenzó

a publicar algunos libros de filosofía de un interés que consideramos importante dar a

conocer en este ensayo. Recomendamos acudir a las siguientes páginas de internet para acceder a más información sobre estas propuestas, en especial el Diccionario Filosófico elaborado por Pelayo García :

En el campo de la filosofía y de las Teorías de la Ciencia, como hemos señalado, se dio un auge de modelos, que, no obstante, se mostraba un tanto limitado, al ser de alguna manera desbordadas por el rápido desarrollo de tecnologías y cambios socio políticos que han ocasionado algo que podríamos definir como “cierta perplejidad” entre el mundo académico e incluso entre el mundo político y social.

Gustavo Bueno procede a desarrollar lo que será ,tras un trabajo de aproximadamente treinta años, un modelo o Teoría de las Ciencias, que se ha definido como la Teoría del Cierre Categorial.

En su esfuerzo por definir el papel de la Filosofía en el conjunto del saber ,constituido por las Ciencias, tanto las llamadas físico-naturales(Biología, Química , Física,&),como las Ciencias Sociales(Economía, Derecho, Antropología, Sociología, Lingüísitica , &),escribe hacia 1970 un libro clave : Ensayos Materialistas , en el cual se establece una crítica de las diversas escuelas filosóficas, desde un modelo en el cual se establecen las relaciones entre la Idea de Mundo y la Idea de Materia. Lo que se propone, muy esquemáticamente dicho aquí, es que entre nuestra Idea de Mundo y la Idea de Materia se da una relación que es mediada por el Ego, que no es la Conciencia pura de Husserl, fundador de la llamada fenomenología, sino el modo en que nosotros somos capaces de relacionar las distintas clases o géneros de materialidad por medio de las cuales organizamos los fenómenos. Así, la conciencia se manifiesta mediante las actividades científicas, pero también mediante las acciones religiosas, el arte, la política. Esto es así, ya que la Idea de Materia no es una Idea metafísica, supuestamente dada a la Conciencia por un referente trascendental, a priori, independiente de la propia experiencia empírica, sino que ,según plantea Bueno, se darían tres géneros de Materia, que corresponden a :

1)la materia que se presenta en el mundo de lo físico-natural.

2)la materia que se manifiesta a través de lo que podemos denominar actividades psicológicas, imaginar, la memoria, la capacidad de abstracción, necesaria para organizar el lenguaje,&

3)la materia que incluye, por ejemplo, los modelos matemáticos para explicarla realidad, por ejemplo, cuando se establece que un triángulo suma 180 grados, mediante los modelos deductivos pertinentes, o cuando se establecen coordenadas matemáticas para “medir” el grado de umbral dela acción controlada en laboratorios de psicología , respecto de la catexia, &

Lo que realizamos, por lo tanto, es una actividad encaminada a adaptarnos al medio, no ya como individuos, sino como miembros de un grupo social determinado. Las maneras en que esta adaptación se lleva a cabo implican la con-formación de una Conciencia, tal que ella es una especie de “instrumento” antropológicamente desarrollado ,es decir, que se diferencia de las pautas etológicas animales de conducta y aprendizaje(aunque no por ello debemos afirmar que los componentes etológicos están ausentes o han sido segregados de la conducta social humana)Esta Conciencia, no es idealista-en el sentido de Hegel ,Kant,&,ni tampoco es un mero “nombre”,sino que ella misma conforma nuestras sociedades a través de la manera en que se establecen normas, pautas de acción en los distintos “campos” categoriales, religiosos, políticos. Lo que tenemos, pues,es una Conciencia, que no es uniformemente repartida(como si fuese una cualidad que correspondería por igual a cada uno de los miembros de la sociedad de referencia),sino que esta Conciencia ,tiene distintos modos de ,digamos, ser repartida en el conjunto de los miembros de una sociedad humana dada.

Así, siguiendo la distinción entre Filosofía Académica y Filosofía Mundana, podemos proponer que hay una implantación de la Conciencia que se manifiesta en dos planos, digamos: mundano y académico. Queremos decir con esto, que todos los miembros de una sociedad actúan según normas pautadas de conducta, que son determinadas por el modo en que se establece la relación entre los tres géneros de materialidad antes mencionados.

Las categorías del campo de las distintas Ciencias se conforman, es decir, se van construyendo, no de una manera a priori ,ni siquiera mediante procesos de “revolución” científica, sino que se construyen en medio de un complejo entramado de relaciones políticas, económicas y militares, de tal manera que ellas mismas(esas categorías científicas: masa, gravitación, ADN, campos de fuerza, cadenas de aminoácidos, anomia, estructuralismo,&)contribuyen a formar esa Conciencia en la sociedad en la que se desarrollan. Pero además , y esto es de una enorme relevancia, la Técnica,  los aspectos metodológicos y ontológicos que desde la teoría del Cierre Categorial se establecen, no como una propuesta “cerrada”,ya delimitada, sino como una propuesta dialéctica, abierta a la construcción crítica de la Conciencia, tanto mundana como académica, en cuanto es el catalizador de las relaciones sociales en nuestras sociedades políticas definidas como “democracias”.


Para organizar sistemáticamente los materiales necesarios para llevar a cabo análisis críticos de los distintos campos de las Ciencias(físico-naturales o “Humanas”),Gustavo Bueno propone dos conceptos que pueden parecer a primera vista complejos, pero que si se estudian con cuidado, podremos constar su enorme utilidad sistemática párale establecimiento de criterios educativos que podrían, creemos, ayudar a solucionar, al menos en parte, esa aparente crisis de paradigmas o modelos de estudio y enseñanza, que tanto nos están afectando, y queremos señalar aquí cuál es uno de los más importantes objetivos de este ensayo, a saber: proponer un modelo teóricamente sustentado en la Teoría del Cierre Categorial , que ,en el caso de la influencia de los llamados medios de comunicación de masas, en especial la televisión, en la conformación de la Conciencia-en el sentido de Bueno, es decir, entendida como el modo en que los grupos sociales organizan su manera de relacionarse con el medio ambiente, con los factores sociales y políticos, amén de las relaciones religiosas y psico -sociales).

Conceptos fundamentales :

A)    Espacio Gnoseológico :

El concepto implica que todo estudio científico ha de estar organizado en torno a tres ejes, a saber:

1-eje sintáctico

2-eje semántico

3-eje pragmático

Antes de continuar con la definición del espacio gnoseológico, es preciso aclarar un asunto de enorme relevancia .Setrata del hecho de que la Teoría del Cierre Categorial, no sólo no es un mero modelo “nuevo”,que pretenda ser una especie de dogma teórico, sino que establece, siguiendo los modos en que la Ciencia ha venido elaborando sus campos ,teorías, leyes,&,parte de la base de que el trabajo de la Ciencia consiste en cuatro cuestiones fundamentales, de todos conocidas, pero que en ocasiones parece no quedar tan claro, obre todo cuando se trata de las actividades de algunos científicos sociales. Nos referimos a cuatro factores esenciales:

1)La Ciencia establece definiciones

2)La Ciencia trabaja mediante la construcción de modelos

3)La Ciencia precisa elaborar demostraciones

4)La Ciencia establece clasificaciones

Pero, independientemente de que los Campos de las diversas ciencias se construyen según estos modos de hacer tradicionales, creemos necesario establecer otras coordenadas, digamos,por ello nos parece pertinente insistir en el aspecto “teórico”(gnoseológico),no ya en cuanto a lo que algunos denominan aspectos epistemológicos, que son relevantes, ya que se refieren a la verdad en cuanto a la relación entre sujeto/ objeto a través de las proposiciones, sino en cuanto a la verdad entendida como hemos señalado, como el modo como los fenómenos se relacionan  a través de Forma y Materia.

Bien, estableciendo que :

el espacio gnoseológico se establece en torno a tres ejes , es necesario ahora desarrollar más precisamente los ejes, que están compuestos ,a su vez ,por tres sectores ,a saber:

1-eje sintáctico:

1.a) el sector de los términos

1.b) el sector de las relaciones

1.c) el sector de las operaciones

2- eje semántico :

2.1) el sector fisicalista

2.2) el sector de los fenómenos

2.3) el sector de las estructuras esenciales

3- eje pragmático:

3.1) el sector de los autologismos

3.2) el sector de los dialogismos

3.3) el sector de las normas

A continuación trataremos de establecer otro concepto clave en la Teoría del Cierre Categorial,a saber : el de espacio antropológico

B)El espacio antropológico .

Consta también de tres ejes :

1)            el eje circular ,que está conformado por las diversas maneras ñeque los hombres se relacionan entre sí, que son estudiadas por los diversos campos categoriales de las ciencias : Psicología, Derecho, Antropología ,Economía, Ciencias Políticas,&

2)            el eje radial, que incluye los materiales de la Naturaleza, pero también el modo como los hombres los han ido transformando mediante la tecnología

3)            el eje angular , que incluye todos los aspectos relativos a lo que podemos definir como las relaciones de los hombres con lo numinoso, es decir, con el ámbito de lo religioso, los “seres” que ocupan el mundo de lo sagrado, sean hombres, animales o Ideas, incluso los extraterrestres, cuando desde el mundo humano se los considera superiores, se les teme, se puede llegar a pensar que nos ayudarían ,&

Una vez establecidas estas coordenadas básicas, proponemos ,a modo de ensayo, que se considere la aplicación de estos parámetros,(a los que es preciso añadir un importante inciso aclaratorio)a la educación.

El inciso a que nos referimos es el siguiente : la antropología ha desarrollado un interesante concepto en el que se muestra la dificultad para los científicos de establecer leyes teoremas, similares a las ciencias naturales. El lingüista Kenneth Pike introdujo la relación entre lo emic  y lo etic. Esta distinción supone que cuando se realiza un “trabajo” de campo, pongamos por caso, en el estudio de las lenguas otomíes y mayas en algunas regiones de México, y el antropólogo quiere establecer los significados de conceptos que no están planteados de igual modo en el idioma del antropólogo-pongamos por caso que sea el idioma español, o el inglés-se encuentra la dificultad de establecer explicaciones o definiciones, incluso modelos, que sean aceptados digamos, de manera unánime por todos los “términos” del campo, es decir, tanto por los propios antropólogos, como los miembros estudiados por ellos pertenecientes a la comunidad objeto de estudio.

Esta dificultad científica, que distingue a las Ciencias Sociales de las Físico-naturales, es crucial, ya que ella ,cuando es dejada a un lado, provoca más problemas de los que el científico social quisiera reconocer. Ello es debido a que en las ciencias naturales, digamos, el científico no forma parte del campo, mientras que en las ciencias humanas o sociales, sí forma el científico, y los hombres objeto del estudio del mismo, parte de esos términos.

La cuestión, pues, no es sencilla. Pero trataremos deponer a su consideración algunas cuestiones en el próximo apartado, para intentar aportar algunas pautas al modelo educativo, que, más que como modelo establecido de aplicación acrítica, sirva como una propuesta de aplicación de la Filosofía como instrumento para una enseñanza crítica y que ayude a formar ciudadanos con la suficiente capacidad dialéctica como para afrontar retos tanto teóricos como prácticos en la vida social .




Es una preocupación constante de muchos profesores de todos los niveles helecho de que cada día encuentran más alumnos que parecen no ser capaces de leer y escribir de un modo crítico. Algunos incluso utilizan el concepto de analfabetos funcionales para referirse a ellos.

He escuchado que la televisión es culpable de esa situación.

Sin duda alguna, parte de causa puede estar en ese instrumento, que según sus gestores sirve para informar, para entretener y para transmitir cultura. Bueno, no creo que lo que actualmente están haciendo las cadenas de televisión en todos los países del mundo sea precisamente informar. Según Giovanni Sartori, en su reciente libro Homo videns, la televisión no sólo no informa, sino que nos emite información sesgada es decir, se deja un noventa por cien de las noticias fuera del alcance del público. Pero además de ello, se nos ofrece información a través de imágenes, lo que supone que sólo el”poder de la imagen” es lo importante. Pero lo que no hace la televisión es informar de modo que se analicen los hechos crítica y racionalmente. Se recurre a imágenes, pero ello produce en el receptor, en el público, meras reacciones psicológicas: rechazo, temor, dudas,&,pero no se produce una descodificación de os mensajes en la que el sujeto -el receptor-participe activamente. Mc Luhan llamaba a estos medios ,como la televisión,”medios fríos”.Sin embargo, todos sabemos que en la misma televisión es posible hacer que los espectadores tengan otra manera de informarse, por ejemplo, cuando las imágenes y la descripción de los hechos son analizados a través de debates, donde expertos en los diversos temas, analizan las noticias y sus causas, además de sus consecuencias.

Lo que queremos proponer no es nada extraordinario, ni siquiera consideramos utópico, pero es preciso llevarlo a la práctica, ante esta situación de desinformación o sub información, que de hecho está logrando que sectores cada vez más amplios de nuestras sociedades de las llamadas “mediáticas”,donde incluso se habla de una cierta”degeneración” de la democracia, porlapresión de la “telecracia”,sean auténticos autómatas, especie de “borregos electrónicos”,sometidos más y más a lo que Noam  Chomsky define como “control del pensamiento”.

Para evitar caer en una sociedad orwelliana,donde un “Gran Hermano”(la televisión y sus gestores económicos, consorcios cada

vez más poderosos,y algunos intelectuales a  su servicio, que ya no necesitarían ser censurados, pues ellos mismos se someten a una especie de autocensura que consiste en la  presión a que se les somete por quienes pagan sus elevados salarios.




Los libros y materiales de texto que se utilicen en la educación básica, media y superior han de ser diseñados de tal modo que se muestre en ellos el modo en que las diversas ciencias se han ido con-formando , pero siempre teniendo presente que los campos científicos tienen categorías propias, es decir, que ,desde las propuestas de la Teoría del Cierre Categorial, no existen unas determinadas categorías a priori, sino que hay tantas categorías como ciencias.

Además de lo anterior, debe ser establecido un criterio de organización de los materiales didácticos tal que, en la práctica educativa, se establezca siempre con la mayor precisión posible, que existe una fuerte relación  entre los sectores tanto del espacio gnoseológico como del espacio antropológico.

En el caso concreto de tratar de contrarrestar la influencia, innegable, desde luego, de la televisión, en los jóvenes y  adultos, propongo que se utilice un sistema que algunos centros educativos están ya llevando a cabo. Se trata de que los estudiantes y sus maestros aprendan a trabajar investigando, mediante la elaboración de guiones de radio, páginas web, revistas escolares,&,pero siempre siguiendo las normas tradicionales de la Ciencia que consisten en establecer con claridad el campo categorial , los modelos, definiciones, clasificaciones y demostraciones, pero no como algo que se entrega ya hecho como si hubiera unas categorías establecidas de antemano ,sino que se muestre el proceso de construcción de las mismas.

El uso de materiales alternativos a los meros libros de texto, supone que los estudiantes realmente aprenden a organizar por ellos mismos, en grupos(dialogismos del eje pragmático),e individualmente(autologismos del eje pragmático),los materiales categoriales que han ido relacionando(eje sintáctico, sector de las relaciones),a partir de esos términos con que partimos al comenzar nuestro trabajo.

La finalidad de este modo de trabajo implica que los estudiantes y los

académicos, así como lo “mundano”(político, social) que permitan al menos tener el máximo control de nuestras capacidades de adaptación a un medio que ha sido puesto en peligro principalmente por caer en

“parcializaciones” de los asuntos más relevantes. Estas “parcializaciones”,estas “parcelaciones” que de facto han ido construyendo sociedades excesivamente obsesionadas por la ganancia sin límite, por modelos económicos individualistas( en cuanto que se favorecen intereses de grupos antes que el beneficio de la comunidad), en el sentido de entender la sociedad como un enjambre de fieras sujetas a las meras leyes de un darwinismo depredador e inhumano.
















En el tiempo transcurrido(medio siglo),desde que Norbert Wiener mostrara su preocupación por el impacto social de lo que él entendía por Cibernética [69] ,y otro tanto tiempo desde el célebre artículo de Alan Turing sobre la pregunta relativa a la posibilidad de que las máquinas piensen, han sucedido una serie, aún en marcha, de vertiginosos cambios. Estos cambios nos muestran que ,acaso, la Era de la Electrónica de Mc Luhan está ya en nuestra vida cotidiana, de tal manera que se diría que vivimos en una especie de sueño(acaso pesadilla) en el que todos fuésemos personajes de ciencia ficción, al estilo de ese casi mítico Mundo feliz  de Huxley, pero también en el mundo orwelliano de la célebre obra(también ya cincuentenaria) 1984,en la que la tecnología de la comunicación se encargaba, mediante el control del pensamiento y el uso cotidiano de la neolengua, y los skinnerianos ingenieros de la conducta al servicio del Poder del Gran Hermano, ese monstruo que cual Leviatán cibernético,al más puro estilo kafkiano, destruye a los ciudadanos cuya única meta parece consistir en la mera sobrevivencia hedonista e individual, con el mínimo recuerdo de qué significa la palabra solidaridad.


En este breve ensayo pretendemos ,más que aportar soluciones o “caminos de salvación”,incitar a un reflexión a fondo sobre los aspectos más urgentes de lo que se conoce como Bioética, una naciente disciplina, inmersa de lleno en lo que podemos definir como Era Cibernética, en la cual, desde el campo de la Filosofía de la Ciencia,se nos presentan retos de carácter gnoseológico(relativos a criterios de verdad de teorías) y de carácter ético, político , etcétera, que nos urge al menos plantear con claridad de ideas y precisión argumentativa.




El término es utilizado para definir las actividades médicas que tienen como fin la solución de enfermedades y patologías, mediante la utilización de técnicas que incluyen lo que se puede definir como ingeniería genética, el uso de computadoras o incluso robots por parte de la sociedad médica internacional, la utilización de productos farmacéuticos de “alta tecnología”,cuyos elevados costes de producción implican a grandes compañías, algunas universidades, e incluso gobiernos(quienes aportan fondos públicos para investigación, que son a su vez aprovechados por estas compañías transnacionales),etc.

También se puede considerar relacionado con la bioética el campo de la ingeniería genética aplicada a la alimentación humana, por su relación con la salud , independientemente de las consideraciones ecológicas(medioambientales)

que conlleva.

Para hablar de Bioética, hay que partir del hecho de que vivimos en lo que algunos denominan una Aldea Global, o en una época “globalizada”,que supone que todos los países están íntimamente relacionados en aspectos políticos, económicos, inclusive culturales y educativos, y todo ello dentro de un modelo que incluiría el hecho de que el canon a aplicar ,en el terreno político y estatal, debe estar adaptado a las reglas del juego de lo que podemos llamar neoliberalismo  .

La Bioética, pues, en un panorama complejo, que supone que hay todavía, evidentemente, países ricos y pobres ,y dentro de estos conceptos de rico/ pobre, variaciones que implican diversos grados o niveles de pobreza/ riqueza, debe ser estudiada siempre teniendo en cuenta estas diferencias estructurales. Quiere esto decir que no debiera hablarse de Bioética generalizando, como si esta disciplina pudiera ser idéntica en un país u otro, pues ello contribuiría, pensamos, a ocultar y tergiversar los hechos, como sucede a menudo, desde los discursos políticos, desde las informaciones de los medios de comunicación, etc.

En los Estados Unidos, por ejemplo, se contempla la Bioética desde una perspectiva diferente a la que puede plantearse en la Unión Europea a la que se presente en el contexto de un país como México, diferente a la que  se puede plantear en Guatemala , El Salvador o Argentina.




A)Aspectos socio políticos:

En abril de 1997 se presentaba en la ciudad asturiana de Oviedo(al Norte de España) el llamado Convenio de Asturias de Bioética, en el cual se trata de establecer unas directrices que marquen la pauta para el establecimiento de leyes y actividades encaminadas a la protección de los Derechos Humanos y la dignidad del ser humano con respecto a las aplicaciones de la Biología y la Biomedicina


Se propone elaborar políticas y legislar sobre los temas siguientes:

1)primacía del ser humano ;acceso equitativo a los beneficios de la sanidad; obligaciones profesionales y normas de conducta

2)consentimiento libre e informado de las personas afectadas por intervenciones médicas y protección en estos aspectos de personas con trastornos mentales y por último, la cuestiones de los deseos previamente expresados por las personas  respecto de las intervenciones médicas

3)el respeto a la vida privado y el control de la información médica

4)legislación sobre el genoma humano: pruebas predictivas ; intervenciones sobre el genoma humano. A este respecto, se propone un no a la elección de sexo, salvo en casos en que ello sea necesario para evitar posibles enfermedades que pudieran estar relacionadas con el sexo.

5)sobre la investigación científica: el uso de personas para experimentar , lo cual incluye el uso de embriones in vitro. Sobre este tema de los embriones, se explicita la prohibición(Art.18.2)de constituir -(fabricar)-embriones humanos para experiimentación, pero se admite la posibilidad de experimentar con embriones in vitro , lo cual nos parece un tanto paradójico, por cierto, o cuando menos, digno de mayor debate y discusión.

6)extracción de órganos y tejidos de donantes vivos para trasplantes.

7prohibición del lucro y utilización de partes extraídas del cuerpo humano

Una de las propuestas del Convenio de Asturias que nos parece importante y debe ser retomada por este Primer Foro sobre Ciencia, Tecnología y Sociedad, es la que insiste en la urgencia y necesidad de abrir un debate público en el que participe la sociedad a través de los mecanismos educativos ,medios de comunicación, instituciones jurídicas, políticas, que contemplen los problemas señalados desde sus aspectos éticos, médicos , inclusive económicos, de la Bioética, considerada ésta dentro de la complejidad internacional en que se desarrolla.


B)Aspectos éticos :

En Italia tuvo lugar una polémica ,durante el verano de 1996,entre los firmantes del Manifiesto de la Bioética Laica ,aparecido en el periódico de economía italiano Il sole 24 Ore y los principales estudiosos de la Bioética situados en lo que podemos llamar la Bioética de la Iglesia Católica.

Los temas centrales de la polémica giraban en torno a : 1- el laicismo;2- la concepción de la ciencia;3- la fecundación artificial y 4- el estatuto ontológico del embrión humano.

Durante dos meses(junio y julio de 1996),el debate fue aumentando en vehemencia, y los representantes de las posiciones católicas pedían a los “laicos” que toleraran la autoridad, es decir, que daban a entender a sus oponentes que la Iglesia es la máxima autoridad en estos asuntos, lo cual era uno de los aspectos que no aceptaban los firmantes del manifiesto laico.

La aparición de un documento sobre Bioética hecho público por el Comité Nacional de Bioética presentado en Roma el 12 de julio de 1996(este Documento venía siendo elaborado desde 1995 por un grupo de expertos en Bioética)vino a aumentar la tensión laicos/católicos al introducir el tema de la “Identidad y estatuto del embrión humano”.

Lo que tenemos, pues, es un debate entre quienes defienden la necesidad de que la Bioética tenga contenidos religiosos y aquellos que afirman que se puede hacer Bioética laica. El artículo del presidente de la asociación por la investigación laica en Bioética, Carlo Alberto Defanti es ilustrativo, su título era “Razonar fuera de la hipótesis de Dios”.

Otro de los temas surgidos en las publicaciones del periódico que publicó el Manifiesto, fue el relativo al problema de la investigación científica y su licitud moral. Participaron en él los ingleses Steven Roise y Hillary Rose, directora para la Sociedad Británica para la Responsabilidad Social de la Ciencia. Se publicaron artículos en los cuales se reivindicaba la necesidad de un control democrático sobre la ciencia ,en línea con las propuestas de Feyerabend. Lopert Wolpert, presidente del Comité para la comprensión pública de la ciencia),del University College de Londres, planteaba que no es la ciencia, sino el uso de sus resultados lo que exige una reflexión moral.

El debate había salido de la prensa y llegaba a la Universidad. En la Facultad de Ciencias Políticas de Milán, donde se discutió el contenido del Manifiesto .Ante la posición adoptada por el Comité Nacional de Bioética(pro cristiano)respecto de lo que Evandro Agazzi había definido como el “estatuto ontológico del embrión humano”,las críticas no se hicieron esperar.

El Comité Nacional de Bioética considera, respondiendo a la pregunta ¿es el embrión humano una persona?,que para todos los efectos, el embrión puede ser considerado persona.A esta afirmación contesta Armando Massarenti en Il Sole 24 Ore del 12 de julio que “no es posible sobre la base de conocimiento biológico disponible, decir que el embrión humano es un individuo humano o una persona”.El presidente de la sociedad italiana de filosofía analítica defiende la ética laica propugnada por los firmantes del Manifiesto frente a los postulados religiosos que sostiene el Comité Nacional de Bioética.

Para terminar el debate, el periódico de economía publica dos artículos redactados por ambas partes del debate, el día 21 de julio de 1996.Lo que se observa al final de tan “enconado” debate, es que los dos artículos coinciden en los puntos principales.

Es interesante señalar que el debate resurgió en 1998 con otro tema bioético: la fecundación artificial


*El contenido del Manifiesto de la Bioética Laica :


Este Manifiesto propone los siguientes principios básicos:

1-el progreso del conocimiento se entiende como amor a la verdad. No aceptan pues, los laicos, intromisiones desde fuera de la ciencia respecto de lo que ésta puede o no investigar.

2-el hombre no se opone a la naturaleza, pues forma él mismo parte de ella.

3-el progreso de la ciencia es progreso de la humanidad, pues ayuda a disminuir los sufrimientos a los seres humanos.

A partir de estos tres principios se establecen postulados prácticos, consistentes en :

1-el Principio de Autonomía Moral: “todo hombre es igualmente digno y ninguna autoridad sobre él puede decidir sobre su vida y su salud. Esto implica

el derecho a la información.

2-se debe garantizar el respeto de las convicciones religiosas de los individuos particulares. Se acepta esta influencia religiosa en el sentido de que ayuda a desarrollar una “ética difusa” en los individuos, pero no puede aceptarse que desde la fe religiosa se solucionen los problemas fundamentales que la bioética plantea.

3-Garantizar la “calidad de vida”.Los individuos tienen derecho a vivir y morir con el mínimo sufrimiento posible.

4-garantizar a todos los individuos un acceso a la medicina con el nivel más alto posible en relación a la sociedad en la que vive.


*Críticas que pueden hacerse a algunas de las anteriores propuestas:

Si se pretende aportar una ética verdaderamente laica, ella debería estar fundamentada en una ética también laica, independientemente de que se acepte o tolere otras propuestas de cuño religioso.

El postulado que propone aplicar diferentes criterios bioéticos, relativos a la situación económicas ,o en términos del Manifiesto ” en relación a la sociedad en que se vive “resulta muy criticable ,al menos desde posiciones no

neoliberales, en las que se reivindican conceptos como solidaridad social y política o conceptos como libertad ,en el sentido del filósofo Espinoza, quien la entiende en relación con la generosidad y la firmeza.[70]

La posición de la Iglesia la podemos sintetizar a través de las siguientes palabras del Papa Juan Pablo II: “la bioética tiene la tarea de indicar al mundo de la medicina, de la política, de la economía y a la sociedad en su conjunto, la orientación moral que hay que imprimir en la actividad humana y en el proyecto del futuro”.Además, afirma el Papa que “aflora con gran insistencia la existencia de guías seguras y de maestros de confianza. Parece por tanto, urgente que la bioética reflexione sobre las raíces ontológicas y antropológicas de las normas que deben orientar decisiones de tanta importancia. La bioética constituye el terreno privilegiado para un  sincero y profundo diálogo entre la Iglesia y la ciencia. Es en la verdad del hombre y en su ontológica dignidad(…)donde se pueden encontrar respuestas adecuadas a la exigencia ética que emerge de la genética, de los procesos de procreación”.La posición del Papa ,pues, va dirigida a criticar el relativismo moral y el utilitarismo que se encuentra en el Manifiesto.

Lo que es criticado en el Manifiesto es ,precisamente, esa intención teologizante respecto de la Bioética que se desprende de las propuestas católicas,además de rechazar el dirigismo de la Iglesia en estos asuntos, basado en dogmas religiosos incompatibles con la ética científica, aquella que ya en los años sesenta defendía y proponía el célebre y polémico premio Nobel de medicina Jacques Monod en su libro El azar y la necesidad. Frente a lo que él denominaba “El Reino de las Tinieblas”(se refería a la ética del reino de Dios, es decir, la Iglesia y las religiones en general) había que desarrollar una ética que tuviese en cuenta los resultados y teorías de las ciencias, en especial de la propia biología. Aunque hoy quizá sean insostenibles sus tesis acerca de lo que Monod llamaba teleonomía ,porque no se puede reducir la Bioética a planteamientos teóricos reduccionistas como el que considera a los seres vivos como mecanismos orientados a una función teleonómica (aunque es evidente que cada parte del cuerpo debe cumplir adecuadamente la función para la que se ha desarrollado, si se quiere mantener en equilibrio el sistema, es decir, la propia vida del organismo)

Acerca de la cuestión del estatuto ontológico del embrión, la Iglesia ,a través de uno de sus representantes, Monseñor Elio Sgreccia, defiende una posición que, por cierto, era sostenida en el periodo de oro de la Escolástica Medieval (en el siglo XIII) por el filósofo  y teólogo cristiano San Alberto Magno. Según San Alberto “el proceso de maduración del embrión humano es progresivo, por ello, en el origen de tal desenvolvimiento está ya todo el ser, incluso la misma inteligencia”.

Desde luego hay un matiz importante en la posición actual de la Iglesia, que propone lo siguiente: “la tesis de la humanización progresiva, según la cual, el embrión sería, sí un ser humano desde la concepción, pero no llegaría a ser persona hasta una fase sucesiva, no es sostenible desde la antropología filosófica”.

Hay que acotar dos cuestiones al respecto: la primera, que si tenemos en cuenta las posiciones defendidas por San Alberto Magno en este asunto del embrión y la de Monseñor Sgreccia ,podemos pensar que la Iglesia de nuestros días es más “cerrada”,más intolerante, más fundamentalista que la medieval. Por cierto,es de destacar en este contexto, que la posición que mantenía en la edad Media el célebre Doctor Angélico(Santo Tomás de Aquino)es increíblemente similar a la de muchos bioéticos no creyentes en nuestros días, a saber: “el embrión humano sólo llega a ser un individuo de la especie humana por medio de sucesivas generaciones y corrupciones, después de varios cambios sustanciales, el más importante consistente en la infusión del alma espiritual al cabo de unas pocas semanas después de la fecundación.(Esta es la llamada “doctrina de la infusión retardada del alma).La posición actual de la Iglesia es mucho más radical que la defendida por dos de sus más respetados teóricos medievales, ya que sostiene actualmente que desde el momento en que existe un óvulo fecundado, ya hay un ser humano plenamente respetable como individuo y persona…Podríamos nosotros preguntar:¿quizá como persona en potencia?

Por otra parte, debemos, en segundo lugar, señalar que el concepto de persona no sólo precisa de una “reconstrucción crítica” desde la filosofía, cosa que naturalmente la Iglesia no lleva ni llevará a cabo, pues parte de una concepción dogmática del concepto. Por otra parte, habría que criticar, desde la propia filosofía, la noción de “antropología filosófica manejada por Monseñor Sgreccia, pues es muy probable que este concepto, desde las coordenadas de la Iglesia Católica ,coincidan más con su concepción antropológico -teológica que con una verdadera antropología filosófica. Inclusive es necesario someter al concepto de antropología filosófica a revisión crítica, pues no es fácilmente determinable la Idea de Hombre, que en sí resulta problemática desde planteamientos gnoseológicos.[71]



El filósofo Gustavo Bueno  propone ,desde las coordenadas teóricas de la llamada Teoría de la Ciencia del Cierre Categorial, unos lineamientos básicos para la discusión actual sobre los problemas teóricos y prácticos que enfrenta la Bioética.[72]

En el artículo titulado “Principios y reglas generales de una Bioética materialista”(Bueno,”El Basilisco”1999),se advierte que “la Bioética arrastra desde su constitución la confusión con la biomoral, y por tanto, con la biopolítica”.

Como sabemos, comenta el filósofo español, los problemas prácticos en la Bioética han surgido de cuatro factores básicos:

1-de la medicina experimental y la biotecnología: transplantes de órganos, clonación, manipulación o ingeniería genética, etc.

2-las propias transformaciones de la estructura social en nuestra época:

*incremento demográfico, precisamente inducido por el desarrollo científico industrial.

*la situación de “neutralización de la influencia social y política de los códigos éticos, morales o religiosos propios de diferentes confesiones religiosas o partidos políticos, en función de la llamada mundialización -algunos prefieren el término globalización-de las relaciones internacionales y expansión de las sociedades democráticas asociadas a la economía de mercado de los consumidores”.

3-Bueno propone una tesis que consiste en el  siguiente planteamiento:

a la unidad que aporta la propia problemática de la Bioética no le corresponde una unidad doctrinal. Esta unidad derivada de la problemática común reúne los problemas clínicos, los problemas científico experimentales, los políticos y los morales derivados de la actividad en este campo científico técnico, pero dado que la expresión “doctrina bioética” (la cual consistiría en la elaboración de resoluciones y reglas consensuadas)no es ni mucho menos un concepto unívoco, con un sentido definido y común a todos los componentes que constituyen la Bioética ,dado que existen diferentes versiones de la Bioética, según que los principios adoptados procedan de la Bioética cristiana, de la musulmana, la socialista, la liberal o la utilitarista.




En el contexto de la propuesta de Bueno, surge la necesidad de criticar desde la filosofía, los planteamientos surgidos en el llamado Informe Belmont, propuesto por la Comisión del Congreso de los Estados Unidos que trabajó desde 1974 hasta 1978 en su elaboración.

La relevancia que tiene esta crítica se deriva, además de su enorme interés para una crítica filosófica del mismo, de la influencia que los planteamientos del mismo tienen en el desarrollo de la Bioética.

La cuestión a discutir radica en la distinción entre lo que podemos denominar principios ,que son de carácter general, y las reglas, que pertenecen al ámbito de lo concreto, de la aplicación de normas o principios generales a casos concretos, digamos .

El Informe Belmont establece como principios fundamentales el principio de autonomía, el de beneficencia, el de justicia y el de no maleficencia.

En este asunto de la distinción principios/reglas radican las principales cuestiones filosóficas que presenta la Bioética.

Este asunto es contemplado por la tradición aristotélica, nos explica Gustavo Bueno, ya que en ella está presente la distinción entre 1)los principios prácticos de la prudencia y 2)los principios prácticos de la “sindéresis”[73].

Lo importante de esta cuestión para la Bioética, radica en el hecho de que aunque pueda haber acuerdos bioéticos importantes respecto de los principios generales, cabe la posibilidad de disentimientos en cuanto a las conclusiones.

A este respecto Bueno propone una tesis,a saber: los principios no tienen excepciones ;y las reglas sí tienen excepciones.

El hecho de que los principios carezcan de excepciones se debe a su carácter abstracto. Sin embargo, las reglas tienen excepciones “porque las alternativas sobre las que ellas-las reglas-deciden no suelen ser disyuntivas, ni claras ni distintas, y caben coyunturas límites”

Los principios que se proponen en el Informe Belmont no son sino equivalentes actuales de los principios generales de la sindéresis: “el bien es a hacer y el mal a evitar”,que podemos hacer equivaler con los principios del Informe llamados de beneficencia y de no maleficencia .Lo mismo sucede con los principios de autonomía y de justicia, que pueden presentarse como equivalentes de la norma kantiana del imperativo categórico, en tanto supone la autonomía de la voluntad .

El confusionismo que Bueno denuncia en el Informe Belmont viene dado a partir de la falta de definición de los parámetros dentro de los cuales ha de ejercitarse, digamos , la prudencia.

La relevancia de los principios para la Bioética radica en el hecho de que “todo aquel que busque formarse un juicio bioético(…)tiene que acogerse a criterios extrínsecos, morales, políticos, prudenciales, es decir, a los principios.

Los principios y reglas de la Bioética han de seguir un hilo conductor preciso, en esta propuesta por Bueno presentada como un primer “borrador”,es decir, una primera aproximación al problema, que debe ser reelaborada a partir de discusiones más amplias y de debates abiertos entre las diversas investigaciones elaboradas o en curso.         Estos principios y reglas, siguiendo los lineamientos de la Teoría del Cierre Categorial ,se articulan en relación con los términos ,las relaciones y las operaciones del “eje sintáctico”.


Nos centraremos ahora en los principios y reglas de los términos, y remitimos a ustedes a la lectura del artículo de Bueno, dada la limitada disposición de espacio y tiempo que tenemos en este trabajo, y por la relevancia de otros asuntos que consideramos imprescindible exponer a su consideración.

Los términos esenciales son los “sujetos humanos corpóreos “Las leyes o normas le son dadas al individuo por el grupo, por las normas sociales-asegura Bueno. La autodeterminación, entendida como un proceso en el cual el sujeto realiza planes y programas ,a partir del cual son ejecutadas sus acciones, pero esta libre autodeterminación se da en un contexto en el cual el sujeto ha de adaptar su conducta a normas heterónomas vigentes en el grupo al cual pertenece ,además de la propia cooperación con el grupo social.

Por considerar de sumo interés para comprender la propuesta bioética de Bueno, transcribimos este texto :

“(…)el campo de la bioética es ,ante todo ,un campo de individuos abstraída su personalidad, antes que un campo de personas(que es el campo del derecho e incluso de la ética).Porque la bioética se ocupa primordialmente de los componentes orgánicos que, o no son personas canónicas(sino embriones, fetos, monstruos bicípites  o alelos),o bien han dejado de serlo(individuos en coma irreversible ,enfermos terminales, etc.)


Pasaremos a plantear algunos aspectos de la Bioética desde una perspectiva “global”,pero que tiene importantes consecuencias para América Latina, como vamos a comprobar a continuación.




El asunto que nos ocupa, que como sabemos ,incluye como uno de los puntos fundamentales el uso de técnicas médico farmacéuticas para transplantar órganos y tejidos humanos, además de las discusiones de carácter ético y jurídico que implican la toma de decisiones de enorme relevancia para la comunidad médica, conlleva el análisis de aspectos que no resultan nada agradables ,pero que consideramos urgente e irrenunciable poner a la consideración de todas las personas interesadas en un estudio serio de los aspectos más delicados, desde el punto de vista ético y humano, entre los que me atrevo a destacar el del uso de órganos y su regulación o no, en el mercado mundial de órganos.

Existe un cierto mutismo en los medios y escasa información bibliográfica al respecto. Sin embargo, podemos contar con informes importantes y algunos libros y ensayos sobre lo que parece ser incluso un “floreciente negocio” en el cual estrían coludidos todo tipo de personas de la más baja estofa moral, desde políticos corruptos, hasta médicos e incluso alguna de las más grandes empresas de fabricación de fármacos.

La base más importante para mi exposición la aporta el investigador y filósofo político Stephen A. Hasam en un ensayo presentado el año 1996 al XX Congreso de la Asociación Latinoamericana de Sociología. Su ensayo titulado “Tráfico de infantes y nueva inserción de América Latina en el mercado mundial” resulta de hecho espeluznante, pero ello no supone que, cuando se conoce la realidad latinoamericana un poco a fondo, y se reflexiona sobre los datos que aporta Hasam sobre el asunto de los niños y personas sometidos a las leyes del mercado sacrosanto, al menos surgen dudas acerca de los modelos democráticos ,en cuanto a su carácter ético y moral, es cuando constatamos su modo de enfrentar un problema de la suma gravedad como el que exponemos a continuación, ya que no hay una reacción contundente por parte de los gobiernos mundiales implicados para resolver el problema.

La ONU solicitó a su Comisión de Derechos Humanos un trabajo de investigación de “las formas contemporáneas de esclavitud”.La investigación produjo lo que llamaremos el Informe Eide. El encargado de la investigación ,el señor Asbjorn Eide informaba en rueda de prensa el 1 de agosto de 1989 en la ciudad de Ginebra acerca de que aproximadamente un millón de niños viven en todo el mundo en condiciones de esclavitud que implican varias formas: venta de infantes para adopción; prostitución de menores (vía por ejemplo el llamado turismo sexual);pornografía infantil; trabajo infantil explotado sin limitaciones de ninguna clase, auténticos niños esclavos, de cuyo trabajo se benefician compañías de “renombre” mundial; obligación por parte de adultos ,a niños que actúan como criminales al servicio de todo tipo de mafias ;y la utilización de menores para el trasplante de órganos.

De hecho hay un mercado de adopción ilegal de niños, como se ha revelado en varias ocasiones,y en alguna de ellas los propios dirigentes políticos de países de América Latina han testificado sobre la existencia de este mercado macabro ,al que nada tendría que envidiar el célebre genocida infantil Herodes.

Algunas cifras revelan este macabro aspecto en el que está implicada la Bioética ,el mercado ,la medicina, la propia sociedad a la que se trata de ocultar el fenómeno(¿caso será por defender a los corruptos del escándalo y de la ley?)-aunque pareciera que en Europa y los Estados Unidos, así como otros países consumidores de órganos, el tema es un tabú casi absoluto. Cerca de 20 mil infantes al año desaparecen en la frontera mexicano-estadounidense; aproximadamente 3 mil infantes brasileños son vendidos ilegalmente al exterior; existen cerca de 20 mil niños y niñas prostitutas en Filipinas, en la India 400 mil son sometidas al mercado sexual. Las cifras siguen en todo el llamado Sudeste Asiático: Sri Lanka ,Tailnadia, Corea del Sur. Ahora se incorpora a este “mercado” lo que fue la Europa del Este.El turismo sexual es fuente importantísima de divisas para esos países y de enriquecimiento para sus corruptos dirigentes y sus socios mafiosos.

La aparición del SIDA y el mejoramiento de técnicas para el trasplante han contribuido , al parecer, a aumentar la demanda de órganos para trasplantes entre las gentes adineradas de los países ricos, especialmente Estados Unidos, Europa ,Israel y seguramente entre las clases pudientes de los países pobres.

El experto de la Organización Mundial de la Salud(OMS),doctor Jerzy Szszerban comentaba, en informe a la periodista de investigación Anne Marie Mergier que “la oferta de órganos no permite satisfacer la demanda y esa penuria, cada vez más importante, provoca un aumento en el tráfico comercial de órganos”.

El citado doctor de la OMS que existe un mercado negro de órganos .Los precios para trasplantes en los Estados Unidos eran de alrededor de 140 mil dólares para el corazón,235 mil para el páncreas,70 mil para pulmones y 51 mil dólares un riñón.

La secretaria general de la Asociación Internacional de Jueces para la Democracia (AIJD),Renée Bridel señalaba el peligro de este tráfico de órganos clandestino, y a raíz de una solicitud de la OMS , la AIJD elaboraba unos principios para regular el trasplante de órganos, que fue presentado en la 44 Asamblea de la OMS el 13 de mayo de 1991,con un contenido de nueve puntos, del que destacaremos ahora el punto cuarto:”Ningún órgano  puede ser sacado de un menor de edad con fines de trasplante. La legislación nacional puede prever excepciones sólo si se trata de  tejidos regenerables “.

Mientras tanto, el número de aspirantes a recibir un órgano aumenta en Alemania ,en Estados Unidos, en todos los países ricos.

En este  sentido es interesante la lectura del artículo de Ivan Illich en Le Monde Diplomatique ,en el que se invita a reflexionar sobre el modelo de práctica médica que se está implementando en los países ricos ,en los que la salud total y absoluta supone, como sugiere Stephen Hasam,en línea con los artículos de Le Monde Diplomatique , “una visión patológica de la vida y la muerte con sus implicaciones filosóficas y culturales”.

Es un hecho que en países como Egipto, Brasil, Turquía y la India hay pobres que ofrecen sus riñones ,su sangre y por qué no, un ojo, o una córnea, para salir de la miseria que los mantiene al borde de la muerte. Quiero recordar que no hace poco, en la España actual, ahora socia comunitaria, un obrero desempleado ,en su desesperación, ofrecía uno de sus riñones a cambio de un trabajo permanente, de salario mínimo.

El tráfico de sangre es de sobra conocido, aunque el de órganos parece estar siempre oculto tras un velo gris de muerte. Por cierto, es interesante destacar que el principal consumidor de sangre humana y de plasma en el mundo ha sido la industria farmacéutica multinacional germana.

Un gran escándalo sucedió en Brasil a raíz del comercio de sangre humana, donde se vieron involucrados, además de la pobre gente marginada de la ciudad de Persépolis, el laboratorio de la Hoechst en esa ciudad, además de personal de la facultad de medicina, incluidos asesinatos.”como si fuera Chicago”,comenta Hasam .

La radio sueca Riksradio-Network, denunciaba el 7 de enero de 1979,como denunciaba a su vez el periodista alemán Siegrfried Pater que “En Haití y en varias localidades de Brasil se ha encontrado un método para la extracción y obtención de sangre barata para exportación. Huérfanos y pequeños infantes provenientes de familias grandes que viven en la penuria económica, son ingresados en las así llamadas instituciones de beneficencia que sin embargo funcionan como granjas de sangre”.

Como podemos ver, los datos que nos aporta el trabajo de Hasam y otros que él ha manejado en su ensayo, superan cualquier tipo de ficción, y la novela Mundo feliz de Huxley resulta un cuento de hadas al lado de la realidad de la “Aldea Global”.

Esperemos que estas denuncias sirvan, cuando menos, para reflexionar y actuar en consecuencia ,poniendo cada uno de nosotros lo que esté en sus manos para evitar que este modelo de sociedad sometida a las tiránicas leyes del mercado,sea cuestionado y nuevas propuestas  sociales para la medicina y la salud de nuestros hijos y sociedades surjan ,ya que la urgencia de la situación es cada día más evidente.

Terminamos nuestra intervención haciéndonos eco de las conclusiones de Hasam, retomando sus palabras:

“Pasan los años y es evidente que la reticencia de la opinión pública -o quienes la manejan, es decir, los medios de comunicación y sus aliados políticos y socios financieros -y de los Estados a reconocer la magnitud increíble del tráfico de infantes y sus múltiples usos y fines ha resultado sumamente tenaz. No es para menos, pues la aceptación de esto implicaría la existencia de crímenes de lesa humanidad por mayoreo perpetrados anualmente a decenas de miles de infantes en América Latina y en los países ricos y “civilizados” que los importan enteros o en partes, vivos o muertos. Implicaría también descubrir públicamente y enjuiciar a los consumidores, sean éstos personas, hospitales o la industria farmacéutica química multinacional, y a la red de suministradores. Finalmente, implicaría también aceptar que crímenes de lesa humanidad al mayoreo y menudeo ocurren en tiempos de paz

;no tienen nada que ver con estados de guerra ni con ninguna dictadura que no sea la dictadura del “mercado” en los países civiles,”democráticos” y “civilizados” del Norte y del Sur.”La guerra es la paz” profetizó Georges Orwell en 1984″.También se negaba, nos recuerda muy oportunamente Hasam, la existencia de campos de exterminio nazi, a pesar de denuncias, y los gobiernos,enemigos del Tercer Imperio Alemán(Tercer Reich hitleriano)de los Estados Unidos y de Inglaterra, negaban e incluso ocultaban dichas denuncias y ,al igual que sucede hoy, se niega por “increíble”,se afirma que es inexistente, este macabro tráfico de órganos infantiles y de adultos en este “glorioso” siglo que termina.¿Qué maravillas nos aportará la tecnociencia Occidental para el nuevo milenio?.Ya nos lo muestra, orgullosa, la revista de difusión globalizada TIME, en un especial de su último número. Parece que casi seremos auténticos semidioses en el siglo XXI(o lo serán más bien, seamos exactos y rigurosos)los “pudientes” del mundo feliz),pero unos semidioses que necesitarán rituales de sacrificios humanos para vivir como tales, cuasi inmortales, y más allá del dolor y el mal.



Margarita Boladeras;Bioética;Madrid;Ed.Síntesis;1998

Gustavo Bueno;El sentido de la vida ;Oviedo(España);Ed.Pentalfa;1996

– – – – –   – – – -;”Principios y reglas de una Bioética materialista”;en revista El Basilisco;2ª.época;N°25;enero-marzo 1999(Apdo.360-Oviedo 33080(España)

Joseph Fletcher;Etica del control genético ;Buenos Aires;Ed.Aurora;1978

Aníbal Guzmán Avalos;”La Iglesia Católica y la reproducción asistida”;en revista

Estudios Jurídicos;Nueva época;N°3;1996;Innstituto de Investigaciones Jurídicas;Universidad VeracruzanaGaleana esq.7 de noviembre Xalapa,Veracruz,México CP 91050

Stephen A. Hasam;”Tráfico de infantes y nueva inserción de América Latina en el mercado mundial”.En el libro colectivo América Latina (violencia y miseria en el crepúsculo del siglo),Carlos Figueroa (comp.)Eds. Benemérita Universidad Autónoma de Puebla;Instituto de Ciencias Sociales y Humanidades; Asociación Latinoamericana de Sociología

—- —- — —-;”Turismo sexual y la explotaciiiión sexual de menores”;artículo inédito-copyright UNESCO.Para la revista  “Diálogo”(UNESCO)septiembre de 1999

Pablo Huerga ;”El manifiesto de la Bioética laica”;en el web de internet de la revista Cuedernos de Bioética(Argentina) que se encuentra en el URL

Ivan Illich;”La obsesión por la salud perfecta”;en mensual Le Monde Diplomatique;marzo de 1999;Edición española; en internet se puede acceder en URL

J.P.Papart;Ph.Chastonay y D.Froidevaux;”Biotecnologías para uso de ricos”;en

mensual Le Monde Diplomatique;marzo de 1999;edición española; en internet se puede acceder en URL

VVAA;Introduccióna la Bioética; México; Méndez Eds.;1997



“Israeli Anti-Cloning Law”se puede consultar en la web en este URL



Declaración sobre la utilización del progreso científico y tecnológico en interés de la paz y en beneficio de la humanidad”(resolución 3384(XXX),de 10 de noviembre de 1975


CONSEJO DE EUROPA “Convenio de Asturias de Bioética”(Oviedo,4 de abril de 1997)

“Convenio para la protección de los Derechos Humanos y la dignidad del ser humano con respecto a las aplicaciones de la Biología y la Medicina”.Convenio sobre los Derechos Humanos y la Biomedicina

Se puede consultar en el web vía internet en este URL





















































[1] Cuando mencionemos la obra de Bueno Teoría del Cierre Caategorial,citaremos por sus siglas TCC,seguido del volumen mencionado.Aquí,por ej. TCC,Vol.5


[2] covering –law : según el modelo desarrollado por Hempel: “una proposición o enunciado de un hecho particular o general es explicado si y sólo si es deducido de otras proposiciones que incluyen cuando menos una ley científica de carácter general.Para hechos particulares,este modelo (“covering-law”)la simetría entre explicación y predicción: si un evento puede ser explicado,debería haber podido ser predicho, y viceversa.Esta teoría tiene afinidad con la teoría de Hume acerca de la necesaria afinidad causal,pero por ello tiene los mismos problemas para explicar tanto la causalidad como el


[3] Cfr.Hurd &Kipling,Vol.2,pág.113

[4] Cfr.TCC;Vol.4;pág.145

[5] Cfr.TCC,Vol.4; pág.150 ss.

Esto es de enorme relevancia para nuestra crítica de las teorías de la ciencia,ya que es precisamente esta revalorización de lo que Bueno llama “cuerpo” de las ciencias,uno de los aspectos fundamentales de la teoría del cierre categorial,pues ésta concede un valor esencial a la historia de la ciencia,en cuanto ella forma parte de esa relación entre materia y forma,como se verá.

[6] En el apartado sobre las “reglas metodológicas”, del capítulo sobre falsabilidad,en su libro The logic of scientific discovery,pág.82

[7] Cfr.Bueno;TCC;Vol.4;pág.168

[8] Cfr.Bueno;TCC;Vol.4;pág.178 . Vamos a exponer alguna de las formas en que Weyl explica su teoría de la ciencia para constatar eso.

[9] Cfr.Hermann Weyl;op.cit.;pág.41

[10] En este punto de nuestra exposición, debemos seguir la explicación  de Bueno en detalle,ya que hace referencia a una “distinción similar a la que Husserl había establecido entre singularidades e individualidades”  en Investigaciones lógicas Iógicas,II,*2.Se tratará la cuestión, in extenso, en el aula.

[11] Para mayor detalle acerca de estos términos,consultar el Diccionario filosófico , de Pelayo García,en el siguiente web :

[12] Cfr.Popper;The logic of scientific discovery; pág.127.

Acerca del término “composite”,debemos comentar que es imprescindible recordar el concepto de verdad de Tarski,el cual,por cierto,es objeto de estudio detallado en la obra citada de Bueno(TCC).Dice Popper,en el Nº 31 de la obra de referencia: “Ahora la teoría científica busc,precisamente,obtener teorías que sean fácilmente falsables en este sentido.Busca restringir el rango de eventos permitidos a un mínimo; y si ello puede ser llevado a cabo de alguna manera,a tal grado que ninguna restricción posterior pudiera llevar a una falsación actual empírica de la teoría.Si lográsemos el éxito en tener una teoría tl,ella podría describir “nuestro mundo particular” tan precisamente como lo puede hacer una teoría;pues sacaría el mundo de nuestra experiencia de la clase de todos los mundos posibles(lógicamente) de la experiencia con la mayor precisión posible por medio de la ciencia teórica.Todas las clases y eventos y sucesos que actualmente encontramos y observamos, y sólo ellos,serán caracterizados como “permitidos”.

[13] Cfr.Bueno;TCC;Vol.5;pág.30-31

[14] Cfr.Bunge;Epistemología.(Ciencia de la ciencia); Barcelona;Ed.Ariel;1980

[15] Estas son las propuestas de Bunge,respecto a lo que en la TCC se denomina la “forma” de las ciencias.


[16] En su libro Causalidad, nos propone una lista(incompleta, según su propia advertencia) de las categroaías de la determinación.Aclaremos que este concepto es relacionado con los de causalismo y determinismo,casuación y determinación.La lista: autodeterminación cuantitativa;determinación casual o causación;interacción(interdependencia funcional);determinación mecánica;determinación estructural(totalista);determinación teleológica;determinación dialéctica( o autodeterminación cualitativa).Es de señalar que la relevancia de Bunge como teórico de la ciencia,precisa de una crítica,que es propuesta desde la TCC ,en el sentido de que su adecuacionismo supone,como se constata en sus escritos,que cualquier hecho puede ser explicado a través de una teoría,y que por lo tanto,las teorías se organizan de un modo similar en ciencia natural como en ciencia social.Esto es un grave problema gnoseológico,pues se pasa de unas categorías a otras sin criterios válidos ontológicamente.Queremos decir que,en casos comoel problema de la relación “mente”/cuerpo , o “conciencia/cerebro,hay muchos errores gnoseológicos serios debidos a una teoría errónea en su modo de establecer criterios para relacionar la materia y la forma.

[17] Cfr.Bunge;Causalidad;pág 30

[18] El nivel de exposición de esta cuestión va a partir de lo expuesto en el libro: Order and caos.(laws of energy and entropy) de Stanley Angrist y Loren Hepler,por un lado y el libro “técnico” de Norbert Wiener : Cybernetics.(or control and communication in the animal and the machine),por otra parte.El libro divulgativo de Wiener sobre la entropía y la cibernética lo dejamos ahora a parte,pues hemos considerado más práctico,para la exposición el libro de Angrist y Hepler.

[19] El concepto fue introducido por Clausius tras observar la relación del calor con la temperatura y constatar en ella propiedades especiales.

[20] En el glosario del Vol. 5 de TCC : “Puesto que las relaciones reflexivas no son originarias,sino derivadas,por ejemplo,de relaciones simétricas y transitivas previas o del producto relativo de dos relaciones distintas recíprocas (xRy/yQx) toda identidad,por el mero hecho de serlo,es sintética,material.La identidad analítica es absurda y constituye el caso límite de la reflexividad,que también tomada absolutamente carece de contenido.La identidad sintética,en cambio,incluye siempre diversidad y es operatoria.Tanto las verdades científicas,comolas leyes científicas,en cuanto contenidos esenciales,en el eje semántico,resultan de procesos de confluencia operatoria que resuelven en identidades sintéticas.El concepto de verdad científica se define,en la teoría del cierre,por la identidad sintética.Ejemplo de identidad sintética la que media entre la masa de gravitación y la masa de inercia en la teoría general de la relatividad.”

[21] Cfr.G.Bueno;TCC;Vol.4;pág.66-67

[22] Ya que se da una “definición estadísitica de la entropía”,es interesante tener en cuenta las críticas de Russell al propio Reichenbach,sobre esta cuestión y la de la “inducción”,en el libro de Russell El conocimiento humano.

[23] Se refiere a la aportada por Boltzmann,que reconocía que “la probabilidad W de un estado está relacionada con el estado de la entropía S, y estableció la famosa relación  (mantenida dentro de una aditiva constante) : S= k.log W.

[24]   Cfr.Pelayo García ,su “Diccionariofilosófico” en


NOTA: estas definiciones,por cuestiones de claridad,están tomadas tal cual del diccionario de Pelayo García.Se explicará su sentido gnoseológico en el siguiente apartado “Definición del circularismo ”.Pero considero importante que se vaya introduciéndola terminología de Gustavo Bueno ,para facilitar su manejo en las partes segunda y tercera.

“Situaciones a / Situaciones b (del campo semántico de las ciencias)

Situaciones a. Situación de aquellas ciencias en cuyos campos no aparezca, entre sus términos el sujeto gnoseológico (SG); o un análogo suyo riguroso: un animal dotado de la capacidad operatoria (Sultán, de Köhler, «resolviendo problemas» mediante composiciones y separaciones de cañas de bambú). Esta situación corresponde a la de las ciencias físicas, a la Química, a la Biología Molecular.

Situaciones b. Situación de aquellas ciencias en cuyos campos aparezcan (entre sus términos) los sujetos gnoseológicos o análogos suyos rigurosos. Esta situación corresponde a la de las ciencias humanas. La demostración de que la distinción entre «ciencias naturales» y «ciencias humanas», a partir del criterio propuesto, tiene significado gnoseológico, puede llevarse a cabo del modo más inmediato: mostrando que la situación b afecta a un conjunto de ciencias que se relacionan con ella, por razón misma de su cientificidad.

Es la cientificidad misma de las ciencias asociadas a las situaciones b (es decir, las «ciencias humanas») aquello que queda comprometido. Mientras en las ciencias naturales y formales las operaciones son exteriores, no sólo a la verdad objetiva, sino también al campo, en las ciencias humanas las operaciones no son externas a ese campo; por ello, constituye un episodio intracientífico que puede formularse como un acontecimiento propio del sector fenomenológico del campo científico. Pues las operaciones son fenómenos de los campos etológicos y humanos: es preciso partir de ellos y volver a ellos. Esto nos permite introducir, en la estructura interna gnoseológica de las ciencias humanas, así definidas, dos tendencias opuestas, por aplicación del principio gnoseológico general (regressus de los fenómenos a las esencias y progressus de las esencias a los fenómenos) al caso particular en el que los fenómenos son operaciones: metodologíasa y b de las ciencias humanas (inicialmente) y, en una segunda fase, metodologías-a de las ciencias en general.



Metodologías b-operatorias / Metodologías a-operatorias

Metodologías b-operatorias: procedimientos de las ciencias humanas en los cuales esas ciencias consideran como presente en sus campos al sujeto operatorio (con lo que ello implica: relaciones apotéticas, fenómenos, causas finales, &c.).

Metodologías a-operatorias: procedimientos que atribuimos a las ciencias humanas en virtud de las cuales son eliminadas o neutralizadas las operaciones iniciales, a efectos de llevar a cabo conexiones entre los términos al margen de los nexos operatorios (apotéticos) originarios. Ulteriormente, por analogía, llamaremos metodologías a a aquellos procedimientos de las ciencias naturales que ni siquiera pueden considerarse como derivados de la neutralización de metodologías b previas. La dialéctica de las metodologías a y b puede formularse de este modo: las ciencias humanas, en tanto parten de campos de fenómenos humanos (y etológicos), comenzarán por medio de construcciones b-operatorias; en estas fases no podrán alcanzar el estado de plenitud científica. Este requiere la neutralización de las operaciones y la elevación de los fenómenos al orden esencial. Pero este proceder culmina, en su límite, con el desprendimiento de los fenómenos (operatorios, según lo dicho) por los cuales se especifican como «humanas». En consecuencia, al incluirse en la situación a, alcanzarán su plenitud genérica de ciencias, a la vez que perderán su condición específica de humanas. Por último, en virtud del progressus («vuelta a los fenómenos»), al que han de acogerse estas construcciones científicas, en situación a, al volver a los fenómenos, recuperarán su condición de metodologías b-operatorias. Esta dialéctica nos inclina a forjar una imagen de las ciencias humanas en polémica permanente, en cuanto a los fundamentos mismos de su cientificidad. El concepto de «ciencias humanas» que hemos construido se apoya en las situaciones límite, en las cotas del proceso (a saber, el inicio de las metodologías b-operatorias, y su término a-operatorio). Pero entre los límites extremos cabrá establecer el concepto de «estados intermedios de equilibrio». ”




[25] Cfr.Bueno;TCC;Vol.5;pág.40 y págs.71-90

[26] Ibid.;pág.85

[27] La definición de “Symploké” que nos ofrece el Diccionario filosófico de Pelayo García en es como sigue :

“Entrelazamiento de las cosas que constituyen una situación (efímera o estable), un sistema, una totalidad o diversas totalidades, cuando se subraya no sólo el momento de la conexión (que incluye siempre un momento de conflicto) sino el momento de la desconexión o independencia parcial mutua entre términos, secuencias, &c., comprendidos en la symploké . La interpretación de ciertos textos platónicos (El Sofista, 251e-253e) como si fueran una formulación de un principio universal de symploké (que se opondrá, tanto al monismo holista –«todo está vinculado con todo»– como al pluralismo radical –«nada está vinculado, al menos internamente, con nada»–) es la que nos mueve a considerar a Platón como fundador del método crítico filosófico (por oposición al método de la metafísica holista o pluralista de la «filosofía académica»).”


[28] Cfr.TCC;Vol.5;págs.129-130.

Bueno expone a través de este ejemplo la oposición radical del circularismo con el adecuacionismo.Además le sirve para presentar una primera aproximación al concepto de “cierre categorial”,el cual no ha de entenderse como una “clausura” del sistema,en tanto éste es perfecto e inmutable.Los términos y las relaciones  se concatenan (operatoriamente),y ello garantiza que las conexiones establecidas no sean meramente empíricas o meramente contingentes,sino necesarias, y no necesarias en abstracto,sino,gracias a las concatenaciones materiales(entre términos y relaciones del “eje sintáctico”,del campo del espacio gnoseológico de las ciencias).Para estos conceptos ,consultar,además de TCC , el citado Diccionario filosófico de Pelayo García en el web,además,ejemplos de las ciencias ,en especial en la Parte Segunda,en los que estos conceptos se someten a consideración crítica.

[29] Cfr.TCC;Vol.5;pág.133-134

[30] En Bueno,op.cit.TCC;Vol. 5 ; pág 136

[31] Bueno;TCC;Vol.5 pág.146

Sobre el concepto de contextos determinantes,en la Segunda Parte,al exponer la Teoría de la evolución en el contexto de la obra de Faustino Cordón,mostraremos cómo es aplicable el modelo del Cierre Categorial a través de un caso concreto de la Biología.

Una vez más recurrimos a la definición que nos aporta Pelayo garcía en el citado Diccionaro filosófico , a saber:


Contextos determinados / Contextos determinantes :

La construcción categorial llevada a cabo por cada ciencia se mantiene en el ámbito de los términos, relaciones y operaciones [190] genéricos o  primarios de cada categoría (los puntos y rectas en Geometría, las  distancias, la adición). Pero a partir de ellos no sería posible ninguna construcción: es preciso detenerse en algunos principia media objetuales  (términos y relaciones), internos a la categoría, en configuraciones o morfologías (como puedan serlo, en Geometría, «circunferencia» o «cuadrado») que, sin perjuicio de poder resolverse ad integrum en los términos primarios del campo categorial no pueden, sin embargo, constituirse a partir de esos términos, relaciones, &c. (en el caso del ejemplo geométrico, el número de sus términos primarios es infinito). Estas configuraciones morfológicas son los contextos determinados en cuyo ámbito podrán establecerse las relaciones de identidad sintética. Por ello estas configuraciones no sólo estarán constituidas con los términos y  relaciones primarias del campo categorial en el cual se organizan, sino que habrán de estarlo según ciertos esquemas materiales de identidad (como  pueda serlo la equidistancia de los puntos de la circunferencia al centro, del ejemplo anterior) para que estos contextos determinados puedan desarrollarse de suerte que, en su ámbito y entre sus partes (que ya no tendrán que ser primarias, sino «intermedias», por ejemplo, en el caso anterior, «diámetros», «arcos», &c.) han sido establecidas relaciones  necesarias de identidad. En estos casos, esos contextos determinados  podrán ser llamados contextos determinantes (un contexto sólo es determinante a posteriori, por sus resultados y no por alguna  «potencialidad» o «virtualidad» a priori).



[32] A partir de ahora,todo lo que esté relacionado directamente con Faustino Cordón,estará incluído en el capítulo siete de la Parte Segunda ,Vol. II de su Tratado evolucionista de Biología. Además de las notas de Cordón a dicho capítulo,fundamentales para un curso de Historia crítica de la ciencia.

[33] Pongamos por caso,el “célebre” problema(presentado incluso por algunos autores ,pongamos por caso,Laín Entralgo,como enigma)de la conciencia,en lo que se llama – a mi juicio erróneamente,(si tenemos en cuenta la aportación de Faustino Cordón,precisamente) la “Filosofía de la mente”

[34] Esta propuesta debe ser enfocada, como el mismo Cordón explica en una nota del volumen  I de la obra ,con la perspectiva gnoseológica de evitar lo que allí(nota1 al cap.3) define el gran biólogo como “una desviación anticientífica(idealista, sustantivista )del pensamiento”.¿A qué desviación se refiere?. A la que podemos constatar después de catorce años de publicar el volúmen I (1977),que se dedica a estudiar “artefactos” ,sin tener en cuenta su conexión con lo que Cordón llama aquí  “el vínculo con la realidad en torno,vista desde una perspectiva conveniente para que ésta se nos ofrezca como puro proceso, como acontecer incesante y total.” La desviación de estudiar partes ,como el genoma, sin vincularlas a la “experiencia y acción” dada en tres niveles ,como propone Cordón.

Considero de utilidad recordar la propuesta realizada por la TCC de Gustavo Bueno respecto de este asunto , que incluye los conceptos siguientes: todo/parte(las totalidades atributivas y distributivas).Los conceptos de isológico y sinalógico.Entorno,contorno y dintorno.Podemos aconsejar consultar los citados Diccionario filosófico de García Pelayo en internet: http://filosofia,org/ y elVol. 5 de TCC,de G.Bueno,”glosario”.






Los dos sentidos de un curso operatorio circular que, partiendo de determinadas posiciones, llega a otras distintas (regressus) para retornar, reconstruyéndolos cuando es posible, a los puntos de partida (progressus). La determinación del sentido de los términos en cada caso depende de los «parámetros» fijados como puntos de partida, puesto que un cambio de éstos convertirá a un regressus dado en un progressus y recíprocamente (si se comienza por el todo, será un regressus el curso hacia las determinaciones de las partes, y un progressus la construcción de aquel con éstas; si se comienza desde las partes, será un regressus el camino hacia el todo y un progressus la reconstrucción de las partes, si es posible).

Tomado del Diccionario de García Pelayo.


[36] La cuestión de las categorías es desarrollada con amplitud en el Vol. 2 de la TCC de Gustavo Bueno.Se trata del capítulo 2 (págs. 53 hasta 274).Se trata de un tema clave para la filosofía de la ciencia.En este momento sólo vamos a “decir” cuáles son las propuestas de Bueno al respecto ,mediante algunas de las “tesis” por él expuestas en su crítica de las categorías,en especial las de Aristóteles y la propuesta por Natorp acerca del concepto de categoría en Platón.

Bueno,en un resumen no completo que propongo en esta nota dice sobre las categroías,algunas cosas como :

a)”No hay una doctrina de las categorías, sino varias”

b)”La determinación de las categorías no puede llevarse a efecto por la “filosofía pura”.”

c)”Las categorías aristotélicas giran en torno a la categoría de sustancia”.

d)Tras criticar a Brentano,Natorp,Kant,Quine y Sommers al respecto de las categorías, Bueno propone la siguiente tesis:

“El marco holótico mínimo para un tratamiento gnoseológico de la doctrina de las categorías ” supone que “La Idea de ciencia envuelve la Idea de categoría y ésta se conforma a su vez a través de la Idea de ciencia.”.Dado que la Idea de categoría “envuelve” a la Idea de todo( o de totalidad),se propone desde la TCC que las categorías son totalidades.  Las clasificaciones son desarrolladas a través de todos y partes: el sistema periódicode los elementos de Mendeléiev.Los “reinos”, tipos, clases, géneros, especies e individuos en Biología,son totalizaciones(sistemáticas o sistáticas).

e)Tres postulados para una teoría holótica de las categorías:

1-el postulado de corporeidad holótica

2-el postulado de multiplicidad holótica

3-el postulado de recursividad holótica

e) “El principio de las categorías implica el principio de symploké “.

“La symploké,al reconocer “cortaduras” en el Mundo, implica propiamente el ateismo “terciario”,es decir,la negaciónde un Dios omnisciente y omnipotente,y aquí reside su principal significación gnoseológica.(…)La Materia ontológico general ,tal como fue introducida en Ensayos materialistas,cuando se la considera desde el principio de la symploké ( y en a medida en que éste hace posible algo así como una “ontología negativa”) se nos muestra, desde luego, muy lejos de la unidad.(…)No es un orden, pero tampoco un “caos”.(…)El principio de symploké, al prohibirnos ver a la materia ontológico general como unidad de conjunto,nos obliga a verla como un conjunto de corrientes diversas e irreductibles algunas de las cuales han debido confluir para dar lugar a la conformación del mundo.Un mundo en el que, sin embargo, aparecían ,como si fueran indicios  de fracturas más profundas,esas líneas divisorias (“punteadas”) de círculos de objetos que llamamos categorías”.

f) “El principio de symploké no implica el principio de las categorías”.

g)”Existe una serie de conexiones conjugadas entre los momentos formales y materiales de las categorías”.

Ahora bien, no pueden hipostasiarse esos aspectos .”Ni las dimensiones formales, ni las dimensiones materiales son por sí mismas categoriales”.Por esto se propone que no hay ni yuxtaposición materia/forma ,ni reducción ,caso de las alternativas gnoseológicas de teorías descripcionistas,adecuacionistas y teoreticistas.Lo que el cierre categorial propone es que la ciencia trabaja con “esquemas de conjugación”.

h)”Tantas categorías como ciencias efectivas”.

i)”Hay categorías del ser y categorías del hacer”.

j)”El conjunto de las categorías ontológicas noagota la omnitudo realitatis”.

j)”Ideas y Categorías”.Dado que las categorías no agotan la totalidad de los entes del Mundo,propone Bueno rescatar la distinción entre Ideas yCategorías que mantenían tantola Escolástica como Kant, pero transformándolas, rescatando los conceptos de Idea en el sentido de Platón.Ya no se reduce el concepto de Idea a lo que Kant llama Dios,Mundo,Libertad ,sino que son también Ideas conceptos como el de Conciencia,Potencia,Tiempo y Duración..Este asunto resulta,a mi juicio,muy criticable,ya que no queda claro el “relator” para estos conceptos clave en la TCC(Ideas y categorías),aunque Bueno propone algunas ciencias en que encuentra ejemplos de esa relación .Veremos el caso de la Biología ,en el contexto de Cordón y el de Bueno, para establecer criterios críticos respecto de la cuestión que he señalado.

[37] Cfr.TCC;Vol. 4 ; pags.13 ss.

[38] Cfr. para estas cuestiones una clasificación de los distintos tipos de teorías de la ciencia.De cualquier manera ,considero que una ayuda de mucho valor es el citado en multitud de ocasiones Diccionario Filosófico de Pelayo García.

El cuadro que introducimos es muy esquemático y tan sólo puede ser entendido como un”modelo” para exponer esas “cuatro familias” de teorías de la ciencia de que habla Gustavo Bueno.

En el contexto de los análisis históricos de la Química y la Biología que Faustino Cordón nos presenta, resulta ahora importante tenerlo muy presente.


Alternativas         I(O, 1)     II(1,0)     III(1, 1) IV(O,O) . 0 y 1 son tomados como valores de verdad

Alternativas                 I(0,1)                    II(1,0)                     III(0,1)                  IV(0,0)

cuasialgebraicas  Subordinación          Subordinación    Yuxtaposición       Reducción

Opciones extremas (reducción)             (reducción)         (composición)                   mutua

interpretación             de forma               de materia a          de  forma y                 (conjugación)

de los términos          a materia                forma                     materia

a) Primera opción: Indeterminación        Realismo                Realismo                   Otras

Forma-Objeto,      epistemológica.    epistemológico .     epistemológico.            (TCC)

Materia-Entendimiento indeterminación   Empirismo         adecuacionismo

Gnoseológica    descripcionista    gnoseológico


b) Segunda opción:            Subjetivismo   Subjetivismo                  Idealismo                    Otras

Forma-Sujeto,                   o idealismo         o idealismo                 objetivo                     (TCC)

Materia-Objetos             epistemológico     epistemológico          (teológico)

Del campo                   indeterminado           teoreticismo              adecuacionsimo

gnoseológicamente     gnoseológico             gnoseológico


Tabla de las divergencias entre las interpretaciones de las cuatro alternativas cuasialgebraicas en las dos opciones epistemológicas extremas





[39] Todos los logros de la bioquímica en el siglo XX le dan la razón a Pasteur,con la constatación de que,”en el metabolismo celular los alfa-aminoácidos(todos) de todas las proteínas ofrecen en el carbono asimétrico,que les es homólogo la misma configuración estérica; y casi sin excepción,cada carbono asimétrico de todo metabolito que los posea pertenece a una determinada configuración estérica que, como regla,se conserva en metabolitos procedentes de él con notable tenacidad”.

Cfr.F.Cordón; Tratado evolucionista de biología;pág.486,Vol.II,Parte segunda.

[40] Cita Cordón un texto del propio von  Baeyer : “Encontré que mi tarea era considerarla naturaleza cada vez más de cerca y contemplar las cosas mismas”.”Mis experimentos nunca se han planteado para ver si yo tenía razón,sino para ver cómo los cuerpos se comportan.De esta actitud procede también mi indiferencia ante las teorías”.Apud Cordón,op.cit. Parte segunda Vol.II;pág.492 .

[41] Cfr.Bueno;TCC;Vol 4; pág . 20 ss.

[42] Ibid;pág.28

[43] Cfr.Cordón;Tratado evolucionista de Biología;Parte segunda ,Vol. II; pág. 519 y pág.651(nota 102).

La tesis de Cordón la ponemos en el texto, pues es fundamental.

[44] Cfr.Nagel; La estructura de la ciencia;Paidós;ed.1981;pág.89 . La crítica a Nagel, que desde el circularismo es clasificado enla alternativa descripcionista de la ciencia, se basa en lo siguiente, tal como Bueno lo explica(Cfr.TCC, Vol. 4 pág 1099) : ” La equiparación entre los lenguajes lógicos y los lenguajes matemáticos en su condición de “tautológicos” ( o “analíticos”) es, además, una tesis demasiado comprometida como para poder basar en ella toda una teoría de la ciencia. Es una tesis que procede de Hume y va ligada a la concepción (idealista, en el fondo) de que la necesidad en las conexiones hay que circunscribirla dentro del mundo de las formas (mentales o lingüísticas),en el mundo de las proposiciones o de las inferencias, puesto que el mundo de los hechos(de la materia) se entenderá como el reino de la contingencia y del azar. Por ello, las “ciencias formales”, si establecen proposiciones necesarias, será porque se mantienen en  el mundo de las formas y porque, en realidad, no ofrecen información nueva alguna. Las ciencias que se refieren a los hechos ,a la materia,aunque ofrecen información nueva no podrán, en cambio, ofrecer necesidad alguna ( se citaba, como corroboración de la tesis, la boutade de Einstein : “las ciencias exactas son exactas cuando no nos hacen conocer la realidad; cuando nos la dan a conocer dejan de ser exactas”).Por tanto,bastará que la lógica y las matemáticas ofrezcan propiedades necesarias ( se subrayará que las “verdades lógicas” son verdaderas “entre todas las opciones posibles de valores de verdad de las variables p, q , r”; por tanto, que son necesaria supuesto que no cabe pensar una alternativa en la que dejen de serlo) para concluir que ellas no son ciencias de la realidad sino “construcciones analíticas” que se mantienen en el terreno de las tautologías lingüísiticas”

[45] Cfr.Bueno ;TCC Vol. 4 pp.88 ss.

Sobre las obras de García-Bacca que utilizaremos,se trata de Pasado,presente y porvenir de grandes nombres;México;FCE;dos Vols.;1988 y del excelente libro de filosofía de la ciencia editado por la UNAM(Universidad Nacional Autónoma de México) en 1963, titulado Historia filosófica de la ciencia, donde hace un recorrido de la Historia filosófica de la ciencia física,de tal manera que lo que Bacca define como “primera verdad física del tipo patencia de invención,lo da al “plan causal” de Aristóteles.El segundo tipo de patencia de invención lo da García-Bacca a Ptolomeo y Proclo,y sería un modelo de “plan categorial objetivo geométrico”.La tercera de las patentes de invención propuesta por García -Bacca es la de Galileo,según el tipo de patencia de invención “plan categorial objetivo analítico con plan causal adjunto”.La cuarta verdad física del tipo “patencia de invención” se la adjudica a Newton  por su “plan categorial objetivo,a la una con plan causal”.La quinta patente,”plan categorial en coordinación objetiva a la una con plan campal”, la invención de Einstein. Conceptos como espacio, tiempo ,fuerza, masa, potencial, campo, son los “términos” de estos modelos explicativos según categorías que difieren según los modelos o patentes de invención. Lo interesante ,me parece, es el modo en que Bacca expone los problemas filosóficos derivados de conceptos físicos. Una sexta patente de invención ,en cuanto a verdades físicas,es la de De Broglie,con “plan categorial probabilísitico, a la una con plan campal , cuántico”.En una segunda parte de este libro, García- Bacca propone una historia filosófica de la lógica,muy interesante,pero que sólo manejaremos transversalmente.

[46] La cita está tomada de Nagel;op.cit.;pág.117-118

[47] Cfr.Jorge Serrano; Introducción a la filosofía de la ciencia;México;Ed.Progreso;1973;pág.53

[48] El libro de Alexandre Koyré Études newtoniennes;ParísGallimard;1968; resulta muy sugerente para ayudar a comprender los problemas relativos a la formación de conceptos clave de la física. De él, tomamos algunas de estas consideraciones.

[49] Ibid.pág. 43

[50] Quisera recomendar la lectura del libro de Pablo Huerga La ciencia en la encrucijada ;Oviedo;Pentalfa;1999.En esta obra se hace un estudio de Newton desde las coordenadas de la teoría circularista de la ciencia,que pueden ser útiles para entender mejor estas cuestiones de Koyré.

[51] Kepler explica en su De astronomia nova (1609): “empero,más sagrada que todas estas cosas[se refiere Kepler a las “Sagradas Escrituras” y los dogmas de los filósofos y santos como Lactancio,SanAgustín,el Santo Oficio]es para mí la verdad,cuando yo,con todo el debido respeto por los doctores de la Iglesia,demuestro ,partiendo de la filosofía,que la Tierra es redonda,y habitada por antípodas en toda superficie ; que es de una pequeñez insignificante, y que corre veloz entre los demás astros”.Pero nosóloestas afirmaciones muestran el”giro” dado en la Historia por este gran físico,sino también lo que serán sus tres leyes,como se describen en su obra De Harmonice Mundi (1619) : “En los comentarios sobre Marte,he logrado demostrar,partiendo de las exactas observaciones de Thycho Brahe,que dados unos arcos iguales recorridos en un día a cargo de la misma órbita excéntrica no son coronados a la misma velocidad,sino que los distintos tiempos utilizados para recorrer partes iguales del excéntrico son proporcionales a la distancia de éstas con el Sol,manantial del movimiento;y viceversa :dados unos tiempos iguales,por ejemplo un día natural,los arcos diurnos que les corresponden,recorridos realmente dentro d ela misma órbita excéntrica,se hallan entre sí en proporción inversa a las dimensiones de sus distancias conrespecto delSol.Junto a esto,he demostrado que la órbita de los planetas es elíptica, y que el Sol,fuente de movimiento,se encuentra en uno de los dos focos de dicha elipse(…)”.En cuanto a la tercera ley de Kepler,podemos afirmar que se trata de un modelo matemático en el que se introducen las relaciones entre dos planetas y la distancia al Sol,mediante el recurso matemático de las raíces cúbicas y el radio medio de las órbitas de los planetas y sus períodos orbitales,por ej,la Tierra un año,mientras que Saturno tres años.

[52] Cfr.García-Bacca;Historia  filosófica de la ciencia; México;UNAM;1963;págs. 73-101.Las referencias a Newton son del propio texto de Bacca,del libro de Newton Philosophiae naturalis principia mathematica.


[53] Cfr.op.cit.;págs.87-88

[54] En el glosario del Vol. 5 de TCC : ” Progressus / regressus : Los dos sentidos de un curso operatorio circular que, partiendo de determinadas posiciones ,llega  a otras distintas (regressus) para retomar, reconstruyéndolos cuando es posible, a los puntos de partida (progressus)..La determinación concreta del sentido de los términos en cada caso  depende de los “parámetros ” fijados como puntos de partida, puesto que un cambio de estos parámetros convertirá a un regressus dado en un progressus y recíprocamente ( si se comienza por el todo,s erá un regressus el curso hacia las determinaciones de las partes, y un progressus la construcción de aquél con éstas; si se comienza desde as partes; será un regressus el camino hacia el todo y un progressus la reconstrucción de las partes, si es posible).En la tradición platónica los puntos de partida son los fenómenos ,y los términos las esencias, por lo que se hablará de un regressus a las esencias y de un progressus de las esencias a los fenómenos (la “vuelta  a la caverna”).Hay que tener en cuenta que los fenómenos desempeñan unas veces el papel de totalidades confusas ( fenotipos , por ejemplo).El llamado tradicionalmente “método analítico de los geómetras” también comporta un regressus (un análisis de los fenómenos- problemas que resuelve en los principios) y un progressus ( o síntesis constructiva de los principios a las consecuencias).Otras veces, en las ciencias empíricas, los métodos inductivos vienen a constituir la fase del regressus por respecto de la fase deductiva (por ejemplo, predictiva ) de progressus.

Es esencial tener en cuenta que la distinción  entre progressus y regressus sólo alcanza su sentido fuerte en una concepción circular de la racionalidad científica ( como pueda serlo la teoría del cierre categorial ) ;la distinción se debilita cuando nos situamos al margen del circularismo gnoseológico ( y si se mantiene es como resultado de la mera yuxtaposición de dos metodologías que pueden proceder independientemente o que, a lo sumo, se relacionan por vía meramente psicológica, por ejemplo,refiriendo el regressus a los contextos de descubrimiento y el progressus a los contextos de justificación).

La distinción entre progressus / regressus en su sentido fuerte incluye estrategias dialécticas muy características ( por ejemplo, metábasis, sistasis,&c.) derivadas de las dificultades o resistencias que la materia  tratada opone al establecimiento del circuito interno ,en matemáticas,desde la integral a la función derivada correspondiente y la necesidad de suplir el retorno apelando a los autologismos que tienen lugar en las llamadas “integrales inmediatas”)”.

[55] Sobre este punto, que considero de suma relevancia para la Historia y para la filosofía de la ciencia, citaré un texto de La matemática : su contenido ,métodos, significado. De los autores Alexandrov,Kolmorogov,Laurentiev,y otros; Madrid; Alianza Universidad; 7ª ed.1985.La cita es del Vol . I;pás.260-261 :

“Consideremos una fuerza f ,que puede representarse en unidades convencionales por un segmento con punta de flecha, dotado de una longitud y una dirección específicas.

Lagrange señaló que esta fuerza f puede descomponerse en tres componentes fx,fy y fz en la dirección de los ejes Ox,Oy y Oz , respectivamente ; estas componentes ,en cuanto que segmentos dirigidos sobre los ejes, pueden definirse simplemente mediante un número positivo o negativo, según que la componente esté dirigida en la dirección del eje o en la opuesta. Así, podemos considerar ,por ejemplo, la fuerza (2,3,4) o la fuerza (1,-2,5),etc. En la composición de fuerzas según la ley del paralelogramo puede demostrarse fácilmente que hay que sumar las fuerzas correspondientes. Por ejemplo, la suma de las fuerzas dadas es la fuerza

(2+1 ,3+2 ,4+5) = (3,1,9)

Lo mismo puede hacerse con las velocidades y las aceleraciones .En cualquier problema de mecánica, todas las ecuaciones que relacionan fuerzas, velocidades y aceleraciones pueden escribirse también como ecuaciones entre sus componentes, es decir, ecuaciones entre números. La ecuación mecánica se escribirá entonces en forma de tres ecuaciones :una para la x, otra para la y ,y una tercera para la z.

Pero fue sólo cien años después de Lagrange cuando los matemáticos y físicos, bajo el influjo del desarrollo de la teoría de la electricidad, comenzaron a hacer uso abundante de la teoría general de los segmentos de longitud y dirección dadas. Tales segmentos se denominaron vectores.

La teoría de los vectores es de gran importancia en la mecánica, la física y la tecnología, y su aspecto algebraico, el álgebra vectorial ( en contraste con el análisis vectorial) aparece enseguida como una parte esencial de la geometría analítica”.

[56] Cfr.Husserl;Crisis de las ciencias europeas y la fenomenología trascendental; México;Folios edic.;1984.En especial el capítulo III “El esclarecimiento del problema trascendental y la función que le compete a la psicología en este contexto”.

Sobre el tema de la psicología en el contexto de la gnoseología de las ciencias, es interesante recordar la obra de un filósofo que abandona esta disciplina, en aras de la psicología. Nos referimos al suizo Jean Piaget ,cuyos análisis son imprescindibles, pero  deben ser criticados pues no parece posible que un descripcionismo de operaciones psicológicas sea suficiente para elaborar una teoría de la ciencia.

[57] Cfr.Eduardo Nicol;op.cit.pág.14.

Interesa ahora comentar que en el caso(que se verá en la Tercera Parte, de la Bioética , se constata esta problemática en torno a los principios y reglas de la ciencia(y su confusionismo gnoseológico),como Bueno propone al criticar el llamado “Informe Belmont”, llevado a cabo por especialistas en Bioética en los Estados Unidos.

[58] Cfr.Nicol;ibid.pág.122-123

[59] Ibidem.

[60] “cuando se conoce el promedio de distribución debido al “azar ” ,los márgenes del error debido a esa distribución estadística son del orden de magnitud de la raíz cuadrada de los promedios”.

[61] Cfr.Gustavo Bueno; TCC; Vol . 3 pág.80

[62] Cfr. El libro de Albert Einstein El significado de la relatividad , cuya lectura es obligada para evitar muchas confusiones respecto de la física y la relación materia/forma que en ella encontramos.


[63] Cfr. Henry Semat ; Física atómica y nuclear; pág.30 ss.

[64] Este movimiento toma su nombre de Brown, quien en 1827 observó que si se miran al microscopio partículas muy pequeñas suspendidas en un fluido, se puede observar que   movimiento caótico constante. Este movimiento puede ser equiparado al de las partículas de moléculas de un gas en cuanto a su movimiento térmico.

Einstein y Smoluchovski propusieron en 1905 la explicación basada en la hipótesis siguiente: las partículas en suspensión están constantemente bombardeadas por las moléculas del fluido, y este bombardeo produce una fuerza no equilibrada que acelera las partículas. El movimiento de la partícula a través del fluido tropieza con la oposición de otra fuerza debida a la viscosidad de aquél. A partir de esta teoría puede calcularse la distribución de partículas en un campo de fuerzas y su desplazamiento con el tiempo.

[65] Cfr.Jorge Serrano; Filosofía de la ciencia; México;CEE;p.158

[66] Este tema, además de poder encontrarlo en el citado Diccionario de Pelayo García, se trata en los siguientes lugares de TCC,de G.Bueno : en pág 196 del Vol 1; en pág.800 del Vol.3 y en pág.1297 del Vol. 5

[67] Bueno lo expone de este modo en op.cit.TCC;p.199,Vol 1 : “¿ no habíamos hablado del proceso de neutralización ( o eliminación) de las operaciones como del mecanismo regular del cierre categorial en el proceso de construcción de las identidades sintéticas? ”

[68] Ibid.pág.205. Para mayor detalle acerca de los criterios de neutralización Cfr. Pág. 206

[69] En su libro Cibernetics.The human use of human beings, Wiener definía la cibernética como el uso y control de mensajes entre hombre y máquina, entre máquina y máquina .Pero recurriendo además al orígen griego del término (kibernetés ),que quiere decir el piloto de una nave, aquel que lleva a puerto a los tripulantes y tras travesías en ocasiones difíciles, en medio de arrecifes, tormentas, etc. Lo que señalaba Wiener, desde su preocupación por el mal uso que se le podía dar a la entonces naciente tecnología cibernética, era que un mal uso de la tecnología pudiera llevar al hombre a su autodestrucción, acelerando el proceso de entropía que la Naturaleza cumple como parte de las leyes termodinámicas.

[70] Cfr.los artículos de Ivan Illich y de Papart,Chastonay y Froidevaux en Le Monde y el propio artículo de Pablo Huerga ,además de los trabajos elaborados por Steve Hasam,.en los que se desarrolla esta cuestión desde una perspectiva contraria a la neoliberal defendida por los firmantes del Manifiesto.

[71] Cfr. a este respecto el libro de Gustavo Bueno El sentido de la vida. En él se estudian tanto los conceptos de persona en un contexto filosófico, como los de libertad, derechos humanos y la noción misma del sentido de la vida.

[72] Para quienes estén interesados en conocer las líneas básicas de esta Teoría de la Ciencia, recomendamos consultar la página de internet con este URL

en la cual se puede consultar un resumen de dicha teoría en el libro (puede bajarse de la red),¿Qué es la Ciencia?,ed. Pentalfa; Oviedo

También será de ayuda el Diccionario Filosófico de Pelayo García, el cual puede consultarse en internet en :

[73] La sindéresis, en Santo Tomás de Aquino, consiste en el hábito de los primeros principios prácticos(Cfr. De veritate, q.17,a.2,ad.3).La sindéresis no es una potencialidad ,sino que es un acto, un hábito que se da en la práctica, no una cuestión general o teórica, es una regla de acción que se realiza, no una mera norma moral o ética.




Chomsky et al. Debate sobre el desarrollo y límites de la Inteligencia Artificial en el MIT

Artificial Intelligence symposia at MIT 2013

Keynote Panel: The Golden Age: A Look at the Original Roots of Artificial Intelligence, Cognitive Science, and Neuroscience
Entrevista de Yarden Katz, sobre el tema de la Inteligencia Artificial , en The Atlantic, a Noam Chomsky

20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 1/27
YARDEN KATZ NOV 1 2012, 2:22 PM ET

An extended conversation with the legendary linguist

Graham Gordon Ramsay
If one were to rank a list of civilization’s greatest and most elusive intellectual
challenges, the problem of “decoding” ourselves — understanding the inner
workings of our minds and our brains, and how the architecture of these
elements is encoded in our genome — would surely be at the top. Yet the diverse
fields that took on this challenge, from philosophy and psychology to computer
science and neuroscience, have been fraught with disagreement about the right
In 1956, the computer scientist John McCarthy coined the term “Artificial
Intelligence” (AI) to describe the study of intelligence by implementing its
essential features on a computer. Instantiating an intelligent system using manmade
hardware, rather than our own “biological hardware” of cells and tissues,
would show ultimate understanding, and have obvious practical applications in
the creation of intelligent devices or even robots.
Some of McCarthy’s colleagues in neighboring departments, however, were more
interested in how intelligence is implemented in humans (and other animals)
first. Noam Chomsky and others worked on what became cognitive science, a
field aimed at uncovering the mental representations and rules that underlie our
perceptual and cognitive abilities. Chomsky and his colleagues had to overthrow
the then-dominant paradigm of behaviorism, championed by Harvard
psychologist B.F. Skinner, where animal behavior was reduced to a simple set of
Noam Chomsky on Where Artificial
Intelligence Went Wrong

20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 2/27
associations between an action and its subsequent reward or punishment. The
undoing of Skinner’s grip on psychology is commonly marked by Chomsky’s 1967
critical review of Skinner’s book Verbal Behavior, a book in which Skinner
attempted to explain linguistic ability using behaviorist principles.
Skinner’s approach stressed the historical associations between a stimulus and
the animal’s response — an approach easily framed as a kind of empirical
statistical analysis, predicting the future as a function of the past. Chomsky’s
conception of language, on the other hand, stressed the complexity of internal
representations, encoded in the genome, and their maturation in light of the right
data into a sophisticated computational system, one that cannot be usefully
broken down into a set of associations. Behaviorist principles of associations could
not explain the richness of linguistic knowledge, our endlessly creative use of it,
or how quickly children acquire it with only minimal and imperfect exposure to
language presented by their environment. The “language faculty,” as Chomsky
referred to it, was part of the organism’s genetic endowment, much like the
visual system, the immune system and the circulatory system, and we ought to
approach it just as we approach these other more down-to-earth biological
David Marr, a neuroscientist colleague of Chomsky’s at MIT, defined a general
framework for studying complex biological systems (like the brain) in his
influential book Vision, one that Chomsky’s analysis of the language capacity
more or less fits into. According to Marr, a complex biological system can be
understood at three distinct levels. The first level (“computational level”)
describes the input and output to the system, which define the task the system is
performing. In the case of the visual system, the input might be the image
projected on our retina and the output might our brain’s identification of the
objects present in the image we had observed. The second level (“algorithmic
level”) describes the procedure by which an input is converted to an output, i.e.
how the image on our retina can be processed to achieve the task described by
the computational level. Finally, the third level (“implementation level”)
describes how our own biological hardware of cells implements the procedure
described by the algorithmic level.
The approach taken by Chomsky and Marr toward understanding how our
minds achieve what they do is as different as can be from behaviorism. The
emphasis here is on the internal structure of the system that enables it to
perform a task, rather than on external association between past behavior of the
system and the environment. The goal is to dig into the “black box” that drives
the system and describe its inner workings, much like how a computer scientist
would explain how a cleverly designed piece of software works and how it can be
executed on a desktop computer.
As written today, the history of cognitive science is a story of the unequivocal
triumph of an essentially Chomskyian approach over Skinner’s behaviorist
paradigm — an achievement commonly referred to as the “cognitive revolution,”
though Chomsky himself rejects this term. While this may be a relatively
accurate depiction in cognitive science and psychology, behaviorist thinking is far
from dead in related disciplines. Behaviorist experimental paradigms and
associationist explanations for animal behavior are used routinely by
neuroscientists who aim to study the neurobiology of behavior in laboratory
animals such as rodents, where the systematic three-level framework advocated
by Marr is not applied.
In May of last year, during the 150th anniversary of the Massachusetts Institute
of Technology, a symposium on “Brains, Minds and Machines” took place, where
leading computer scientists, psychologists and neuroscientists gathered to
discuss the past and future of artificial intelligence and its connection to the
The gathering was meant to inspire multidisciplinary enthusiasm for the revival
of the scientific question from which the field of artificial intelligence originated:
how does intelligence work? How does our brain give rise to our cognitive
abilities, and could this ever be implemented in a machine?

20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 3/27

Noam Chomsky, speaking in the symposium, wasn’t so enthused. Chomsky
critiqued the field of AI for adopting an approach reminiscent of behaviorism,
except in more modern, computationally sophisticated form. Chomsky argued
that the field’s heavy use of statistical techniques to pick regularities in masses of
data is unlikely to yield the explanatory insight that science ought to offer. For
Chomsky, the “new AI” — focused on using statistical learning techniques to
better mine and predict data — is unlikely to yield general principles about the
nature of intelligent beings or about cognition.
This critique sparked an elaborate reply to Chomsky from Google’s director of
research and noted AI researcher, Peter Norvig, who defended the use of
statistical models and argued that AI’s new methods and definition of progress is
not far off from what happens in the other sciences.
Chomsky acknowledged that the statistical approach might have practical value,
just as in the example of a useful search engine, and is enabled by the advent of
fast computers capable of processing massive data. But as far as a science goes,
Chomsky would argue it is inadequate, or more harshly, kind of shallow. We
wouldn’t have taught the computer much about what the phrase “physicist Sir
Isaac Newton” really means, even if we can build a search engine that returns
sensible hits to users who type the phrase in.
It turns out that related disagreements have been pressing biologists who try to
understand more traditional biological systems of the sort Chomsky likened to
the language faculty. Just as the computing revolution enabled the massive data
analysis that fuels the “new AI”, so has the sequencing revolution in modern
biology given rise to the blooming fields of genomics and systems biology. Highthroughput
sequencing, a technique by which millions of DNA molecules can be
read quickly and cheaply, turned the sequencing of a genome from a decade-long
expensive venture to an affordable, commonplace laboratory procedure. Rather
than painstakingly studying genes in isolation, we can now observe the behavior
of a system of genes acting in cells as a whole, in hundreds or thousands of
different conditions.
The sequencing revolution has just begun and a staggering amount of data has
already been obtained, bringing with it much promise and hype for new
therapeutics and diagnoses for human disease. For example, when a conventional
cancer drug fails to work for a group of patients, the answer might lie in the
genome of the patients, which might have a special property that prevents the
drug from acting. With enough data comparing the relevant features of genomes
from these cancer patients and the right control groups, custom-made drugs
might be discovered, leading to a kind of “personalized medicine.” Implicit in this
endeavor is the assumption that with enough sophisticated statistical tools and a
large enough collection of data, signals of interest can be weeded it out from the
noise in large and poorly understood biological systems.
The success of fields like personalized medicine and other offshoots of the
sequencing revolution and the systems-biology approach hinge upon our ability
to deal with what Chomsky called “masses of unanalyzed data” — placing biology
in the center of a debate similar to the one taking place in psychology and
artificial intelligence since the 1960s.
Systems biology did not rise without skepticism. The great geneticist and Nobelprize
winning biologist Sydney Brenner once defined the field as “low input, high
throughput, no output science.” Brenner, a contemporary of Chomsky who also
participated in the same symposium on AI, was equally skeptical about new
systems approaches to understanding the brain. When describing an up-andcoming
systems approach to mapping brain circuits called Connectomics, which
seeks to map the wiring of all neurons in the brain (i.e. diagramming which nerve
cells are connected to others), Brenner called it a “form of insanity.”
Brenner’s catch-phrase bite at systems biology and related techniques in
neuroscience is not far off from Chomsky’s criticism of AI. An unlikely pair,
systems biology and artificial intelligence both face the same fundamental task of
reverse-engineering a highly complex system whose inner workings are largely a
mystery. Yet, ever-improving technologies yield massive data related to the
system, only a fraction of which might be relevant. Do we rely on powerful
computing and statistical approaches to tease apart signal from noise, or do we
look for the more basic principles that underlie the system and explain its
essence? The urge to gather more data is irresistible, though it’s not always clear
what theoretical framework these data might fit into. These debates raise an old
and general question in the philosophy of science: What makes a satisfying
scientific theory or explanation, and how ought success be defined for science?
I sat with Noam Chomsky on an April afternoon in a somewhat disheveled
conference room, tucked in a hidden corner of Frank Gehry’s dazzling Stata
Center at MIT. I wanted to better understand Chomsky’s critique of artificial
intelligence and why it may be headed in the wrong direction. I also wanted to
explore the implications of this critique for other branches of science, such
neuroscience and systems biology, which all face the challenge of reverseengineering
complex systems — and where researchers often find themselves in
an ever-expanding sea of massive data. The motivation for the interview was in
part that Chomsky is rarely asked about scientific topics nowadays. Journalists
are too occupied with getting his views on U.S. foreign policy, the Middle East,
the Obama administration and other standard topics. Another reason was that
Chomsky belongs to a rare and special breed of intellectuals, one that is quickly
becoming extinct. Ever since Isaiah Berlin’s famous essay, it has become a
favorite pastime of academics to place various thinkers and scientists on the
“Hedgehog-Fox” continuum: the Hedgehog, a meticulous and specialized worker,
driven by incremental progress in a clearly defined field versus the Fox, a
flashier, ideas-driven thinker who jumps from question to question, ignoring field
boundaries and applying his or her skills where they seem applicable. Chomsky is
special because he makes this distinction seem like a tired old cliche. Chomsky’s
depth doesn’t come at the expense of versatility or breadth, yet for the most
part, he devoted his entire scientific career to the study of defined topics in
linguistics and cognitive science. Chomsky’s work has had tremendous influence
on a variety of fields outside his own, including computer science and philosophy,
and he has not shied away from discussing and critiquing the influence of these
ideas, making him a particularly interesting person to interview. Videos of the
interview can be found here.
I want to start with a very basic question. At the beginning of AI,
people were extremely optimistic about the field’s progress, but it
hasn’t turned out that way. Why has it been so difficult? If you ask
neuroscientists why understanding the brain is so difficult, they give
you very intellectually unsatisfying answers, like that the brain has
billions of cells, and we can’t record from all of them, and so on.
Chomsky: There’s something to that. If you take a look at the progress of
science, the sciences are kind of a continuum, but they’re broken up into fields.
The greatest progress is in the sciences that study the simplest systems. So take,
say physics — greatest progress there. But one of the reasons is that the
physicists have an advantage that no other branch of sciences has. If something
gets too complicated, they hand it to someone else.
Like the chemists?
Chomsky: If a molecule is too big, you give it to the chemists. The chemists, for
them, if the molecule is too big or the system gets too big, you give it to the
biologists. And if it gets too big for them, they give it to the psychologists, and
finally it ends up in the hands of the literary critic, and so on. So what the
neuroscientists are saying is not completely false.
However, it could be — and it has been argued in my view rather plausibly,
though neuroscientists don’t like it — that neuroscience for the last couple
hundred years has been on the wrong track. There’s a fairly recent book by a
very good cognitive neuroscientist, Randy Gallistel and King, arguing — in my
view, plausibly — that neuroscience developed kind of enthralled to
associationism and related views of the way humans and animals work. And as a
result they’ve been looking for things that have the properties of associationist
“It could be — and it has
been argued, in my view
rather plausibly, though
neuroscientists don’t
like it — that
neuroscience for the
last couple hundred
years has been on the
wrong track.”
developed kind of
enthralled to
associationism and
related views of the way
humans and animals
work. And as a result
Like Hebbian plasticity? [Editor’s note: A
theory, attributed to Donald Hebb, that
associations between an environmental
stimulus and a response to the stimulus can
be encoded by strengthening of synaptic
connections between neurons.]
Chomsky: Well, like strengthening synaptic
connections. Gallistel has been arguing for years
that if you want to study the brain properly you
should begin, kind of like Marr, by asking what
tasks is it performing. So he’s mostly interested in
insects. So if you want to study, say, the neurology
of an ant, you ask what does the ant do? It turns
out the ants do pretty complicated things, like path integration, for example. If
you look at bees, bee navigation involves quite complicated computations,
involving position of the sun, and so on and so forth. But in general what he
argues is that if you take a look at animal cognition, human too, it’s computational
systems. Therefore, you want to look the units of computation. Think about a
Turing machine, say, which is the simplest form of computation, you have to find
units that have properties like “read”, “write” and “address.” That’s the minimal
computational unit, so you got to look in the brain for those. You’re never going
to find them if you look for strengthening of synaptic connections or field
properties, and so on. You’ve got to start by looking for what’s there and what’s
working and you see that from Marr’s highest level.
Right, but most neuroscientists do not sit down and describe the
inputs and outputs to the problem that they’re studying. They’re
more driven by say, putting a mouse in a learning task and recording
as many neurons possible, or asking if Gene X is required for the
learning task, and so on. These are the kinds of statements that their
experiments generate.
Chomsky: That’s right..
Is that conceptually flawed?
Chomsky: Well, you know, you may get useful information from it. But if what’s
actually going on is some kind of computation involving computational units,
you’re not going to find them that way. It’s kind of, looking at the wrong lamp
post, sort of. It’s a debate… I don’t think Gallistel’s position is very widely
accepted among neuroscientists, but it’s not an implausible position, and it’s
basically in the spirit of Marr’s analysis. So when you’re studying vision, he
argues, you first ask what kind of computational tasks is the visual system
carrying out. And then you look for an algorithm that might carry out those
computations and finally you search for mechanisms of the kind that would make
the algorithm work. Otherwise, you may never find anything. There are many
examples of this, even in the hard sciences, but certainly in the soft sciences.
People tend to study what you know how to study, I mean that makes sense.
You have certain experimental techniques, you have certain level of
understanding, you try to push the envelope — which is okay, I mean, it’s not a
criticism, but people do what you can do. On the other hand, it’s worth thinking
whether you’re aiming in the right direction. And it could be that if you take
roughly the Marr-Gallistel point of view, which personally I’m sympathetic to,
you would work differently, look for different kind of experiments.
Right, so I think a key idea in Marr is, like
you said, finding the right units to
describing the problem, sort of the right
“level of abstraction” if you will. So if we
take a concrete example of a new field in
neuroscience, called Connectomics, where
the goal is to find the wiring diagram of very
complex organisms, find the connectivity of
all the neurons in say human cerebral
they’ve been looking for
things that have the
properties of
“I have to say, myself,
that I was very skeptical
about the original work
[in AI]. I thought it was
cortex, or mouse cortex. This approach was
criticized by Sidney Brenner, who in many
ways is [historically] one of the originators
of the approach. Advocates of this field
don’t stop to ask if the wiring diagram is the
right level of abstraction — maybe it’s not,
so what is your view on that?
Chomsky: Well, there are much simpler questions. Like here at MIT, there’s
been an interdisciplinary program on the nematode C. elegans for decades, and
as far as I understand, even with this miniscule animal, where you know the
wiring diagram, I think there’s 800 neurons or something …
I think 300..
Chomsky: …Still, you can’t predict what the thing [C. elegans nematode] is
going to do. Maybe because you’re looking in the wrong place.
Yarden Katz
I’d like to shift the topic to different methodologies that were used in
AI. So “Good Old Fashioned AI,” as it’s labeled now, made strong use
of formalisms in the tradition of Gottlob Frege and Bertrand Russell,
mathematical logic for example, or derivatives of it, like
nonmonotonic reasoning and so on. It’s interesting from a history of
science perspective that even very recently, these approaches have
been almost wiped out from the mainstream and have been largely
replaced — in the field that calls itself AI now — by probabilistic and
statistical models. My question is, what do you think explains that
shift and is it a step in the right direction?
Chomsky: I heard Pat Winston give a talk about this years ago. One of the
points he made was that AI and robotics got to the point where you could
actually do things that were useful, so it turned to the practical applications and
somewhat, maybe not abandoned, but put to the side, the more fundamental
scientific questions, just caught up in the success of the technology and achieving
specific goals.
So it shifted to engineering…
Chomsky: It became… well, which is
understandable, but would of course direct people
away from the original questions. I have to say,
myself, that I was very skeptical about the original
work. I thought it was first of all way too optimistic,
it was assuming you could achieve things that
first of all way too
optimistic, it was
assuming you could
achieve things that
required real
understanding of
systems that were
barely understood, and
you just can’t get to that
understanding by
throwing a complicated
machine at it.”
required real understanding of systems that were
barely understood, and you just can’t get to that
understanding by throwing a complicated machine
at it. If you try to do that you are led to a
conception of success, which is self-reinforcing,
because you do get success in terms of this
conception, but it’s very different from what’s done
in the sciences. So for example, take an extreme
case, suppose that somebody says he wants to
eliminate the physics department and do it the
right way. The “right” way is to take endless
numbers of videotapes of what’s happening outside
the video, and feed them into the biggest and
fastest computer, gigabytes of data, and do complex
statistical analysis — you know, Bayesian this and
that [Editor’s note: A modern approach to analysis
of data which makes heavy use of probability theory.] — and you’ll get some kind
of prediction about what’s gonna happen outside the window next. In fact, you
get a much better prediction than the physics department will ever give. Well, if
success is defined as getting a fair approximation to a mass of chaotic unanalyzed
data, then it’s way better to do it this way than to do it the way the physicists do,
you know, no thought experiments about frictionless planes and so on and so
forth. But you won’t get the kind of understanding that the sciences have always
been aimed at — what you’ll get at is an approximation to what’s happening.
And that’s done all over the place. Suppose you want to predict tomorrow’s
weather. One way to do it is okay I’ll get my statistical priors, if you like, there’s a
high probability that tomorrow’s weather here will be the same as it was
yesterday in Cleveland, so I’ll stick that in, and where the sun is will have some
effect, so I’ll stick that in, and you get a bunch of assumptions like that, you run
the experiment, you look at it over and over again, you correct it by Bayesian
methods, you get better priors. You get a pretty good approximation of what
tomorrow’s weather is going to be. That’s not what meteorologists do — they
want to understand how it’s working. And these are just two different concepts of
what success means, of what achievement is. In my own field, language fields, it’s
all over the place. Like computational cognitive science applied to language, the
concept of success that’s used is virtually always this. So if you get more and
more data, and better and better statistics, you can get a better and better
approximation to some immense corpus of text, like everything in The Wall
Street Journal archives — but you learn nothing about the language.
A very different approach, which I think is the right approach, is to try to see if
you can understand what the fundamental principles are that deal with the core
properties, and recognize that in the actual usage, there’s going to be a thousand
other variables intervening — kind of like what’s happening outside the window,
and you’ll sort of tack those on later on if you want better approximations, that’s
a different approach. These are just two different concepts of science. The second
one is what science has been since Galileo, that’s modern science. The
approximating unanalyzed data kind is sort of a new approach, not totally,
there’s things like it in the past. It’s basically a new approach that has been
accelerated by the existence of massive memories, very rapid processing, which
enables you to do things like this that you couldn’t have done by hand. But I
think, myself, that it is leading subjects like computational cognitive science into a
direction of maybe some practical applicability… engineering?
Chomsky: …But away from understanding. Yeah, maybe some effective
engineering. And it’s kind of interesting to see what happened to engineering. So
like when I got to MIT, it was 1950s, this was an engineering school. There was a
very good math department, physics department, but they were service
departments. They were teaching the engineers tricks they could use. The
electrical engineering department, you learned how to build a circuit. Well if you
went to MIT in the 1960s, or now, it’s completely different. No matter what
engineering field you’re in, you learn the same basic science and mathematics.
And then maybe you learn a little bit about how to apply it. But that’s a very
different approach. And it resulted maybe from the fact that really for the first
time in history, the basic sciences, like physics, had something really to tell
engineers. And besides, technologies began to change very fast, so not very much
point in learning the technologies of today if it’s going to be different 10 years
from now. So you have to learn the fundamental science that’s going to be
applicable to whatever comes along next. And the same thing pretty much
happened in medicine. So in the past century, again for the first time, biology had
something serious to tell to the practice of medicine, so you had to understand
biology if you want to be a doctor, and technologies again will change. Well, I
think that’s the kind of transition from something like an art, that you learn how
to practice — an analog would be trying to match some data that you don’t
understand, in some fashion, maybe building something that will work — to
science, what happened in the modern period, roughly Galilean science.
I see. Returning to the point about Bayesian statistics in models of
language and cognition. You’ve argued famously that speaking of the
probability of a sentence is unintelligible on its own…
Chomsky: ..Well you can get a number if you want, but it doesn’t mean
It doesn’t mean anything. But it seems like there’s almost a trivial
way to unify the probabilistic method with acknowledging that there
are very rich internal mental representations, comprised of rules
and other symbolic structures, and the goal of probability theory is
just to link noisy sparse data in the world with these internal
symbolic structures. And that doesn’t commit you to saying anything
about how these structures were acquired — they could have been
there all along, or there partially with some parameters being tuned,
whatever your conception is. But probability theory just serves as a
kind of glue between noisy data and very rich mental
Chomsky: Well… there’s nothing wrong with probability theory, there’s nothing
wrong with statistics.
But does it have a role?
Chomsky: If you can use it, fine. But the question is what are you using it for?
First of all, first question is, is there any point in understanding noisy data? Is
there some point to understanding what’s going on outside the window?
Well, we are bombarded with it [noisy data], it’s one of Marr’s
examples, we are faced with noisy data all the time, from our retina
Chomsky: That’s true. But what he says is: Let’s ask ourselves how the
biological system is picking out of that noise things that are significant. The retina
is not trying to duplicate the noise that comes in. It’s saying I’m going to look for
this, that and the other thing. And it’s the same with say, language acquisition.
The newborn infant is confronted with massive noise, what William James called
“a blooming, buzzing confusion,” just a mess. If say, an ape or a kitten or a bird or
whatever is presented with that noise, that’s where it ends. However, the human
infants, somehow, instantaneously and reflexively, picks out of the noise some
scattered subpart which is language-related. That’s the first step. Well, how is it
doing that? It’s not doing it by statistical analysis, because the ape can do roughly
the same probabilistic analysis. It’s looking for particular things. So
psycholinguists, neurolinguists, and others are trying to discover the particular
parts of the computational system and of the neurophysiology that are somehow
tuned to particular aspects of the environment. Well, it turns out that there
actually are neural circuits which are reacting to particular kinds of rhythm,
which happen to show up in language, like syllable length and so on. And there’s
some evidence that that’s one of the first things that the infant brain is seeking —
rhythmic structures. And going back to Gallistel and Marr, its got some
computational system inside which is saying “okay, here’s what I do with these
“It’s worth remembering
that with regard to
cognitive science, we’re
kind of pre-Galilean, just
beginning to open up
the subject.”
things” and say, by nine months, the typical infant has rejected — eliminated
from its repertoire — the phonetic distinctions that aren’t used in its own
language. So initially of course, any infant is tuned to any language. But say, a
Japanese kid at nine months won’t react to the R-L distinction anymore, that’s
kind of weeded out. So the system seems to sort out lots of possibilities and
restrict it to just ones that are part of the language, and there’s a narrow set of
those. You can make up a non-language in which the infant could never do it, and
then you’re looking for other things. For example, to get into a more abstract
kind of language, there’s substantial evidence by now that such a simple thing as
linear order, what precedes what, doesn’t enter into the syntactic and semantic
computational systems, they’re just not designed to look for linear order. So you
find overwhelmingly that more abstract notions of distance are computed and
not linear distance, and you can find some neurophysiological evidence for this,
too. Like if artificial languages are invented and taught to people, which use linear
order, like you negate a sentence by doing something to the third word. People
can solve the puzzle, but apparently the standard language areas of the brain are
not activated — other areas are activated, so they’re treating it as a puzzle not as
a language problem. You need more work, but…
You take that as convincing evidence that activation or lack of
activation for the brain area …
Chomsky: …It’s evidence, you’d want more of course. But this is the kind of
evidence, both on the linguistics side you look at how languages work — they
don’t use things like third word in sentence. Take a simple sentence like
“Instinctively, Eagles that fly swim”, well, “instinctively” goes with swim, it
doesn’t go with fly, even though it doesn’t make sense. And that’s reflexive.
“Instinctively”, the adverb, isn’t looking for the nearest verb, it’s looking for the
structurally most prominent one. That’s a much harder computation. But that’s
the only computation which is ever used. Linear order is a very easy
computation, but it’s never used. There’s a ton of evidence like this, and a little
neurolinguistic evidence, but they point in the same direction. And as you go to
more complex structures, that’s where you find more and more of that.
That’s, in my view at least, the way to try to discover how the system is actually
working, just like in vision, in Marr’s lab, people like Shimon Ullman discovered
some pretty remarkable things like the rigidity principle. You’re not going to find
that by statistical analysis of data. But he did find it by carefully designed
experiments. Then you look for the neurophysiology, and see if you can find
something there that carries out these computations. I think it’s the same in
language, the same in studying our arithmetical capacity, planning, almost
anything you look at. Just trying to deal with the unanalyzed chaotic data is
unlikely to get you anywhere, just like as it wouldn’t have gotten Galileo
anywhere. In fact, if you go back to this, in the 17th century, it wasn’t easy for
people like Galileo and other major scientists to convince the NSF [National
Science Foundation] of the day — namely, the aristocrats — that any of this
made any sense. I mean, why study balls rolling down frictionless planes, which
don’t exist. Why not study the growth of flowers? Well, if you tried to study the
growth of flowers at that time, you would get maybe a statistical analysis of what
things looked like.
It’s worth remembering that with regard to
cognitive science, we’re kind of pre-Galilean, just
beginning to open up the subject. And I think you
can learn something from the way science worked
[back then]. In fact, one of the founding
experiments in history of chemistry, was about
1640 or so, when somebody proved to the
satisfaction of the scientific world, all the way up to
Newton, that water can be turned into living
matter. The way they did it was — of course,
nobody knew anything about photosynthesis — so what you do is you take a pile
of earth, you heat it so all the water escapes. You weigh it, and put it in a branch
of a willow tree, and pour water on it, and measure you the amount of water you
put in. When you’re done, you the willow tree is grown, you again take the earth
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 10/27
and heat it so all the water is gone — same as before. Therefore, you’ve shown
that water can turn into an oak tree or something. It is an experiment, it’s sort of
right, but it’s just that you don’t know what things you ought to be looking for.
And they weren’t known until Priestly found that air is a component of the world,
it’s got nitrogen, and so on, and you learn about photosynthesis and so on. Then
you can redo the experiment and find out what’s going on. But you can easily be
misled by experiments that seem to work because you don’t know enough about
what to look for. And you can be misled even more if you try to study the growth
of trees by just taking a lot of data about how trees growing, feeding it into a
massive computer, doing some statistics and getting an approximation of what
In the domain of biology, would you consider the work of Mendel, as
a successful case, where you take this noisy data — essentially counts
— and you leap to postulate this theoretical object…
Chomsky: …Well, throwing out a lot of the data that didn’t work.
…But seeing the ratio that made sense, given the theory.
Chomsky: Yeah, he did the right thing. He let the theory guide the data. There
was counter data which was more or less dismissed, you know you don’t put it in
your papers. And he was of course talking about things that nobody could find,
like you couldn’t find the units that he was postulating. But that’s, sure, that’s the
way science works. Same with chemistry. Chemistry, until my childhood, not
that long ago, was regarded as a calculating device. Because you couldn’t reduce
to physics. So it’s just some way of calculating the result of experiments. The
Bohr atom was treated that way. It’s the way of calculating the results of
experiments but it can’t be real science, because you can’t reduce it to physics,
which incidentally turned out to be true, you couldn’t reduce it to physics
because physics was wrong. When quantum physics came along, you could unify
it with virtually unchanged chemistry. So the project of reduction was just the
wrong project. The right project was to see how these two ways of looking at the
world could be unified. And it turned out to be a surprise — they were unified by
radically changing the underlying science. That could very well be the case with
say, psychology and neuroscience. I mean, neuroscience is nowhere near as
advanced as physics was a century ago.
That would go against the reductionist approach of looking for
molecules that are correlates of…
Chomsky: Yeah. In fact, the reductionist approach has often been shown to be
wrong. The unification approach makes sense. But unification might not turn out
to be reduction, because the core science might be misconceived as in the
physics-chemistry case and I suspect very likely in the neuroscience-psychology
case. If Gallistel is right, that would be a case in point that yeah, they can be
unified, but with a different approach to the neurosciences.
So is that a worthy goal of unification or the fields should proceed in
Chomsky: Well, unification is kind of an intuitive ideal, part of the scientific
mystique, if you like. It’s that you’re trying to find a unified theory of the world.
Now maybe there isn’t one, maybe different parts work in different ways, but
your assumption is until I’m proven wrong definitively, I’ll assume that there’s a
unified account of the world, and it’s my task to try to find it. And the unification
may not come out by reduction — it often doesn’t. And that’s kind of the guiding
logic of David Marr’s approach: what you discover at the computational level
ought to be unified with what you’ll some day find out at the mechanism level,
but maybe not in terms of the way we now understand the mechanisms.
And implicit in Marr it seems that you can’t work on all three in
parallel [computational, algorithmic, implementation levels], it has
to proceed top-down, which is a very stringent requirement, given
that science usually doesn’t work that way.
Chomsky: Well, he wouldn’t have said it has to be rigid. Like for example,
discovering more about the mechanisms might lead you to change your concept
of computation. But there’s kind of a logical precedence, which isn’t necessarily
the research precedence, since in research everything goes on at the same time.
But I think that the rough picture is okay. Though I should mention that Marr’s
conception was designed for input systems…
information-processing systems…
Chomsky: Yeah, like vision. There’s some data out there — it’s a processing
system — and something goes on inside. It isn’t very well designed for cognitive
systems. Like take your capacity to take out arithmetical operations..
It’s very poor, but yeah…
Chomsky: Okay [laughs]. But it’s an internal capacity, you know your brain is a
controlling unit of some kind of Turing machine, and it has access to some
external data, like memory, time and so on. And in principle, you could multiply
anything, but of course not in practice. If you try to find out what that internal
system is of yours, the Marr hierarchy doesn’t really work very well. You can
talk about the computational level — maybe the rules I have are Peano’s axioms
[Editor’s note: a mathematical theory (named after Italian mathematician
Giuseppe Peano) that describes a core set of basic rules of arithmetic and natural
numbers, from which many useful facts about arithmetic can be deduced], or
something, whatever they are — that’s the computational level. In theory,
though we don’t know how, you can talk about the neurophysiological level,
nobody knows how, but there’s no real algorithmic level. Because there’s no
calculation of knowledge, it’s just a system of knowledge. To find out the nature
of the system of knowledge, there is no algorithm, because there is no process.
Using the system of knowledge, that’ll have a process, but that’s something
But since we make mistakes, isn’t that evidence of a process gone
Chomsky: That’s the process of using the internal system. But the internal
system itself is not a process, because it doesn’t have an algorithm. Take, say,
ordinary mathematics. If you take Peano’s axioms and rules of inference, they
determine all arithmetical computations, but there’s no algorithm. If you ask how
does a number theoretician applies these, well all kinds of ways. Maybe you don’t
start with the axioms and start with the rules of inference. You take the
theorem, and see if I can establish a lemma, and if it works, then see if I can try
to ground this lemma in something, and finally you get a proof which is a
geometrical object.
But that’s a fundamentally different activity from me adding up
small numbers in my head, which surely does have some kind of
Chomsky: Not necessarily. There’s an algorithm for the process in both cases.
But there’s no algorithm for the system itself, it’s kind of a category mistake. You
don’t ask the question what’s the process defined by Peano’s axioms and the
rules of inference, there’s no process. There can be a process of using them. And
it could be a complicated process, and the same is true of your calculating. The
internal system that you have — for that, the question of process doesn’t arise.
But for your using that internal system, it arises, and you may carry out
multiplications all kinds of ways. Like maybe when you add 7 and 6, let’s say, one
algorithm is to say “I’ll see how much it takes to get to 10” — it takes 3, and now
I’ve got 4 left, so I gotta go from 10 and add 4, I get 14. That’s an algorithm for
adding — it’s actually one I was taught in kindergarten. That’s one way to add.
But there are other ways to add — there’s no kind of right algorithm. These are
algorithms for carrying out the process the cognitive system that’s in your head.
And for that system, you don’t ask about algorithms. You can ask about the
computational level, you can ask about the mechanism level. But the algorithm
level doesn’t exist for that system. It’s the same with language. Language is kind
of like the arithmetical capacity. There’s some system in there that determines
artificial-intelligence-went-wrong/261637/?single_page=true 12/27
the sound and meaning of an infinite array of possible sentences. But there’s no
question about what the algorithm is. Like there’s no question about what a
formal system of arithmetic tells you about proving theorems. The use of the
system is a process and you can study it in terms of Marr’s level. But it’s
important to be conceptually clear about these distinctions.
It just seems like an astounding task to go from a computational
level theory, like Peano axioms, to Marr level 3 of the…
Chomsky: mechanisms…
…mechanisms and implementations…
Chomsky: Oh yeah. Well..
..without an algorithm at least.
Chomsky: Well, I don’t think that’s true. Maybe information about how it’s
used, that’ll tell you something about the mechanisms. But some higher
intelligence — maybe higher than ours — would see that there’s an internal
system, its got a physiological basis, and I can study the physiological basis of
that internal system. Not even looking at the process by which it’s used. Maybe
looking at the process by which it’s used maybe gives you helpful information
about how to proceed. But it’s conceptually a different problem. That’s the
question of what’s the best way to study something. So maybe the best way to
study the relation between Peano’s axioms and neurons is by watching
mathematicians prove theorems. But that’s just because it’ll give you information
that may be helpful. The actual end result of that will be an account of the
system in the brain, the physiological basis for it, with no reference to any
algorithm. The algorithms are about a process of using it, which may help you get
answers. Maybe like incline planes tell you something about the rate of fall, but if
you take a look at Newton’s laws, they don’t say anything about incline planes.
Right. So the logic for studying cognitive and language systems using
this kind of Marr approach makes sense, but since you’ve argued that
language capacity is part of the genetic endowment, you could apply
it to other biological systems, like the immune system, the
circulatory system….
Chomsky: Certainly, I think it’s very similar. You can say the same thing about
study of the immune system.
It might even be simpler, in fact, to do it for those systems than for
Chomsky: Though you’d expect different answers. You can do it for the
digestive system. Suppose somebody’s studying the digestive system. Well,
they’re not going to study what happens when you have a stomach flu, or when
you’ve just eaten a big Mac, or something. Let’s go back to taking pictures
outside the window. One way of studying the digestive system is just to take all
data you can find about what digestive systems do under any circumstances, toss
the data into a computer, do statistical analysis — you get something. But it’s not
gonna be what any biologist would do. They want to abstract away, at the very
beginning, from what are presumed — maybe wrongly, you can always be wrong
— irrelevant variables, like do you have stomach flu.
But that’s precisely what the biologists are doing, they are taking the
sick people with the sick digestive system, comparing them to the
normals, and measuring these molecular properties.
Chomsky: They’re doing it in an advanced stage. They already understand a lot
about the study of the digestive system before we compare them, otherwise you
wouldn’t know what to compare, and why is one sick and one isn’t.
Well, they’re relying on statistical analysis to pick out the features
that discriminate. It’s a highly fundable approach, because you’re
claiming to study sick people.
“There’s no reason to
assume that all of
biology is
computational. There
may be reasons to
assume that cognition
Chomsky: It may be the way to fund things. Like maybe the way to fund study
of language is to say, maybe help cure autism. That’s a different question
[laughs]. But the logic of the search is to begin by studying the system abstracted
from what you, plausibly, take to be irrelevant intrusions, see if you can find its
basic nature — then ask, well, what happens when I bring in some of this other
stuff, like stomach flu.
It still seems like there’s a difficulty in applying Marr’s levels to
these kinds of systems. If you ask, what is the computational
problem that the brain is solving, we have kind of an answer, it’s sort
of like a computer. But if you ask, what is the computational
problem that’s being solved by the lung, that’s very difficult to even
think — it’s not obviously an information-processing kind of
Chomsky: No, but there’s no reason to assume
that all of biology is computational. There may be
reasons to assume that cognition is. And in fact
Gallistel is not saying that everything is in the body
ought to be studied by finding read/write/address
It just seems contrary to any evolutionary
intuition. These systems evolved together,
reusing many of the same parts, same
molecules, pathways. Cells are computing
Chomsky: You don’t study the lung by asking what cells compute. You study
the immune system and the visual system, but you’re not going to expect to find
the same answers. An organism is a highly modular system, has a lot of complex
subsystems, which are more or less internally integrated. They operate by
different principles. The biology is highly modular. You don’t assume it’s all just
one big mess, all acting the same way.
No, sure, but I’m saying you would apply the same approach to study
each of the modules.
Chomsky: Not necessarily, not if the modules are different. Some of the
modules may be computational, others may not be.
So what would you think would be an adequate theory that is
explanatory, rather than just predicting data, the statistical way,
what would be an adequate theory of these systems that are not
computing systems — can we even understand them?
Chomsky: Sure. You can understand a lot about say, what makes an embryo
turn into a chicken rather than a mouse, let’s say. It’s a very intricate system,
involves all kinds of chemical interactions, all sorts of other things. Even the
nematode, it’s by no means obviously — in fact there are reports from the study
here — that it’s all just a matter of a neural net. You have to look into complex
chemical interactions that take place in the brain, in the nervous system. You
have to look into each system on its own. These chemical interactions might not
be related to how your arithmetical capacity works — probably aren’t. But they
might very well be related to whether you decide to raise your arm or lower it.
Though if you study the chemical interactions it might lead you into
what you’ve called just a redescription of the phenomena.
Chomsky: Or an explanation. Because maybe that’s directly, crucially, involved.
But if you explain it in terms of chemical X has to be turned on, or
gene X has to be turned on, you’ve not really explained how
organism-determination is done. You’ve simply found a switch, and
hit that switch.
“Why do cells split into
spheres and not cubes?
It’s not random mutation
and natural selection;
it’s a law of physics.”
and such under these circumstances, and do something else under different
But if genes are the wrong level of abstraction, you’d be screwed.
Chomsky: Then you won’t get the right answer. And maybe they’re not. For
example, it’s notoriously difficult to account for how an organism arises from a
genome. There’s all kinds of production going on in the cell. If you just look at
gene action, you may not be in the right level of abstraction. You never know,
that’s what you try to study. I don’t think there’s any algorithm for answering
those questions, you try.
So I want to shift gears more toward evolution. You’ve criticized a
very interesting position you’ve called “phylogenetic empiricism.”
You’ve criticized this position for not having explanatory power. It
simply states that: well, the mind is the way it because of
adaptations to the environment that were selected for. And these
were selected for by natural selection. You’ve argued that this
doesn’t explain anything because you can always appeal to these two
principles of mutation and selection.
Chomsky: Well you can wave your hands at them, but they might be right. It
could be that, say, the development of your arithmetical capacity, arose from
random mutation and selection. If it turned out to be true, fine.
It seems like a truism.
Chomsky: Well, I mean, doesn’t mean it’s false. Truisms are true. [laughs].
But they don’t explain much.
Chomsky: Maybe that’s the highest level of
explanation you can get. You can invent a world — I
don’t think it’s our world — but you can invent a
world in which nothing happens except random
changes in objects and selection on the basis of
external forces. I don’t think that’s the way our
world works, I don’t think it’s the way any biologist
thinks it is. There are all kind of ways in which
natural law imposes channels within which selection
can take place, and some things can happen and other things don’t happen.
Plenty of things that go on in the biology in organisms aren’t like this. So take the
first step, meiosis. Why do cells split into spheres and not cubes? It’s not random
mutation and natural selection; it’s a law of physics. There’s no reason to think
that laws of physics stop there, they work all the way through.
Well, they constrain the biology, sure.
Chomsky: Okay, well then it’s not just random mutation and selection. It’s
random mutation, selection, and everything that matters, like laws of physics.
So is there room for these approaches which are now labeled
“comparative genomics”, like the Broad Institute here [at
MIT/Harvard] is generating massive amounts of data, of different
genomes, different animals, different cells under different
conditions and sequencing any molecule that is sequenceable. Is
there anything that can be gleaned about these high-level cognitive
tasks from these comparative evolutionary studies or is it
Chomsky: I am not saying it’s the wrong approach, but I don’t know anything
that can be drawn from it. Nor would you expect to.
You don’t have any examples where this evolutionary analysis has
informed something? Like Foxp2 mutations? [Editor’s note: A gene
that is thought be implicated in speech or language capacities. A
family with a stereotyped speech disorder was found to have genetic
mutations that disrupt this gene. This gene evolved to have several
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 15/27
mutations unique to the human evolutionary lineage.]
Chomsky: Foxp2 is kind of interesting, but it doesn’t have anything to do with
language. It has to do with fine motor coordinations and things like that. Which
takes place in the use of language, like when you speak you control your lips and
so on, but all that’s very peripheral to language, and we know that. So for
example, whether you use the articulatory organs or sign, you know hand
motions, it’s the same language. In fact, it’s even being analyzed and produced in
the same parts of the brain, even though one of them is moving your hands and
the other is moving your lips. So whatever the externalization is, it seems quite
peripheral. I think they’re too complicated to talk about, but I think if you look
closely at the design features of language, you get evidence for that. There are
interesting cases in the study of language where you find conflicts between
computational efficiency and communicative efficiency.
Take this case I even mentioned of linear order. If you want to know which verb
the adverb attaches to, the infant reflexively using minimal structural distance,
not minimal linear distance. Well, it’s using minimal linear distances,
computationally easy, but it requires having linear order available. And if linear
order is only a reflex of the sensory-motor system, which makes sense, it won’t
be available. That’s evidence that the mapping of the internal system to the
sensory-motor system is peripheral to the workings of the computational
But it might constrain it like physics constrains meiosis?
Chomsky: It might, but there’s very little evidence of that. So for example the
left end — left in the sense of early — of a sentence has different properties from
the right end. If you want to ask a question, let’s say “Who did you see?” You put
the “Who” infront, not in the end. In fact, in every language in which a wh-phrase
— like who, or which book, or something — moves to somewhere else, it moves to
the left, not to the right. That’s very likely a processing constraint. The sentence
opens by telling you, the hearer, here’s what kind of a sentence it is. If it’s at the
end, you have to have the whole declarative sentence, and at the end you get the
information I’m asking about. If you spell it out, it could be a processing
constraint. So that’s a case, if true, in which the processing constraint,
externalization, do affect the computational character of the syntax and
There are cases where you find clear conflicts between computational efficiency
and communicative efficiency. Take a simple case, structural ambiguity. If I say,
“Visiting relatives can be a nuisance” — that’s ambiguous. Relatives that visit, or
going to visit relatives. It turns out in every such case that’s known, the
ambiguity is derived by simply allowing the rules to function freely, with no
constraints, and that sometimes yields ambiguities. So it’s computationally
efficient, but it’s inefficient for communication, because it leads to unresolvable
Or take what are called garden-path sentences, sentences like “The horse raced
past the barn fell”. People presented with that don’t understand it, because the
way it’s put, they’re led down a garden path. “The horse raced past the barn”
sounds like a sentence, and then you ask what’s “fell” doing there at the end. On
the other hand, if you think about it, it’s a perfectly well formed sentence. It
means the horse that was raced past the barn, by someone, fell. But the rules of
the language when they just function happen to give you a sentence which is
unintelligible because of the garden-path phenomena. And there are lots of cases
like that. There are things you just can’t say, for some reason. So if I say, “The
mechanics fixed the cars”. And you say, “They wondered if the mechanics fixed
the cars.” You can ask questions about the cars, “How many cars did they
wonder if the mechanics fixed?” More or less okay. Suppose you want to ask a
question about the mechanics. “How many mechanics did they wonder if fixed
the cars?” Somehow it doesn’t work, can’t say that. It’s a fine thought, but you
can’t say it. Well, if you look into it in detail, the most efficient computational
rules prevent you from saying it. But for expressing thought, for communication,
it’d be better if you could say it — so that’s a conflict.
And in fact, every case of a conflict that’s known, computational efficiency wins.
The externalization is yielding all kinds of ambiguities but for simple
computational reasons, it seems that the system internally is just computing
efficiently, it doesn’t care about the externalization. Well, I haven’t made that a
very plausible, but if you spell it out it can be made quite a convincing argument
I think.
That tells something about evolution. What it strongly suggests is that in the
evolution of language, a computational system developed, and later on it was
externalized. And if you think about how a language might have evolved, you’re
almost driven to that position. At some point in human evolution, and it’s
apparently pretty recent given the archeological record — maybe last hundred
thousand years, which is nothing — at some point a computational system
emerged with had new properties, that other organisms don’t have, that has kind
of arithmetical type properties…
It enabled better thought before externalization?
Chomsky: It gives you thought. Some rewiring of the brain, that happens in a
single person, not in a group. So that person had the capacity for thought — the
group didn’t. So there isn’t any point in externalization. Later on, if this genetic
change proliferates, maybe a lot of people have it, okay then there’s a point in
figuring out a way to map it to the sensory-motor system and that’s
externalization but it’s a secondary process.
Unless the externalization and the internal thought system are
coupled in ways we just don’t predict.
Chomsky: We don’t predict, and they don’t make a lot of sense. Why should it
be connected to the external system? In fact, say your arithmetical capacity isn’t.
And there are other animals, like songbirds, which have internal computational
systems, bird song. It’s not the same system but it’s some kind of internal
computational system. And it is externalized, but sometimes it’s not. A chick in
some species acquires the song of that species but doesn’t produce it until
maturity. During that early period it has the song, but it doesn’t have the
externalization system. Actually that’s true of humans too, like a human infant
understands a lot more than it can produce — plenty of experimental evidence
for this, meaning it’s got the internal system somehow, but it can’t externalize it.
Maybe it doesn’t have enough memory, or whatever it may be.
Graham Gordon Ramsay
I’d like to close with one question about the philosophy of science. In
a recent interview, you said that part of the problem is that
scientists don’t think enough about what they’re up to. You
mentioned that you taught a philosophy of science course at MIT
and people would read, say, Willard van Orman Quine, and it would
go in one ear out the other, and people would go back doing the same
kind of science that they were doing. What are the insights that have
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 17/27
been obtained in philosophy of science that are most relevant to
scientists who are trying to let’s say, explain biology, and give an
explanatory theory rather than redescription of the phenomena?
What do you expect from such a theory, and what are the insights
that help guide science in that way? Rather than guiding it towards
behaviorism which seems to be an intuition that many, say,
neuroscientists have?
Chomsky: Philosophy of science is a very interesting field, but I don’t think it
really contribute to science, it learns from science. It tries to understand what
the sciences do, why do they achieve things, what are the wrong paths, see if we
can codify that and come to understand. What I think is valuable is the history of
science. I think we learn a lot of things from the history of science that can be
very valuable to the emerging sciences. Particularly when we realize that in say,
the emerging cognitive sciences, we really are in a kind of pre-Galilean stage. We
don’t know what we’re looking for anymore than Galileo did, and there’s a lot to
learn from that. So for example one striking fact about early science, not just
Galileo, but the Galilean breakthrough, was the recognition that simple things are
Take say, if I’m holding this here [cup of water], and say the water is boiling
[putting hand over water], the steam will rise, but if I take my hand away the
cup will fall. Well why does the cup fall and the steam rise? Well for millennia
there was a satisfactory answer to that: they’re seeking their natural place.
Like in Aristotelian physics?
Chomsky: That’s the Aristotelian physics. The best and greatest scientists
thought that was answer. Galileo allowed himself to be puzzled by it. As soon as
you allow yourself to be puzzled by it, you immediately find that all your
intuitions are wrong. Like the fall of a big mass and a small mass, and so on. All
your intuitions are wrong — there are puzzles everywhere you look. That’s
something to learn from the history of science. Take the one example that I gave
to you, “Instinctively eagles that fly swim.” Nobody ever thought that was
puzzling — yeah, why not. But if you think about it, it’s very puzzling, you’re
using a complex computation instead of a simple one. Well, if you allow yourself
to be puzzled by that, like the fall of a cup, you ask “Why?” and then you’re led
down a path to some pretty interesting answers. Like maybe linear order just
isn’t part of the computational system, which is a strong claim about the
architecture of the mind — it says it’s just part of the externalization system,
secondary, you know. And that opens up all sorts of other paths, same with
everything else.
Take another case: the difference between reduction and unification. History of
science gives some very interesting illustrations of that, like chemistry and
physics, and I think they’re quite relevant to the state of the cognitive and
neurosciences today.

YARDEN KATZ is a graduate student in the Department of Brain and Cognitive sciences at MIT,
where he studies the regulation of gene expression in the developing nervous system and in
150 Years of Misunderstanding the Civil
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 19/27
Ollddeesstt Coommuunniittyy Shhaarree _ _
Brad Arnold • 8 months ago
HMM is the ticket – hierarchical pattern recognition processing based upon evolutionary
neural nets. This is how the neocortex works. Check out Mind’s Eye. Like most
conventional views of reality, the belief that strong AI was high hanging fruit was wrong.
Shirk your anthropocentric bias – the Singularity is coming.
“There is not the slightest indication that nuclear energy will ever be obtainable. It would
mean that the atom would have to be shattered at will.” — Albert Einstein, 1932
“There is no reason anyone would want a computer in their home.” – Ken Olson,
president, chairman and founder of Digital Equipment Corp., 1977
3 _ 10 ”
Jus tin Colley • 8 months ago
Great interview- but the review of Skinner was in 1959, when Chomsky was still a relative
2 _ 1 ”
Daniel W ac hs s toc k • 8 months ago
“In fact, in every language in which a wh-phrase — like who, or which book, or something –
– moves to somewhere else, it moves to the left, not to the right.”
He said what?
I think the more you look, the fewer rules/laws of cognition you find.
2 _ 2 ”
Mairead _ Daniel Wachsstock • 8 months ago
I immediately thought of that same example.
What puzzles me is that Chomsky obviously knows it too, so something got
scrambled somewhere, but what?
_ 2 ”
Charles Butler _ Mairead • 8 months ago
“The horse raced past the barn fell”
In English, this is written, “The horse that raced past the barn fell”.
Chomsky’s example is pijin.
_ 1 ”
Mairead _ Charles Butler • 8 months ago
Or possibly “the horse [that was] raced past the barn, fell”, since
“race” can be used transitively or intransitively.
1 _ 1 ”
Charles Butler _ Mairead • 8 months ago
That too. In any regard he presented English speakers with a
sentence written in pijin. No surprise they didn’t get it. Pijins are
fairly incomprehensible to outsiders.
_ ”
Mairead _ Charles Butler • 8 months ago
I don’t quite see why you regard it as pidjin (I mistakenly read what
you wrote as “pinyin” at first because of the lack of the usual “d”)
The sentence seems like unexceptional English, to me. Cf “The car
driven past the barn stopped”, “The aircraft flown over the boat
landed”, etc.
2 _ ”
m w _ Mairead • 8 months ago
I think C is saying that the examples need disambiguation which is
computationally inefficient (it may take a second to do it using
context) and that language evolves to reduce that by making the
alternate forms more common and preferred eg by putting in ‘that’.
I think C believes that language evolved as thought –computation–
and was then used as communication and shows it earlier
computational bias.
“What it strongly suggests is that in the evolution of language, a
computational system developed, and later on it was externalized.”
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 20/27
computational system developed, and later on it was externalized.”
And he says,
“That’s evidence that the mapping of the internal system to the
sensory-motor system is peripheral to the workings of the
computational system. ”
“And in fact, every case of a conflict that’s known, computational
efficiency wins. The externalization is yielding all kinds of
ambiguities but for simple computational reasons, it seems that the
system internally is just computing efficiently, it doesn’t care about
the externalization.”
This is his anti-reductionist argument which he takes to be a
critique of AI and a suggestion about its slow progress as a theory
of mind.
_ ”
Mairead _ m w • 8 months ago
Eeeek! Of course, thanks. I got temporarily derailed by the
language itself rather than the computational aspects of decoding it.
_ ”
Mairead _ m w • 8 months ago
Furrfu, I got derailed again!
The original issue was Chomsky’s statement, quoted in part by
Daniel Wachsstock, that wh-phrases move to the left, not the right.
Daniel and I both thought of the contradictory “he said what?” in
which it moved to the right as an alternative to “what did he say?”.
Unlike the hard-to-parse one about the horse where at least one
backtrack is needed, “he said what” gets decoded immediately,
possibly a few milliseconds faster than the one that uses the Saxon
But Chomsky had to have known that example, so what happened?
Did he forget something, was he misquoted, are we missing
something, or, you should excuse it, what? 🙂
_ ”
KR _ Charles Butler • 7 months ago
Or: “The horse raced past the barn that fell.”
_ ”
Twiddly Dee _ Charles Butler • 2 months ago
You guys, seriously: there is an entire field of syntax and generative
grammar that studies these questions and studies them quite well.
You’re making elementary mistakes in how you are trying to
undertake these thought processes. You can’t just Plato your way
to understanding the complexity of syntax.
_ ”
Barbara H Partee _ Daniel Wachsstock • 8 months ago
That’s not movement to the right; that instance of “what” didn’t move at all. Your
example is a so-called “echo-question” – a kind of question that usually comes
right after something the other person said, and you either didn’t hear a part of it,
or you’re surprised and maybe asking for repetition to confirm that you heard right.
But the “what” will be wherever in the sentence a corresponding non-whexpression
would have been — e.g. “He took WHAT with him?”, “Those butterflies
migrate HOW far every year?” “You gave your mother-in-law WHAT for
7 _ ”
Mairead _ Barbara H Partee • 8 months ago
I’m not sure it’s clear –it’s certainly not clear to me– what Chomsky
means by “moves”. If it feels clear to you, Barbara, could you explain it?
_ ”
Aethelberht _ Mairead • 8 months ago
Consider a sentence like “John claimed that Mary likes Bill.” You
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 21/27
now ask the question: “Who did John claim that Mary likes?” “Who”
appears at the left edge of the sentence, but is the object of the
verb “likes”, and hence should instead show up all the way at the
right edge of the sentence. In the question, “who” appears even to
the left of another verb, ‘claim,’ and its subject, ‘John’.
It is this sense of movement — the deviation in the actual position of
the wh-word from its expected position based on what noun the
question is actually referring to — that Chomsky uses.
If you’re forming an analogous question about John, you’d
say: “Who claimed Mary likes Bill?” In this case, there’s no
“counterexample” to Chomsky’s claim like Daniel’s such that the
wh-phrase is moved to the right, like “Claimed that Mary likes Bill
Cases like Daniel’s isn’t a counterexample because it patterns with
a separate type of question sentences (called echo questions, as
1 _ ”
Mairead _ Aethelberht • 8 months ago
It is this sense of movement — the deviation in the actual position of
the wh-word from its expected position based on what noun the
question is actually referring to — that Chomsky uses.
Why would it be expected? Most other languages don’t encode
much meaning in word order. “Mary hit the ball” and “the ball hit
Mary” have two completely different meanings in English despite
having the same NVN construction.
But that’s not so in, e.g., Russian (Mariya pobila ball, ball pobila
Mariya) because the meaning is encoded in each word, not their
order. So where would the expectation come from?
That’s where I stumble over what he might mean. (I’m quite
convinced that he’s “a great improvement over his successors”, so
I’m happy to believe that any lack of understanding is in me, not
_ ”
Aethelberht _ Mairead • 8 months ago
There’s a logical fallacy in your argument: Just because Chomsky’s
claim is narrower than you’re taking it to be doesn’t make free order
languages a counterexample to it.
The claim is: IF a language has wh-movement from an expected
position, THEN the movement is to the left. How can a language
that fails to satisfy the “if” conditions refute Chomsky’s claim?
Russian is said to be a language where wh-questions are formed
in-place. English on the other hand has both the movement-type
wh-questions as well as the in-place type. It is only the former
which Chomsky is interested in. “Where would the expectation
come from [in Russian]?” is as meaningless a challenge as “He
said WHAT?” in English — assuming that there really is no
expectation of syntactic order in Russian.
Which leads me to the second issue: free word order is an oftmentioned
but much exaggerated claim about language. The World
Atlas of Language Structures only classifies 14% — 189/1377 — of
languages as “lacking a dominant word order.” Many languages
1 _ ”
Memory Palac e • 8 months ago
Today’s neuroscientist trying to build AI is like a blind man at a painting exhibition, feeling
the canvases to try to learn how to paint, but not even knowing if the art is figurative or
RobertSF • 8 months ago
I think a lot of this going around about AI misses the point. We don’t have to understand
how the brain works to build an AI that is good enough for our purposes. We don’t have to
build an AI that mimics the human brain at all. Our vehicles don’t walk like humans nor like
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 22/27
build an AI that mimics the human brain at all. Our vehicles don’t walk like humans nor like
horses. Our submarines don’t swim like fish, and our airplanes don’t fly like birds.
We don’t need human-like AI to seriously disrupt our world. Whenever the idea of AI threat
comes up, people start cracking the inevitable jokes about Skynet and robotic overlords.
But all that’s needed to disrupt our world is “machine intelligence,” that is, logic that solves
specific tasks.
Consider the ATM and the interactive phone call handler. They are hardly intelligent, yet
they essentially eliminated the jobs of bank teller and PBX operator. Look at IBM’s Deep
Blue chess-playing computer. Completely dumb, yet no human can beat it. Deep Blue
can’t put millions of people out of work, but other machine intelligences can.
Within a decade, we can expect American retail to go 90% self-checkout, putting 90% of
the people who ring stuff up for a living out of work. That’s about two million people. Now
think of Google driverless technology. It probably won’t become widely used in passenger
cars but instead it will disrupt the trucking industry.
Don Gilmore _ RobertSF • 8 months ago
Yes, agreed, and all very useful tools, and practical examples, but this too misses
a point or two: (1) we want better answers to mysteries such as consciousness,
self-awareness and how our brains work; (2) if you build something without
understanding it, there will be unintended consequences; (3) all these tools you
mention, how does that ever lead to a system that can re-design itself towards an
even better system that can re-design itself better, etc. until a singularity happens?
I’d hate for a singularity to occur without human understanding.
RobertSF _ Don Gilmore • 8 months ago
(1) we want better answers to mysteries such as consciousness, selfawareness
and how our brains work;
I think that’s part of the misunderstanding. AI is technology, not science.
When the Wright Brothers developed their airplane, they weren’t looking to
discover how birds flew. In fact, our understanding of aerodynamics is still
imperfect, but the technologists leave that to the scientists to figure out. As
long as the thing gets in the air and stays there, the technologists are
happy. Likewise, if the AI can drive a car, interpret an X-ray, or answer
random plain-language questions, the technologists will be happy.
I’m rather skeptical of any singularity happening any time soon. There’s no
need for it. Once machines totally displace labor, there will be little need to
go further, even if research here and there continues.
Consider automobiles. Almost any car can go 90 mph, and many can go
100 mph and even 120 mph, but that’s about where we stopped. If you
spend a boatload of money, you can get a car that does 150 mph and even
250 mph, but it will be of little practical value. And then you have the people
who design cars — virtually wheeled rockets — that can briefly do 800 mph
on the Great Salt Lake sand flats, but that’s just to prove that it can be
done. We’re never going to see those cars roll off a Honda assembly line.
Sean Allen _ RobertSF • 8 months ago
I think actually that you’re espousing the misunderstanding.
Certainly there are practical technological applications of AI that is
not modeled on human thought.
But for you to say that there isn’t a science of AI is restrictive and
sophomoric. The pursuit of understanding our cognitive process is
a science, and artificial intelligence modeled on our own intelligence
is both a tool and product of that science. It is certainly more
ambitious, and it would be rewarding in other ways than current AI
Riad Awad _ Sean Allen • 7 months ago
if you have a dictionary then you can look for “science” and see if it
apply to AI. years before anyone knew anything about AI there were
many “artificials”, like “artificial heart”, “artificial kidney”, and
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 23/27
many “artificials”, like “artificial heart”, “artificial kidney”, and
“artificial intelligence” was named after those. the science that deal
with heart and kidney is: Biology, but the people who made the
artificial heart were technicians, and they didn’t have to know
anything about the heart itself, but only what it does.
the day when anyone will know how to imitate human brain will be
the last day of humanity, for simple reason, that while artificial
heart, kidney, lung are tool that replace natural organs for a short
period and thus save their lives, AI is a tool to replace the humans
jmaurobu _ Don Gilmore • 7 months ago
I agree as well that we have built machines to achieve our known, purpose
defined needs but we have missed the bigger question and bigger potential
that Chomsky is driving for.
We are essentially taking that “brute force” approach to AI, which is we
take a huge sampling of inputs (search results, or data points) and then
filter it with huge processing power in order to achieve our objective, to
return a result based on predefined conditions (2nd level). Why this is
useful in “simple machines” like a guide missile of a CNC router, it doesn’t
allow for the machine to do anything that hasn’t been predefined in its
program, the way an animal or human can react to a situation it has never
encountered before or solve a problem it has never faced before.
If we continue to develop machines in this manner, and they one day
surpass us or at least become such an integrated part of who we are, we
then circle back to Platonic ideas of there not being such a thing as a new
or novel idea, that all ideas have existed before and you are only coming
across them for the first time for you as an individual but not for you as a
James Smith _ RobertSF • 8 months ago
There would never be driverless big rigs lmao. AI is coming a long way and it long
ago surpassed the intelligence of your average republican but it still has a ways to
go to become mainstream.
RobertSF _ James Smith • 8 months ago
You don’t say why there would never be driverless big rigs, unless you
think “lmao” is a logical argument.
Driverless technology is already being tested on California and Nevada’s
roads, streets, and highways. They’ve already logged more than 150,000
miles without a single accident, not even a tap on someone’s bumper,
which is a lot better record than most of us have. Why do you think they’re
doing that if they don’t intend to use it?
randc raw • 8 months ago
Great article Mr Katz. Thanks!
In my opinion, the goal of AI research is not now nor has ever been to understand how the
brain works nor is it to build a model of brain function. Like Chomsky’s grammar
hierarchy, AI proposes and implements informatic models that recognize patterns in
observed data. Then it processses those patterns to infer meaning and utility toward
achieving some goal. Then it reacts in a manner that brings it closer to the goal, thereby
behaving “intelligently”. It’s as unnecessary to demand that the “intelligence” process
ground itself in a biological substrate as it is to demand that the participants in an
academic debate on the merits of war must first have fought in a real battle, or must
express themselves using predicate logic, in order to produce a valid argument.
As I understand Dr Chomsky, we should approach AI by first investigating biological
mechanisms to derive scientifically grounded first principles of cognition. Only then will we
have the materiel needed to propose a model of cognition that’s expressive enough to
guide us to a scientific grounding of cognition. I don’t know that he’s wrong. Several
wizened roboticists have suggested personal experience to be essential to gain full
appreciation for the meaning of concepts (the grounding problem). I do think it’s
unnecessarily biased to suggest that a biologically grounded first principles approach to
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 24/27
Uncle_Fred _ randcraw • 8 months ago
I agree that basic, useful A.I. can be generated from statistical computational
methods. The applications for this type of software are enormous, and include
speech to text, Auto-navigating systems like Google Drive and also, search
However, the interface aspect will benefit from an emphasis on Chomsky’s
mechanisms approach. Studies show that humans interact best with other
socialized humans. This is why most people respond uncomfortably to visual and
audio representations of A.I. If we could determine the mechanisms behind the
how human intelligence operates, software responses could climb out of the
“uncanny valley.”
On the biological side, bridging the gap between mechanical computation
substrates and their human equivalents might allow us to program software more
effectively. It could dramatically improve efficiency, thus reducing power
consumption and hardware size if we understood brain computation better.
I see applications for all means tackling this problem, but statistical methods will
probably achieve product ready results quicker than the others.
ThomasVeil _ randcraw • 8 months ago
I don’t see why it has to be an “either/or” – and not even Chomsky says that we
should stop one approach for the other.
His point in linguistics is that language in humans is not created by a mere
statistical analysis – but there is rather some innate principle. And just obviously, if
we figure that principle out, then we can create much better AI for language.
By extension a similar problem applies to the other fields.
And not to forget that figuring out how our brains really work is also just
philosophically and scientifically a great goal in itself.
Patric k Kerr • 8 months ago
Great interview. I wonder if the “Turing Test” style arithmetic slip-up was kept in there
deliberately, to convince us that Chomsky is human after all.
For the record, 6 + 7 = 13 🙂
Cris tina • 8 months ago
I fully agree with Mr. Chomsky and in fact I am a bit more radical. Computer is a machine
for syntactic processing. Adding many layers of syntactic procedures does no make
semantics. Intelligence requires semantics. My statement is that who argues for AI in fact
did not understand yet what a computer is, its capacities and limitations.
Mairead _ Cristina • 8 months ago
It’s true that, except for toy domains like Shrdlu’s, we don’t yet know how to
represent the world knowledge that underlies semantics.
But there doesn’t seem to be any reason why it will always be so (except if we go
extinct because politicians continue to play status games rather than heeding
Mama’s warnings). And if we can represent it, we can certainly write programs to
use and refine that representation.
Jon Hardy _ Cristina • 7 months ago
I be to differ. Semantics or meaning arise by comparison, or references to other
things (words, objects, experiences). They are essentially pointers to other
pointers, an infinite syntactic process. The capacities and limitations of a
computer are simply in lack of the infinite.
Monic a Anders on • 8 months ago
There is a third approach to AI besides the Classical (Model-based) and the Statistical
(Model-weak) and that is to go all the way to Model Free Methods as the basis. Using
these it is possible to implement a good domain independent algorithm for Saliency,
which enables such an AI to do Reduction on its own, which is what Intelligence is really
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 25/27
which enables such an AI to do Reduction on its own, which is what Intelligence is really
about. For more, google for “Reduction Considered Harmful”, “Artificial Intuition” or
“Syntience links”.
proletaria • 8 months ago
Chomsky is a hack. He knows nothing of the field about which he is being interviewed.
This is the liberal version of O’Riley debating the existence of god. He sounds like an
absolute moron. Unfortunately, just like the angry irishman in that debate, he will come off
looking great to the hordes of unthinking followers who parrot his every stupid breath.
Diego _ proletaria • 8 months ago
Get lost.
Riad Awad _ proletaria • 7 months ago
thank you, at last i found someone saying something of value, but chomsky is not
an exception, he rather is the rule, in a society where truth is taken from authority
instead of taking authority from truth.
“A foolish faith in authority is the worst enemy of truth.” said Einstein
blackylawless _ Riad Awad • 7 months ago
Shut up!
blackylawless _ proletaria • 7 months ago
You’re post must be for the wrong article or interview. You’re a neo-Nazi hack,
whose claptrap is intended for one of Chomsky online Z-Magazine Chomsky
interviews, or online interview with Amy Goodman.
As Buck says below, “Get lost!”
Scram. Take a hike!
sansculottes _ proletaria • 5 months ago
Actually, if the question were “How can one get middle-aged white males to sit
through commercials” O’Rielly would be the one to ask. That’s his core
competency, and I recognize his talent, even if I detest his politics. Chomsky is
one of the greatest linguists alive, whether you think the state of Israel ought to
exist or not.
Albin • 8 months ago
Interesting. Good to see Chomsky back on his core competencies. It reminds me a bit of
the chess engine question, whether to try to develop grandmaster algorithms / heuristics
or use sheer computing power to run through all available possibilities for each move.
Mark Stocket _ Albin • 8 months ago
That’s a great comparison.
Gues t • 8 months ago
Absolutely fascinating!
When I had my children, I decided to embark in a little experiment of my own… I wanted
my children to be perfectly trilingual, and I read plenty of the scientific literature on the
subject, in particular Noan Chomsky’s ideas about universal grammar and the language
acquisition device. The task was not as straight forward as I thought due to a “general”
language acquisition delay in one of my children, and a learning disability in the other due
to ADHD. Still, I think I have succeeded so far with two languages, while the other is in
“stasis”. I still manage to teach one of my children how to read in the third language in only
5 minutes with the right phonetics and diction even though there was an accent.
All this was particularly difficult because I’m a single parent, and there was no way to keep
a separate set for each language. I figured that if I could make my children relate words in
different languages to the same object they would be able to learn the three at the same
time, and I think that has worked for the most part. However, words in different languages
may or may not have one-to-one correspondence, but the kids seem to get that. Here,
there’s the environmental issue because words are highly tuned to a particular

20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 26/27
there’s the environmental issue because words are highly tuned to a particular
environment and culture, and this is where language acquisition may have some blind
spots. There was also a more ‘biological’ side of language acquisition that had to see with
Olive • 8 months ago
Absolutely fascinating!
When I had my children, I decided to embark in a little experiment of my own… I wanted
my children to be perfectly trilingual, and I read plenty of the scientific literature on the
subject, in particular Noan Chomsky’s ideas about universal grammar and the language
acquisition device. The task was not as straight forward as I thought due to a “general”
language acquisition delay in one of my children, and a learning disability in the other due
to ADHD. Still, I think I have succeeded so far with two languages, while the other is in
“stasis”. I still manage to teach one of my children how to read in the third language in only
5 minutes with the right phonetics and diction even though there was an accent.
All this was particularly difficult because I’m a single parent, and there was no way to keep
a separate set for each language. I figured that if I could make my children relate words in
different languages to the same object they would be able to learn the three at the same
time, and I think that has worked for the most part. However, words in different languages
may or may not have one-to-one correspondence, but the kids seem to get that. Here,
there’s the environmental issue because words are highly tuned to a particular
environment and culture, and this is where language acquisition may have some blind
spots. There was also a more ‘biological’ side of language acquisition that had to see with
Tony _Materna • 8 months ago
Being a cofounder of a neural
network technology company in the mid 1980s, I have been startled and
disappointed at the lack of progress in developing “brain-like”
machines. 25 years later, there are still no commercial neural net based products.
The conclusion I have reached is
that there is more going on in the brain than just the strengthening of synapses.
It seems likely to me that the brain is
using quantum effects to create consciousness. If that is in any way correct, then
attempts to create ‘artificial intelligence’ will continue to be stuck where
they have begun. We will not be able to
make significant progress until we have mastered the construction and operation
of quantum computers.
Samuel H. Kenyon _ Tony_Materna • 8 months ago
So let’s get this straight. Your company and other companies failed to productize
neural nets, therefore consciousness is directly dependent on quantum effects.
Sorry, but I’m missing the logic here.
Tony_Materna _ Samuel H. Kenyon • 8 months ago
Dear Sam,
My argument is not that because artificial neural networks
have failed to produce anything useful, that leads ipso facto to the
conclusion that the brain is using quantum effects.
What I was saying is that after a quarter century of study
and development with nothing in the way of useful, i.e. commercial, results,
the hypothesis that the brain is solely or mainly using synaptic
strengthening to encode and process information may be insufficient.
Undoubtedly synaptic strengthening is some part of the brain’s signal
processing and sensor fusion, but it does not appear to lead to “thinking”,
consciousness, or any result that beats traditional signal processing or
probability analysis. Something else must be necessary to make the
existence proof we have, our brains and consciousness, work.
What else can that be? The limitations of neural networks do not point us
An alternate hypothesis can be formulated, and has been. Roger Penrose
20/06/13 Noam Chomsky on Where Artificial Intelligence Went Wrong – Yarden Katz – The Atlantic 27/27

Copyright © 2013 by The Atlantic Monthly Group. All Rights Reserved. CDN powered by Edgecast Networks. Insights powered by Parsely .

Entrevista a Mario Bunge, con interesantes sugerencias y análisis sobre el presente de la filosofía

Mario Bunge: “La mayor parte de los filósofos actuales se ocupa de menudencias”Publicado por Juan Claudio de Ramón

De Mario Bunge (Buenos Aires, 1919) vale decir lo mismo que Plutarco del legislador ateniense Solón: “Envejeció poco a poco, y cada día aprendió algo nuevo”. Es uno de los grandes filósofos vivos, Premio Príncipe de Asturias de Humanidades en 1982, doctor Honoris Causa por 19 universidades y único autor de habla española que se encuentra, con 43 milidarwins, entre los científicos “más famosos de los últimos 200 años” (The Science Hall of Fame). No está mal para ser un heterodoxo. Porque Bunge, profesor emérito de la Universidad de McGill, es un realista: cree, humildemente, que la realidad existe; desde los anillos de Saturno hasta el último quark, las cosas son de verdad. Y la realidad estuvo muy mal considerada por la filosofía del siglo XX, que solo era capaz de ver, de manera oscura y confusa, estructuras, signos y discursos. Bunge operó de cataratas en su impresionante Tratado de Filosofía Básica en ocho volúmenes, y en más de 50 libros y 500 artículos en los que saca el polvo a la filosofía de la ciencia, física teórica, química, neurociencia, ciencia cognitiva, matemáticas, psicología y sociología. Escribe en inglés y en castellano, en grande y en pequeño, pero siempre con letra clara y sin miramientos, porque es de los que piensa que ningún adversario de valía se molesta por una crítica contundente. Me citó en Montreal, una tarde de mayo del año en que va a cumplir 94. Llama la atención la apostura, la mirada azul que arde lentamente. Sobre la mesa y el sofá hay docenas de libros y revistas desparramadas. Puedo distinguir una biografía de Marx y otra de Popper, las Analectas de Confucio junto a un tratado de Helvetius, los semanarios Science y Nature encima de números atrasados del New York Review of Books. Es otra manera de entender la lujuria.

El escritor italiano Edmundo d’Amicis decía que el destino de mucha gente depende de tener o no tener una biblioteca en el hogar paterno. ¿Fue su caso?

Es muy cierto. Y sí, fue mi caso. Mi padre tenía, además de sus propios libros, algunos heredados de su hermano Carlos Octavio, que era un escritor, profesor e intelectual público, y también de su padre, de modo que ahí había, por lo pronto, una gran colección de literatura española buenísima. Ahí leía al Arcipreste de Hita y literatura ya olvidada en España, así como a Schiller, a Goethe, estaban las obras completas de Voltaire —como correspondía a un volteriano como era mi abuelo, ministro de la Corte Suprema a fines del siglo XIX—, algún libro de filosofía, aunque no muchos, solamente uno de ciencias, que era un tratado de química obsoleto anterior a Lavoisier… Mi padre, además de ser médico era escritor y gran admirador de las grandes obras, así como traductor de varias novelas antibélicas que aparecieron justo después de terminar la primera guerra mundial. Por eso muchas veces me pregunto por estos chicos norteamericanos que nacen en una casa donde el único libro que hay es la guía telefónica en el mejor de los casos. Es un mal muy extendido. Usted se sorprendería, pero en muchas casas de profesores universitarios casi no hay libros. Los únicos que poseen los tienen en su despacho de la universidad y casi todos son libros de texto. No gastan dinero en libros. Se limitan a los libros de texto que les dan gratuitamente las editoriales y a la biblioteca, que es más o menos buena pero nunca completamente satisfactoria. Por cierto, D’Amicis era muy popular en Argentina. Escribió un libro que se llamaba De los Apeninos a los Andes. Contaba la historia de un chico que, debido a la miseria, emigra de Italia a Argentina. Fue antifascista, y claro, su obra no tuvo una vida fácil en la Italia de Mussolini. Fue muy fértil y, como le digo, muy leído en su tiempo.

Usted se doctoró en Física en la Universidad de La Plata en 1952, y en la Universidad de Buenos Aires, dio clase entre 1956 y 1963, antes de irse del país. ¿Cómo era el clima intelectual en la Argentina peronista?

Era lamentablemente bajo. Casi todos los intelectuales de valor estaban fuera de la universidad. Quedaban científicos pero no había una buena atmósfera de trabajo, porque la política científica estaba dictada por las unidades políticas peronistas. Por ejemplo, se reunía al personal de maestranza para dictaminar qué materias se iban a dictar ese año. Se decía, por ejemplo: “Geometría diferencial, ¿qué es eso? ¿En qué puede ayudar al desarrollo del país? No se dicta”. Eso fue en el segundo período peronista. Pero en el primero llegó un momento, en 1952, cuando a mí me echaron, que se requería afiliarse al partido peronista. Casi todo el mundo se afilió, dijeron que no te comprometía, pero yo, igual que algunos otros, me negué. Así que, por supuesto, a la calle.

Estuvo en la cárcel por apoyar una huelga general.

Estuve en la cárcel sin merecerlo. Me castigaron por pecados muy anteriores, en particular por haber fundado en 1938 la Universidad Obrera, que era una organización independiente perteneciente a la sociedad civil y, por lo tanto, indeseable para cualquier régimen duro, que lo primero que hace es eliminar cualquier obstáculo que haya entre el individuo y el Estado. Me acusaron de incitar a la huelga ferroviaria de 1951, que fue la primera gran huelga que le hicieron al gobierno peronista. Yo ni siquiera viajaba en tren, en aquella época tenía auto, y no tenía la menor relación con dirigentes sindicales. En la cárcel me encontré con varios de ellos. Uno con quien compartí mi celda era un muchacho completamente desconcertado porque había sido buen peronista militante y no entendía cómo había acabado metido allí. También compartíamos morada con un médico que tampoco entendía por qué estaba allí. Tuve la ocasión de conocer no solamente a los llamados “políticos”, sino también a delincuentes, alguno de ellos famoso. Por ejemplo, al que vendió un tranvía. Estaba muy orgulloso de haber vendido un tranvía a un pobre diablo. Casi todos eran gente desagradable, muy egoísta, que no compartía nada. Había uno que era buena persona y llevaba el apodo “Dedos Brujos”.

En uno de sus libros habla de él.

Exacto. Era muy habilidoso y desenredaba las madejas en las tejedoras, era muy buena persona. Pero los demás eran desagradables, sobre todo los criminales profesionales.

¿Su emigración fue, en alguna medida, forzada?

Pasó lo siguiente: a fines de 1962 había un gobierno constitucional elegido democráticamente, pero estaba bajo la presión de la CIA, que eventualmente lo hizo caer. El ejército se dividió en dos y hubo una batalla entre ambas facciones, los rojos y los azules, y no se sabe muy bien el motivo, yo al menos no sé por qué. En todo caso había muchos indicios de que el gobierno iba a ser cada vez a menos democrático. Echaron al presidente Frondizi porque tuvo la osadía de recibir al Che Guevara y negarse a que expulsaran a Cuba de la Organización de Estados Americanos. De la intervención de la CIA me enteré hace solo un par de años. Me dije que estaba por venir una nueva dictadura, y yo había vivido casi toda mi vida bajo alguna, pero los últimos años había estado gozando de la libertad que había, así que me dije que no, que nos íbamos a otra parte. Nos fuimos a Estados Unidos esperando encontrar alguna cosa y eventualmente caímos aquí, en Canadá.

En 1966.


¿Cómo fue su llegada a Canadá? Es un país de inmigración.

Sí, completamente.

¿Lo pasaron mal al principio?

No, para nada. Nos integramos bien desde el principio y me recibieron muy bien. Al poco de llegar me metieron en una comisión cuya función era diseñar los CÉGEP*, creo que ustedes lo llaman cursos preuniversitarios. En aquella época todavía había un gran respeto por la ciencia y yo me especializaba en filosofía de la ciencia. Ahora eso ha cambiado radicalmente. Por ejemplo, en el momento actual el gobierno conservador ha resuelto dejar de apoyar a la ciencia básica y apoyar solamente a la técnica (en castellano, por cierto, decimos tecnología donde deberíamos decir técnica). ¿No saben que una cosa sin la otra no funciona y que requieren aptitudes muy diferentes? En todo caso, de entrada nos fue muy bien. A mi mujer la recibieron muy bien y a mí me toleraron.

[* College d”Enseignement Général et Professional en sus siglas francesas, General and Vocational College, en inglés. En Quebec, institutos de enseñanza postsecundaria por los que han de pasar los alumnos que quieran ir a la Universidad].

En el último censo uno de cada cinco canadienses ha nacido en el extranjero, y en Toronto ya son más de la mitad. Hay un novelista canadiense, ya muerto, de Montreal, Mordecai Richler.

Sí, lo conocí, aunque de lejos. Tenía una hija que asistía a la misma escuela que la mía, de modo que nos vimos en las reuniones de padres. Pero yo lo evitaba porque él fumaba unos cigarros pestíferos.

Tiene una definición hermosa de Canadá: “El país de las segundas oportunidades de todo el mundo”.

Es verdad, bien cierto. Richler era muy buen escritor y entretenido, pero también muy contrario al nacionalismo quebequés. Una parte de la comunidad judía era muy hostil hacia los francófonos.

Algunos francófonos también eran hostiles hacia los judíos. Hubo un sector que apoyó a la Francia de Vichy.

Hubo dos inmigraciones de judíos. La primera fue de judíos sefardíes que venían del norte de África y se sumó a la población francófona, asimilándose en seguida; después vino una segunda que se integró en la comunidad anglófona. Si muchos francófonos eran antisemitas era también porque la Iglesia era antisemita. En 1940 los grandes enemigos de la Iglesia Católica eran los judíos, los ateos, los masones y los comunistas. Que yo sepa, masones no había, pero judíos sí, ateos había muy pocos. La Iglesia apadrinó a muchos criminales de guerra franceses y belgas que se refugiaron en Quebec a fines de la guerra, en 1944 y 1945. Un trabajador de la embajada canadiense en el París ocupado daba visados y pasaportes a cuanto criminal de guerra hubiera. Al llegar se refugiaron en conventos y monasterios. En aquella época había muchos, pero, al poco de llegar nosotros, los conventos se vaciaron, se casaron los curas y las monjas. En cuatro o cinco años se secularizó la sociedad con notable rapidez.

La llamada “Revolución tranquila”.

Sí. Fue tranquila con la excepción de un pequeño grupo nacionalista, terrorista, extremista y separatista* que incluso ponía bombas en los buzones. Pero era más retórico que otra cosa.

* [El FLQ, Frente de Liberación de Quebec].

Usted sigue escribiendo.

Sí, claro.

¿Cuál es su rutina de trabajo?

Antes solía despertarme a las siete de la mañana y trabajar seguido hasta las seis de la tarde, la mitad en casa y el resto en la Universidad. En los últimos años ha cambiado mucho. Mi vejez empezó a los 90 años, y desde entonces trabajo mucho menos porque me canso mucho más. Me despierto y lo primero que hago es revisar mi e-mail por si hay algún mensaje urgente. Después de bañarme y desayunar me pongo a trabajar en lo que estoy haciendo, o a estudiar, sobre todo revistas científicas. Leo regularmente los semanarios Science y Nature. Las publicaciones filosóficas ya casi ni las miro, no encuentro nada que me interese; me parece que la filosofía está en un punto muy bajo, hay mucha escolástica y pocas ideas nuevas. En cambio, la ciencia siempre se renueva.

¿Qué está escribiendo ahora?

He empezado a escribir mis memorias. Hasta hace poco trabajé en mi último libro, que se llama Medical philosophy.

Lo he visto, se publicó el año pasado.

Sí, en castellano. Pero lo he vuelto a escribir en inglés y está por salir a fines de este mes.

Hablando de lenguas. Usted ha polemizado con muchas escuelas de pensamiento, entre ellas la fenomenología y el existencialismo, a las que tacha de tenebrosas e incomprensibles. Comparte esta aversión con su compatriota Sebreli, que dice que Heidegger y Husserl se benefician de la idea de que todo lo absurdo es profundo. Usted añade que se aprovechan del prestigio filosófico de la lengua alemana.

Eso seguro. Si hubieran escrito en castellano, o en otra lengua, no serían tan conocidos.

En su esnobismo, Heidegger llegaba a decir que solo se puede pensar con propiedad en alemán.

Y en griego antiguo. Claro que pensaba así, era nacionalista, al punto de ser nazi. Es algo completamente ridículo. Heidegger, a mi modo de ver, masacró la lengua alemana. Husserl escribía mejor, pero también de forma muy oscura, y fue, por supuesto, el maestro de Heidegger. Este le dedica la primera edición de Ser y Tiempo a su maestro, Husserl. En las ediciones posteriores eliminó esa dedicatoria porque se descubrió que Husserl era judío y, por lo tanto, no estaba bien visto por los nuevos amos de Heidegger. El existencialismo llegó muy temprano a Argentina. Llegó en los años 30 porque hubo gente que fue a estudiar a Alemania con Heidegger. También hubo influencia del existencialista católico francés Gabriel Marcel. Llegó muy temprano y se apoderó de las principales cátedras. Ya el pensamiento reaccionario, oscurantista, contrario a la Ilustración, había empezado a predominar en los años 20, con la llamada reacción antipositivista. Hay un viejo malentendido, y es identificar el positivismo con el cientificismo. Los positivistas elogian a la ciencia, pero le hicieron mucho daño, porque eran fenomenistas: no creían en nada que no fuera palpable, que no fuera visible.

Empezó a escribir en castellano, y de ahí se pasó al inglés. Desde entonces escribe en ambas. ¿Es el castellano una lengua bien dotada para la comunicación científica?

Por supuesto.

¿Existen lenguas más y menos aptas para la comunicación científica?

Todas las lenguas avanzadas son igualmente aptas y ha habido científicos que se han expresado en todas ellas. Ramón y Cajal, por ejemplo, escribió en castellano y francés. ¿Por qué en francés? Porque en ese momento, antes de la Primera Guerra Mundial, el francés era la lengua culta, y Francia era una potencia, no solamente política, sino cultural; cosa que terminó definitivamente con la Segunda Guerra Mundial. El francés era la primera lengua extranjera que estudiábamos en la escuela.

En España también era así.

Después de la Segunda Guerra Mundial fue sustituida por el inglés. Yo aprendí francés, que siempre me gustó mucho, y después mi padre me puso un tutor de alemán. Y, después, inglés.

Como dice, el francés fue la lengua de comunicación científica y cultural hasta la Segunda Guerra Mundial. Después comenzó el predominio del inglés.

Bueno, en realidad los científicos en todo el mundo, a fines del siglo XIX, tenían que aprender alemán porque Alemania había llegado a ser la cumbre científica ya en 1880, tras la derrota de Francia en la guerra franco-prusiana. La ciencia alemana era más innovadora y la gran aspiración del joven científico era poder estudiar en Alemania. Dos de mis tíos, por ejemplo, fueron a Alemania a doctorarse en ingeniería. Y la medicina alemana era la más avanzada de su tiempo porque había recogido todo lo bueno de la medicina francesa, que fue la primera científica, y le había agregado algo que los franceses no tenían, que era la farmacología, además con una poderosa industria farmacéutica. No en vano la aspirina la inventó un alemán.

Hoy la lengua franca es, de manera abrumadora, el inglés, lo que tiene sus bondades, pero también sus inconvenientes. La hegemonía del inglés impide que se preste más atención a lo que investigan y publican científicos en universidades africanas, latinoamericanas, asiáticas, europeas incluso… Por otro lado, la reducción de todas las lenguas a una sola lengua de trabajo favorece el comunismo epistémico que usted señala como propio de la ciencia. ¿No deberíamos renunciar a que el español o el francés, por ejemplo, que son y serán lenguas de cultura y de relación, sean también lenguas de ciencia, y pasarnos todos al inglés para hacer ciencia? ¿Perderíamos algo con eso?

No, eso me parece ridículo. En la Asociación Física Argentina, de cuyas publicaciones estuve al cargo, fui partidario de publicar algunas cosas extensas en castellano y después, de forma resumida, en inglés. Pero es que la lengua local, entre otras cosas, es la lengua de la enseñanza. En Argentina o España se enseña en castellano, no en inglés, y se comunica mucho más fácil y rápidamente en la lengua vernácula. Entonces, hay que mantener las dos cosas.

En todo caso los científicos son o deberían ser los menos propensos al nacionalismo.

Por supuesto, yo no he conocido a ningún científico notable que fuera nacionalista de lo suyo, ni siquiera en la Alemania nazi. Los científicos nacionalsocialistas alemanes eran gente de segunda o tercera categoría.

Antes hablábamos de tres clases de ciencias: naturales, sociales y morales o prudenciales. Pero hoy hay ciencias empresariales, ambientales, del turismo, de la educación… ¿está justificada esta floración?

No, es una división profesional, no conceptual. Al contrario, uno de los aspectos más interesantes de las últimas décadas es la convergencia y síntesis de ciencias, la aparición de ciencias híbridas, empezando por la fisicoquímica, la bioquímica, la neurociencia cognitiva, la socioeconomía… porque la gente advierte que cada una de las ciencias es limitada artificialmente. Por ejemplo, un economista que no tenga en cuenta los aspectos sociales y la tradición e historia de la sociedad no va a tener mucho éxito. Sí se puede distinguir, que no separar, las ciencias naturales de las sociales —o culturales, como dicen los alemanes—, pero eso no impide la existencia de ciencias híbridas como la epidemiología, la demografía, la psicología, la medicina social… Obviamente, los individuos somos estudiados por científicos naturales y sociales, pero hay ciertas cosas tales como los sistemas económicos o las empresas que, pese a ser sistemas, están formadas por individuos, que con sus decisiones alteran esos sistemas, que su vez moldean a los individuos; nacemos en sociedades que nos pre-existen, nos forman y deforman. Por ejemplo, en estos momentos mi hija la psicóloga está estudiando intensamente los efectos de la educación y el aprendizaje sobre el cerebro, cómo va cambiando y dejando huellas anatómicas.

Usted explica que la filosofía de la ciencia importa porque los científicos rara vez examinan sus presupuestos y eso los puede llevar por caminos equivocados. Un ejemplo que menciona a menudo es el dualismo mente-cerebro, que impidió durante siglos el correcto entendimiento de las enfermedades mentales. Pero la tesis contraria, que lo mental es cerebral, ha permitido avances espectaculares en los últimos 50 años. Y esa es la base para desacreditar al psicoanálisis, que usted define como la etapa chamánica de la psiquiatría.

Confirmo todo eso, pero agrego que, si bien los procesos mentales son procesos cerebrales, como ya bien señalaba Hipócrates, no es lo mismo pensar con la barriga vacía que pensar con la barriga llena, que no es lo mismo la manera de pensar y actuar de un desocupado que la de un empresario potente. Tenemos que tener en cuenta también la psicología social, que se ocupa precisamente de esa interfase individuo-sociedad.

En psicología hay varias escuelas. Refutado el psicoanálisis, ¿cuáles merecen atención?

El psicoanálisis subsiste solamente en los márgenes, por ejemplo en París, en Barcelona y en Buenos Aires. Fuera de esas ciudades ya no existe más. En psicología científica ya no se habla de escuelas. El conductismo se acabó hace ya 30 años o más. Hay estilos o maneras de abordar lo mental. La más adelantada es la neurociencia cognitiva y afectiva, el estudio de las emociones, las pasiones. Como dije, las escuelas se acabaron. Y no se estudia por autores o escuelas, sino por temas. Ojalá pasara lo mismo en filosofía. Las universidades de filosofía estudian autores: Aristóteles, Santo Tomás, Descartes… en lugar de estudiar por temas, como el problema del espacio, de la consciencia, la convivencia, la justicia… Es más fácil estudiar por autores, porque entonces una persona se lee unos cuantos libros de un autor y se convierte en experto en ese autor, y al ser experto en ese autor, no sabe nada de lo que pasa. Por ejemplo, los expertos en Kant no entienden de dónde viene Kant y adónde va Kant. Kant es un puente entre dos tradiciones: la del racionalismo y el empirismo por un lado y el positivismo por el otro. Los positivistas son continuadores de Kant porque ambos son subjetivistas y dicen que la realidad no es más que una colección de fenómenos, o sea, apariencias.

En Europa hay ahora una crisis económica tremenda y es muy frustrante ver que los economistas no se ponen de acuerdo sobre sus orígenes y la manera de salir de ella. ¿La economía puede ser científica?

Puede serlo, y algunos autores han hecho economía científica, como Quesnay, que fue el primer macroeconomista, autor del famoso Tableau economique en el siglo XVIII. Dicho sea de paso, fue mucho más que eso, fue uno de los grandes anfitriones, en su casa se reunía la gente más ilustrada de su época para discutir cosas de todo tipo. Keynes fue su sucesor.

Fundador de la macroeconomía.

Sí. Lamentablemente, los microeconomistas han estado repitiendo, refinando matemáticamente, lo que expusieron los microeconomistas hacia 1870, no hay absolutamente nada nuevo. Más aun, Milton Friedman se jacta de ello, en un artículo llamado Vino viejo en botellas nuevas. Eso demuestra, según él, que la economía es una ciencia. ¡Al contrario, lo característico de la ciencia es la renovación permanente!, a diferencia de la teología o las ideologías. El marxismo no ha evolucionado, como tampoco la teoría económica estándar. El pecado original de la economía estándar es que postula que los seres humanos se comportan de una cierta manera, de forma egoísta, tratando siempre de maximizar sus beneficios y jamás se les ocurrió poner la prueba empírica para experimentar ese postulado. Este postulado fue puesto a prueba empírica hace solamente unos 20 años, por la escuela de Daniel Kahneman (que, siendo psicólogo, ganó el premio Nobel de Economía) y la de economía experimental de Zurich. Y han encontrado que no es así, que la mayor parte de nosotros somos reciprocadores. No todos, pero las dos terceras partes. Es decir, que devolvemos y estamos ansiosos por devolver los favores que recibimos y por cooperar. Sin cooperar no se pueden armar sistemas económicos como una empresa. Este es el primer pecado. El segundo es la creencia de que la economía siempre está en equilibrio o muy cerca de él, y que si se aparta de él volverá automáticamente sin que se meta el Estado. Y eso no es cierto. En Estados Unidos estamos viendo que cada vez que una gran empresa entra en dificultades le pide préstamos al Estado.

¿La economía puede alcanzar un cuerpo indubitado de doctrina que nos diga cómo se sale de una crisis igual que la medicina nos saca de un resfriado?

Sí, podría, el problema es el postulado del equilibrio. Desgraciadamente, los economistas, con muy pocas excepciones, no reconocen la posibilidad de una crisis, la posibilidad de un desequilibrio entre la demanda y la oferta. Y al no reconocer la existencia de la bestia son incapaces de amaestrarla. La economía está en manos de charlatanes muy famosos, tales como Alan Greenspan, quien, cuando la crisis actual tocó fondo, en 2010, declaró que le había sorprendido mucho encontrar que los grandes empresarios y financieros no se comportaban tal y como predecía la teoría, es decir, de forma inteligente, como egoístas racionales, que es lo que le había enseñado la charlatana Ayn Rand, una persona que había sido su mentora, o mentriz, en realidad mentriz. Una mujer muy hábil que logró envolver a muchísima gente haciéndoles creer que lo principal era la libertad, cuando, como lo había proclamado la revolución francesa, lo importantes es la libertad, la igualdad y la solidaridad. Los tres ideales son alcanzables solo a la vez.

Platón quería que los filósofos fueran gobernantes. Luego, más modestamente, quiso que los gobernantes filosofaran. Y antes uno se encontraba con políticos con una concepción del bien común, pero ahora la política ya está reducida a la publicidad y la táctica electoral.

La democracia es una gran cosa pero tiene sus fallos, y uno de ellos es el electoralismo, es decir, la improvisación de políticas con el solo fin de ganar la próxima elección. La visión de los políticos no suele pasar de la próxima elección. No les interesa el futuro de sus nietos, que muchas veces no tienen. Solo les interesan ellos mismos, su futuro inmediato como ministros, parlamentarios o asesores del gobierno. No se dan cuenta de que en la sociedad todo es transitorio.

¿Aún es posible un político-filósofo?

Yo creo que sí. En realidad, tácitamente, todo el mundo tiene alguna filosofía, lo que pasa es que desgraciadamente esa filosofía está tomada de las escuelas filosóficas que están muertas. En las facultades de humanidades sí hay escuelas. Por definición, una escuela filosófica es más o menos rígida, no se van adaptando y cambiando a medida que van evolucionando la ciencia, la técnica y la vida social. Por ejemplo, hay gente que habla de la justicia en términos abstractos, pero la justicia tal y como la entendía Aristóteles es muy diferente a como la entendemos nosotros. Para Aristóteles justicia es que cada cual obtenga lo que le corresponde. Para nosotros es más bien el equilibrio entre los deberes y los derechos.

He leído que está decepcionado con Obama.

Muy decepcionado, y no soy el único. Hay millones de personas en todo el mundo, y en particular en Estados Unidos, que esperaban que Obama fuese más o menos fiel a los propósitos que anunció durante su primera campaña electoral, y los ha traicionado todos con una excepción: permaneció fiel a su promesa de apoyar la investigación científica. En eso ha sido coherente consigo mismo, en lo demás no. Fíjese usted, en Estados Unidos hay profesiones que deberían ser declaradas ilegales, tal como la de “lobbyist”, el procurador que diríamos en castellano. En Washington hay 4.500 lobistas registrados, cuya finalidad, sabida, es corromper a los parlamentarios e incluso, en muchos casos, escribir proyectos de ley. Esto lo he aprendido en un texto de economía que tiene todo un capítulo dedicado a los lobistas. ¿Qué debe ser un lobista para ser eficaz? Debe tratar, con todo cinismo, de escribir él mismo los proyectos de ley y empujar o persuadir al parlamentario para que adopte el punto de vista de ciertos intereses creados, de grupos de empresas, en particular la industria del armamento.

Tengo la impresión de que Obama es una persona con buenas intenciones que se ha dado cuenta de que Estados Unidos es un país básicamente irreformable. Mire el caso de las armas. Para él es más fácil cambiar el mundo que su país.

Hay mucho de eso pero también hay mucha hipocresía. Obama fue profesor universitario pero su arma preferida es el drone, que está proscrito por la ley internacional porque está prohibido asesinar a la gente en una soberanía extranjera. Además, en Pakistán ha hecho que ganara las últimas elecciones un hombre totalmente corrupto, igual que era su predecesor. Y está dando pretextos a los talibanes para seguir con su campaña terrorista, porque ahora lo hacen en nombre de todos los civiles asesinados por los drones, que son la mayor parte de las víctimas. Además no es cierto que no pueda hacer nada para disminuir el número de bases militares. Estados Unidos tiene más de 900 bases militares en el extranjero. Obama no ha abierto la boca sobre eso. Teniendo como tiene un déficit monstruoso, cerrar bases militares no solamente inhibiría la tensión militar, sino que disminuiría enormemente los gastos del Estado. Y no solamente no las ha disminuido, sino que ha instalado una base nueva, en Australia, un país donde no había bases y ahora hay unos 3.000 militares norteamericanos.

En España, que padece una crisis económica terrible, ha aparecido una nueva forma de protesta social llamada escrache. ¿Lo conoce?


Al parecer es un término que proviene del lunfardo.

En lunfardo “escrachar” significa escupir.

Escupir, señalar… no está claro. Los que protestan, en lugar de manifestarse en las plazas o las calles lo hacen en los domicilios de los políticos para, de alguna manera, intimidarles. Hay mucho debate sobre la legitimidad de este tipo de protesta.

Me parece ilegítimo ejercer presión individualmente, es una táctica mafiosa. Las protestas hay que hacerlas en la calle y en el cabildo pero sobre todo hay que armar debates y discutir racionalmente lo que está pasando y lo que debe pasar. Las coacciones personales me parecen una práctica mafiosa. No me extraña que venga de Argentina, ya que allá no hay una fuerte tradición democrática. Ha sido muchas veces avasallada por las fuerzas armadas y después por el populismo peronista.

Usted ha tratado a algunos de los filósofos más importantes del siglo XX. Por ejemplo Popper, de quien dice que no aceptaba hablar de menudencias.

Ni tampoco de la actividad política. Se jactaba de que a su casa no llegaban los periódicos, no tenía televisor, no escuchaba la radio… y al mismo tiempo quería pasar por gran filósofo social. ¿Cómo puede una persona hacer eso? De hecho, tuvo posturas políticas. En su primera juventud fue socialista militante afiliado al partido socialista austríaco. Después se hizo liberal, en el buen sentido de la palabra, liberal clásico, no neoliberal; pero seguía con los mismos prejuicios europeístas. Yo le he oído decir en su casa que el movimiento de liberación nacional del Congo encabezado por Patrice Lumumba era una tropa de monos. Por ser negros tenían que ser monos. Del tercer mundo no sabía nada. Cuando yo le hablé de los crímenes que había cometido el imperio británico, no quería creer que Gran Bretaña atacó militarmente dos veces a Argentina a principios del siglo XIX y, cuando le hablé de la India dijo que los ingleses habían hecho mucho por la India. Obviamente, nunca oyó hablar de cómo los ingleses arruinaron la industria textil doméstica de la India, nunca oyó hablar de la rebelión de los tejedores de Bengala y de cómo los ingleses les cortaron el pulgar para que no pudieran manejar el telar. Es cierto que llevaron la lengua inglesa, que hoy es la lengua de comunicación entre los distintos grupos lingüísticos del país, y también llevaron la medicina moderna, aunque lo hicieron solo para poder curar a sus propios funcionarios. En todo caso, Popper tampoco estaba al tanto de las grandes transformaciones. Sobre el comunismo no tenía nada bueno que decir. Fue una dictadura horrible, pero también es cierto que la Unión Soviética fue el país con un menor índice de desigualdad, el índice de Gini, más bajo del mundo pero, y aquí viene lo interesante, lo compartió con Dinamarca y Suecia. Es decir, es posible tener lo mismo con métodos democráticos y no cruentos. La finalidad del socialismo es humanista. Que fuera corrupta por los comunistas es otra historia. Hay que ser objetivo y él no lo era.

En la última fase de su obra ingresó en la metafísica, con la teoría de los tres mundos, y usted se lo reprochó.

Yo escribí un artículo de crítica que no le gustó nada. Se lo mandé, por supuesto. En él objetaba que Popper ni siquiera definía la noción de mundo; más aún, Popper decía que no lo va a definir, que dejaría la idea flou, suelta. Para un filósofo eso es un pecado mayúsculo. Pero lo más interesante, y es algo poco conocido, es que esa doctrina de los tres mundos viene de Hegel y la copió Lenin en unas páginas muy poco conocidas. En vísperas de la primera guerra mundial, en lugar de estudiar sociología y economía, Lenin estaba estudiando la lógica de Hegel. Y en sus Cuadernos filosóficos tiene toda una página dedicada a la doctrina de los tres mundos. Textual. No creo que Popper hubiera leído eso, pero sí era buen conocedor de la filosofía de Hegel y fue uno de los primeros en decir que Hegel era un charlatán. Bueno, el primero fue Schopenhauer, pero a este no se le puede tomar en serio porque, a su vez, era un charlatán. Popper fue uno de los primeros filósofos serios que se atrevió a decir la verdad sobre Hegel. Pero ¿por qué tiene tanto atractivo Hegel? Porque construyó un sistema y se ocupó de temas importantes. Lo confundió todo, hablaba de forma difícil, fue el primer posmoderno, era tan confuso que dio lugar a una izquierda y una derecha… pero si pervivió es porque trató asuntos interesantes. La mayor parte de los filósofos actuales se ocupa de menudencias, de opiniones de otros filósofos: ¿Qué opina Fulano de lo que dijo Mengano de Zutano?

He leído que Thomas Kuhn acabó harto de hablar de paradigmas y que se arrepintió de lo que había escrito, pero los kunheanos no tomaron nota.

Al acabar una conferencia que dio aquí, en McGill, alguien le preguntó sobre los paradigmas, y el respondió “Por favor, no me pregunten sobre eso, estoy harto.” Además, lo que pasó es que el concepto de paradigma, tal y como lo usa Kuhn, es tan impreciso que fue masacrado por una filósofa inglesa muy poco conocida, Margaret Masterman. Demostró que Kuhn usa esa palabra en 30 sentidos diferentes, era muy confuso. Le dije ¿cuál va a ser tu próxima aventura, Tom? “Ah, voy a estudiar el concepto de analogía de Mary Hesse”. Pero Mary Hesse es una de las grandes confusas de la filosofía de la ciencia, usaba el concepto de modelo en muchos sentidos diferentes y los confundió.

¿Cuáles han sido las modas filosóficas más nefastas del siglo XX? Ya hemos hablado del psicoanálisis.

La microeconomía neoclásica es una estafa. Después, por supuesto, la parapsicología, el marxismo, completamente osificado, es también una pseudociencia. El existencialismo y la fenomenología. Los posmodernos en general.

Responsables, además, de la peor prosa académica de la historia.

Claro. Se volvió a poner de moda el viejo adagio teológico: credo quia absurdum, lo creo porque es absurdo. En Argentina, no solo en las facultades de filosofía, sino también en las de ciencias sociales, torturan a los chicos, los obligan a leer, a tragar, a Hegel, a Nietzsche y Heidegger. Y no entienden nada. ¿Qué puede significar “El tiempo es la maduración de la temporalidad” que es la definición que da Heidegger de tiempo? Nada. Bueno, a Nietzsche se le puede entender. Era un canalla pero escribía de forma elegante.

Se le puede entender y hasta se le puede disfrutar.

Así habló Zaratustra es un hermoso poema que leí a los 17 años y no volví a leer, pero todo lo demás… sobre todo sus panfletos políticos y contra la moral me parecen inmorales.

Usted también distingue entre el feminismo político y el feminismo académico.

El feminismo político es un movimiento político muy respetable que comenzó a principios del siglo XX y terminó ganando el voto y mejores condiciones de trabajo para la mujer. Y otra cosa es el feminismo académico, que consiste, por ejemplo, en atacar a todos los escritores que usan un pronombre o un artículo determinado que no gusta. Las filósofas feministas ignoran que la razón no tiene sexo, y solo logran segregarse, reuniéndose en sociedades y congresos especiales. Además, no estudian el grave problema social y político del puesto de la mujer en la sociedad, sino nimiedades. Tengo una colega que atacaba a Aristóteles porque había dicho algún disparate sobre la menstruación de los puercoespines. Pregunta de examen: ¿Qué dice Aristóteles sobre la menstruación de los puercoespines? ¿A quién puede importarle? Sí, sabemos que Aristóteles despreciaba a las mujeres, pero esta era una actitud común. Lo mismo pasó mucho después con el racismo, muchos científicos respetables y grandes novelistas del siglo XIX, como Emile Zola, que creían en la criminalidad innata. Bueno, estaban equivocados, muy bien, todo el mundo se puede equivocar. Veamos si han producido algo positivo. Aristóteles es el más importante filósofo de la Antigüedad y tal vez de todos los tiempos. Fue el primero en insistir en que la verdad no se encuentra en los libros viejos, sino investigando.

El feminismo político luchó para que las mujeres fueran iguales, pero el académico parece empeñado en demostrarnos que las mujeres son diferentes.

Sí, y es que entonces justifican que a la mujer no se la reconozca como es debido en el terreno científico porque “las mujeres somos más bien emotivas y nos da por cuidar a la gente más que por entenderla”. De esa manera justifican la misoginia de muchos.

En alguna entrevista usted ha dicho que casi todos los filósofos han contribuido a empeorar la sociedad. ¿En serio?

Yo creo que sí y el motivo es muy sencillo: casi todos los filósofos han estado al servicio de algún príncipe y, sobre todo a partir de la Edad Moderna, los filósofos universitarios han sido empleados del Estado y, cuando se han propasado, su soberano se lo ha hecho saber. Por ejemplo, hay una carta muy famosa que Federico Guillermo II le manda a Kant, en la que le dice que no se atreva a repetir unas ideas que corrompen a la juventud alemana porque de lo contrario se expondrá a consecuencias muy desagradables. Kant replica con una carta servil prometiendo no hablar más de religión. No se dice a menudo, pero Kant fue el primer filósofo alemán ateo. En la Crítica de la razón pura dice que Dios es una mera idea. No dice una idea pura. Una mera idea. Era ateo. En ningún momento acude a Dios para explicar nada. En todo caso, Kant fue antidemocrático, y su primer principio ético fue obedecer. Lo mismo que Confucio, la ética de ambos es de obediencia ciega al orden establecido. En el caso de Confucio porque su principal objetivo era la armonía y terminar con las interminables guerras civiles en China, así que en su caso se puede justificar. Yo usé este argumento en China hace poco porque el centro de lo que se llamaba “filosofía de Mao” es el conflicto, la idea de Hegel de que todo lo nuevo proviene de lo que llamaba una contradicción. Sí, la vida social involucra conflictos y competencia, pero al mismo tiempo involucra cooperación. Son dos lados de la misma moneda. La ambición de un estadista no es azuzar los conflictos, sino lo contrario, resolverlos de manera justa.

Pensemos al revés. ¿Quién es el filósofo actual de mayor utilidad social?

Yo no conozco a ninguno.

¿Y que no sea contemporáneo? ¿De los últimos 200 años?

El joven John Stuart Mill, que sigue teniendo vigencia. Era un hombre brillante. Nietzsche dijo de él que era lamentable que fuera tan claro, porque si era claro no podía ser buen filósofo. No solamente estaba al tanto de lo que ocurría en las ciencias, sino que el joven filósofo también era economista y se interesó mucho por las cooperativas. Era el gran campeón de las cooperativas. Dijo, explícitamente, que esperaba que en el futuro la cooperativa administrada y poseída por los trabajadores fuera el orden económico prevaleciente. En aquella época, entre 1830 y 1850, hubo varios teóricos de la cooperativa, y entre ellos figura Louis Blanc, que curiosamente nació en Madrid.

Sí, me he enterado leyéndole a usted.

Su libro sobre la organización del trabajo tuvo muchas ediciones y fue publicado por una cooperativa fraternal de la producción. En aquella época las cooperativas comenzaron a florecer. La mayoría de ellas fueron mal gestionadas. Mi ejemplo favorito de cooperativa exitosa es Mondragón, en el País Vasco.

¿Cuál es su pecado de juventud en su biografía intelectual?

Haber creído a pies juntillas todo lo que leía. En particular, el haber creído en el marxismo y el psicoanálisis.

Pero se curó pronto.

Del psicoanálisis me curé muy fácilmente. En verano de 1938, justo antes de ingresar en la universidad escribí un libro en contra de Freud y saldé cuentas con él. Del marxismo me costó varios años entender que la dialéctica es confusa, y cuando es clara es falsa. También me costó varios años entender que hay varias clases de socialismo y que el más humano y justo es el democrático. En la escuela argentina la única historia que se enseñaba era la militar. Los marxistas también tienen la tendencia a enfocar su atención en los conflictos. Dicho sea de paso, la historia y la arqueología son los únicos terrenos en que los marxistas han hecho aportaciones valiosas. El presente es demasiado complicado para ellos, pero el pasado lo entienden mejor que los demás. Pero sí, perdí demasiado tiempo, en particular leyendo a Hegel, a quien me tomé en serio al mismo tiempo que estudiaba matemáticas y física, que son eminentemente claras. Pero es que no sabíamos que existía otra filosofía. En los años 20 en la facultad de Filosofía de Buenos Aires empezó a predominar el hegelianismo. Hubo un profesor muy influyente que enseñaba en primer año, Coriolano Alberini, que había estudiado con Giovanni Gentile. Gentile era hegeliano, había sido colaborador de Mussolini y escribieron juntos el ciclo sobre fascismo, para la famosa Enciclopedia Italiana editada por Treccani, y fue ministro de educación y cultura de Mussolini hasta que lo ajusticiaron sin juicio los guerrilleros. Podrían haberle hecho un juicio y de paso hacérselo también a Hegel, porque fue victima de Hegel. Pero entre los guerrilleros predominaban los comunistas, que seguían adorando a Hegel.

¿Cual es el problema filosófico al que más vueltas da ahora mismo?

El de la justicia social. Es un problema de filosofía social, problemas que trato en mi libro Filosofía política.

Entonces no le hago la siguiente pregunta, que era cuál es la cuestión social que más le preocupa.

Cómo conseguir la justicia social. Creo que la raíz está en la participación democrática. En 1974 publiqué un análisis matemático de los conceptos de estructura social, de participación social y de marginación social, que han sido maltratados por la sociología porque se los ha tratado de manera meramente verbal, no se los ha matematizado. Y creo haber demostrado que la participación óptima está entre el mínimo y el máximo. La máxima implica que todo el mundo se mete en los asuntos de todo el mundo, no hay esfera de lo privado y se pierde mucho tiempo. La participación mínima es la dictadura total y enajena, como hubiera dicho Hegel, a la mayor parte de la gente, que no se siente responsable. Pero no me preocupa menos el problema mente-cuerpo. Justamente estos días he renunciado a dar el discurso inaugural en un simposio que se va a hacer en Oporto organizado por la Fundación Bial, que se ocupa de financiar la investigación no solamente en psicología, sino también en parapsicología. Renuncié y dije que solo aceptaría si eliminaban la sección de parapsicología.

Y no han querido.

No, porque su idea es tratar la parapsicología de igual manera que la psicología científica, darle respetabilidad. Y eso me parece deshonesto. Incluso llegaron a proponerme cambiarle el título a esa sesión pero mantener el contenido.

Uno de los malos presupuestos que la filosofía del siglo XX propagó es que la naturaleza humana no existe. Las neurociencias han vuelto a recuperar la idea de naturaleza humana.

Hay naturaleza humana igual que hay naturaleza equina y canina. Por supuesto. Pero eso no explica nada, es algo a explicar. ¿Qué nos hace humanos? ¿Por qué somos diferentes a los perros y los caballos? Eso es lo interesante.

Sin embargo, ahora está de moda la psicología evolutiva, que abusa de la idea de naturaleza humana.

La psicología evolutiva es una estafa porque consiste en media docena de postulados totalmente fantasiosos. Uno de ellos es que la mente humana —a veces dicen cerebro— está formada de módulos independientes los unos de los otros. Cada módulo estaría especializado en algo, y sabemos perfectamente que el cerebro humano no está organizado así. Es cierto que hay especialización, pero también es cierto que hay interacción entre las distintas zonas del cerebro, en particular entre el intelecto y la emoción. También es falsa la tesis que sostiene que no hemos evolucionado desde lo que ellos llaman el Paleolítico, que es un período que abarca nada menos que un millón de años. Obviamente, se refieren a la última fase, de 50.000 años. Desde entonces no habría habido evolución. Se ha dicho que los contemporáneos somos fósiles andantes. Walking fossils. Pero sabemos perfectamente que ha habido muchos cambios, y no son solamente biológicos, sino biosociales. Posiblemente nuestros cerebros no sean mucho mejores que el de Aristóteles, pero lo que podía aprender Aristóteles y lo que podemos aprender y hacer nosotros es vastamente distinto y superior. Todo lo quieren explicar a partir de la no evolución, y al hacerlo, todo lo reducen a instintos.

Instintos fijados hace 40.000 años porque nos ofrecían tal o cual ventaja adaptativa.

Exacto. Es una posición no solamente antievolutiva, sino que es falsa porque sabemos perfectamente que el hombre primitivo de hace 40.000 años se enfrentaba a problemas que nosotros ya hemos resuelto de otra manera eficazmente y no se enfrentaba a problemas tales como la escasez de recursos naturales, la existencia de armamentos de destrucción masiva, la desocupación… No había desocupación en aquella época. La desocupación es algo moderno.

Leí una polémica entre el filósofo americano Richard Rorty y Steven Pinker sobre la naturaleza humana. Rorty decía una cosa meditable: por mucho que la ciencia avance, nunca va a estar en condiciones de ser normativa. Nunca va a estar en condiciones de decirnos qué clase de persona debemos ser o a que clase de sociedad debemos aspirar. Y esa es la razón por la cual la ciencia no puede reemplazar a la filosofía o a la religión, porque no puede darnos una visión de la vida buena o consejos morales. ¿Está de acuerdo o en desacuerdo?

Estoy en completo desacuerdo. Yo creo que la filosofía puede ayudarnos a vivir mejor, pero solo en forma indirecta, influyendo sobre la ciencia, la técnica y la política. La medicina, por ejemplo, lo está haciendo desde hace 200 años. La ciencia puede ayudarnos a reconocer las virtudes y los vicios. Por ejemplo, un libertario, un anarquista de derechas, un miembro del Tea Party va a decir que tiene derecho a portar armas y a fumar donde quiera ¿no? Pero nosotros sabemos que eso no es así porque hace daño o puede hacer daño a otros, es antisocial. Y la sociología y la psicología nos enseñan eso. También los buenos economistas saben cuáles son algunas de las fallas del sistema actual. Saben que el mercado no es perfecto. Saben también que la planificación desde arriba sin participación es ineficaz porque desmotiva a la gente, porque es antidemocrática, etc… La ciencia por sí misma no puede resolver ese problema, porque es un problema práctico y la ciencia no se ocupa sino de entender los problemas prácticos. La que se ocupa de cambiar las cosas es la tecnología. Las técnicas sociales. Por ejemplo, la macroeconomía puramente descriptiva no arregla nada, pero después está la macronormativa, que nos dice por ejemplo cual es o cual debería ser la tasa de interés en el momento actual. Cuando hay recesión se recomienda bajar la tasa de interés para estimular el consumo, lo que a su vez estimula la producción, etc. Entonces cuando el macroeconomista pasa de ser descriptivo a normativo puede ser útil. O también puede ser muy nocivo.


El médico, al recomendar estilos de vida y advertir contra algunos estilos de vida está usando la biología médica, la biología humana. Está usando la ciencia.

Ha llamado a su moral agatonismo.

Sí. La búsqueda del bien. Ante todo gozar de la vida. Y segundo tratar de hacer el bien a los demás. Ayudar a los demás.

¿Cual es el concepto científico que más nos puede ayudar en la vida cotidiana, que deberíamos tener siempre en la cabeza?

Contesto a la pregunta con una recomendación de tipo negativo: procurar no joder al prójimo. Y segundo cuando buscamos el placer —que no solamente es inevitable, sino que es sano— también tratar de hacerlo sin dañar al prójimo y con moderación. Yo creo que debemos volver a las máximas romanas antiguas y chinas, de los estoicos griegos, la moderación, nada en exceso. Somos exagerados en todo, consumimos demasiado, batallamos demasiado, hablamos demasiado (risas).

Ya vamos a terminar, ya vamos a terminar. Usted es autor de una frase muy sugerente: “Hay que odiar con todas nuestras fuerzas una idea para que ninguna gota de odio salpique al hombre”. Yo estoy de acuerdo, pero tengo la impresión de que es más fácil decirlo que hacerlo.

Así es. En realidad yo quería repetir una frase que me dijo un buen experto en filosofía tomista, monseñor Octavio Derisi, hablando una vez de cómo se las arreglaba para asistir a congresos filosóficos cuyos componentes en su gran mayoría no son creyentes, o por lo menos no son tomistas. Y me dijo algo que me parece que sintetiza muy bien: “Intolerancia con las ideas, pero tolerancia con los hombres”. Eso me lo enseñó él o me lo reforzó él.

Pero profesor, ¿es tan fácil separar al racista del racismo?, ¿al tonto de la tontería?

Sí, sí. Bueno, al tonto ya no porque uno lo desprecia, ¿no? Eso es lo malo. Alguna de la gente a quien yo más quiero son muy católicos, católicos a machamartillo, y sin embargo nos queremos mucho porque tenemos otros aspectos de la vida, otras ideas. Por ejemplo el motivo por el cual yo no soy comecuras, a diferencia de Fernando Savater que es comecuras, es comecuras y me ha reprochado alguna vez el que yo hablaba bien de Juan Pablo II o de algún otro sacerdote… Creo que toda la gente que comparte ciertos objetivos buenos, por ejemplo, la paz, mantener o conseguir la paz, disminuir la miseria, etc. tiene que marchar junta en eso. Independientemente de nuestras divergencias en el resto de asuntos. Porque al fin y al cabo somos todos seres humanos y todos estamos interesados básicamente en la coexistencia. Y la coexistencia entre seres diferentes solamente se consigue con un mínimo de tolerancia y un mínimo de cooperación. Entonces hay que tratar de ser riguroso, el que sea ateo que lo diga, pero que no haga de eso el centro de su lucha. Ese es uno de los puntos en los que yo estoy en desacuerdo con el movimiento de los escépticos, tanto los norteamericanos como los españoles. Yo creo que más bien hay que asentar lo positivo en lo que podemos colaborar, antes que seguir, digamos, comiendo curas. Comamos con ellos y no a ellos (risas).

Habla, supongo, de Dawkins y de Dennet, entre otros. ¿Tiene tan mala opinión de la religión como ellos?

Estoy de acuerdo en que la religión es mala si la miras históricamente. Por ejemplo, el cristianismo ha sido cómplice de la esclavitud primero y de la servidumbre después. Ha sido cómplice de todas las dictaduras fascistas. De todas desde el comienzo hasta el final. Nunca han apoyado ningún movimiento de liberación nacional, ningún movimiento de liberación social. Nunca. Jamás. Ha habido cristianos digamos de izquierda por ejemplo los protestantes en Inglaterra en el siglo XVII, ha habido los anglicanos de África del Sur, que se opusieron al régimen de Apartheid, pero han sido excepciones. También los cuáqueros se opusieron a la esclavitud, han protegido la huida de esclavos hacia el Canadá. Usted sabe que había todo un camino, la trayectoria hacia la libertad. Y había hogares donde pasaban la noche los esclavos fugitivos. E iban al Canadá, porque en Canadá se abolió la esclavitud en 1833. Cuando la abolió el imperio británico, que fue veinte años después que en Argentina. La asamblea del año trece en Argentina abolió la esclavitud. Veinte años después vinieron los ingleses. (risas)

Pero eso es la religión mirada históricamente. Hay otras maneras de mirarla.

Sí y es conceptualmente. Cuando uno en lugar de enfrentar los problemas dice “Dios proveerá”, eso es una actitud derrotista, es una actitud que distrae de la realidad. Además cuando uno trata de mezclar la religión con la ciencia, lo que consigue es mala ciencia solamente.

¿Ha sentido alguna vez la tentación religiosa?

No, nunca. No, porque, fíjese, mi padre fue educado por los jesuitas el Colegio del Salvador y conservaba muy buenos recuerdos de él. Nunca le oí hablar mal de sus profesores. Al contrario, les tenía cariño y respeto. Porque, a su vez, lo respetaban. Los jesuitas estaban bajo observación en ese momento. Los liberales argentinos eran muy anticlericales. Habían llegado a quemar la escuela donde asistió mi padre, lo que me parece desde luego una salvajada. En todo caso, le hicieron estudiar tanta teología, según él, que esos estudios, el estudio de la teología le mostró la inexistencia de Dios. Era el alumno más sobresaliente de su promoción. Y esperaban que en el futuro fuera el gran teólogo argentino. Entonces a la edad de catorce años se dirigió a su profesor de teología y le dijo “lo lamento mucho, padre, pero he dejado de creer en Dios”. “¿Cómo es posible que digas algo así?” “He encontrado tantos disparates y tantas contradicciones que yo no puedo creer en eso”. Y no por eso lo castigaron. Al contrario, se sacó todas las medallas habidas y por haber.

Los jesuitas son especialistas en educar a ateos ilustrados. Voltaire fue uno de ellos.

Ah, no sabía que Voltaire…

Voltaire era alumno de jesuitas, sí, sí.

Bueno, pero los jesuitas que siguieron después no eran así. Los jesuitas que enseñaban en la escuela de los hermanos cristianos de mi barrio afuera de Buenos Aires sometían a tortura a los chicos. A los chicos que se portaban mal los encerraban en un cuarto oscuro y los obligaban a hincarse sobre granos de maíz. Entonces cuando salían, venían a jugar a la pelota conmigo, se les veían las marcas de los granos de maíz en las rodillas. No eran lo mismo. Mi padre tuvo la suerte de tener jesuitas ilustrados como profesores. Y ya le digo, siempre conservó buen recuerdo de ellos.

Ahora tenemos un papa jesuita y argentino ¿alguna opinión sobre él?

Bueno, la opinión que tienen todos los argentinos liberales: que durante la dictadura hizo lo mismo que hizo la Iglesia argentina. Colaboró. Por lo pronto no habló en contra y hay constancia de que apartó de sus tareas a dos de sus cofrades que se dieron a la llamada teología de la liberación. Fue una dictadura horrenda y la Iglesia argentina, lo mismo que en otras actuaciones, la apoyó. Usted sabe que en 1810 casi todos los sacerdotes argentinos se plegaron a la revolución por la independencia. Y por consiguiente el Vaticano los excomulgó a todos. Y fue recién el tirano Juan Manuel de Rosas, 20 años después, que consiguió que se levantara la excomunión. Durante veinte años estuvieron excomulgados por levantarse contra el imperio español. Pero no prejuzguemos al nuevo papa, porque acaso nos sorprenda. Recordemos que es porteño, de modo que tal vez se siente a la diestra del Señor y se anime a corregir la corrupción de la Iglesia, que se está vaciando rápidamente incluso en Irlanda, que fuera su baluarte durante siglos. En todo caso, le deseo suerte en cualquier tentativa de hacer el bien.

Usted ha sido un gran polemista, ha peleado por sus ideas. Aristóteles dijo que era amigo de Platón, pero que era más amigo de la verdad. ¿La búsqueda apasionada de la verdad puede enfriar o romper amistades? ¿Le ha ocurrido a usted?

Sí. Sí, me ocurrió con Popper, por ejemplo. Popper elogiaba mucho la crítica. Siempre que la crítica no se refiriese a sus ideas. No toleraba ninguna crítica. Lo tomaba como un ataque. Más aún, Popper no sabía que en la ciencia predomina lo que llamamos la crítica constructiva. Una vez, en un homenaje que se le hizo en Boston, en el 79 o 69, no recuerdo,… ya ve, empecé mi moción diciendo que iba a proponer algunas críticas constructivas. Entonces saltó. Dijo “no hay tal cosa, cuando uno critica siempre lo hace para destruir al adversario, va directamente —empleó esa palabra— a la yugular”. No había oído hablar, porque él no tenía el menor conocimiento acerca de cómo funcionan las comunidades científicas, de que los científicos, cuando terminan su trabajo, lo primero que hacen es pedir una crítica constructiva a los peers, a los colegas. Hacen circular lo que antes se llamaba pre-prints. Ahora simplemente se manda un e-mail y se les pide consejo. A veces lo aceptan, otras veces no.

Y sin embargo en el diálogo nosotros solemos encastillarnos en nuestras opiniones.


¿Eso tiene base neuronal? La resistencia a aceptar las ideas que socavan nuestras creencias.

Puede ser, no lo sé. Ese es un problema a investigar. Yo a priori no lo sé. Habría que investigarlo. Pero desde luego, en general, uno quiere la paz interior. Por lo pronto, uno quiere estar en paz consigo mismo, eso nos lleva a ser conservadores en primera instancia. Pero si alguien nos demuestra que estamos equivocados, debiéramos aceptarlo. Y debiera además… Hay errores de dos tipos: los errores corregibles y los errores incorregibles. Por ejemplo, de la psicología evolutiva creo que no va a quedar absolutamente nada, salvo el descrédito de la expresión “psicología evolutiva”. De manera que en el futuro, cuando se haga psicología evolutiva auténtica, la gente creerá que es la impostura que es hoy. Desgraciadamente han copado esa palabra, la han arruinado.

¿En qué rama de la ciencia tiene depositadas más esperanzas?

No sé si fundadas o no, pero en las ciencias sociales, que todavía están en su infancia, y desde luego en la psicología biológica que también está en su infancia, pero que por lo menos está bien encarrilada. En cambio, las ciencias sociales siguen estando desorientadas, mucho más aun que años atrás.

Cuando habla de psicología biológica, ¿se refiere a la neurociencia? El estudio de los sistemas nerviosos.

Sí, de las funciones de esos sistemas nerviosos. Es decir, hace psicología y explica los mecanismos que la psicología acéfala no puede explicar porque todo mecanismo es un proceso que ocurre en un sistema material, vivo o no vivo. Yo creo que ha habido un retroceso en las ciencias sociales. Hace treinta años o cuarenta años floreció brevemente la sociología matemática. Yo hice varias contribuciones, publiqué varios estudios. Hoy ya casi nadie hace sociología matemática. Y tampoco casi nadie hace psicología matemática. Es decir, la mayor parte de los psicólogos no hacen teorías y menos aun hacen teorías matemáticas. Hace falta. ¿Por qué? Porque la matematización introduce primero claridad y, segundo, la sistematicidad puede unificar grandes sistemas teóricos, puede unificar ideas que anteriormente estaban sueltas.

Si volviera a empezar su carrera intelectual ¿empezaría por otro sitio?

Sí. Empezaría por la psicología o la sociología. O la economía, si tuviera el valor necesario. Se necesita mucho valor, porque cuanta más basura hay acumulada tanto más difícil es el desescombro, salir de ahí y construir de nuevo, borrón y cuenta nueva. En el caso de la economía, borrón y cuenta nueva. Dejando de lado a Keynes y sus discípulos creo que no queda nada.

Profesor ¿le tiene miedo a la muerte?

No. Tengo miedo a morir en forma prolongada, por eso soy partidario de la muerte asistida. Cuando ya no se puede gozar de la vida, cuando ya no se puede hacer nada por nadie, ni por uno mismo, ya no tiene sentido seguir viviendo. La muerte es el fin de la vida, es el fin del viaje y por eso vamos siempre de buen humor. Hace poco di una conferencia en Zaragoza y uno me habló después de la conferencia y me dijo que lo que más le llamó la atención es que a mi edad tuviera tan buen humor y tuviera tan buen talante.

¿Usted qué le dijo?

Pues que sigo gozando de la vida.

¿Y para llegar a los 94 años gozando de la vida?

Moderación. Y ejercicio, que yo no hago el suficiente. He dejado de hacer ejercicios como debiera hacer. Ese es uno de los tantos motivos que tenemos para mudarnos a Barcelona: poder caminar todos los días del año. Aquí es peligroso caminar. Los meses de enero y febrero debido al hielo. Peor es en Ottawa, donde vive usted, porque aun hace más frío.

Hace más frío, sí. Ha sido un invierno muy duro. La pregunta difícil que he dejado para el final es la pregunta de Leibniz. ¿Por qué hay algo en lugar de nada?

Yo creo que no tiene sentido esa pregunta sino en una teodicea. En una teología tiene sentido preguntarse por qué diablos Dios, en lugar de seguir tranquilamente sin hacer nada, empezó a hacer algo. ¿Por qué a Dios se le ocurrió hacer el mundo? Pero en una metafísica como la mía que es completamente atea no tiene sentido esa pregunta. Pasa por ser la pregunta más importante, eso es lo que dice Heidegger y dicen muchos otros. A mí me parece un disparate. Es una pregunta que tiene sentido solamente si se presupone que existe Dios y que fue quien creó el mundo. Si no, no. Dicho sea de paso, el primero en hacer esa pregunta no fue Leibniz, sino un teólogo islámico, cuyo nombre no recuerdo. Es muy difícil recordar nombres exóticos como son los árabes.

Fotografía: Susana Fernández

Nota: La editorial navarra Laetoli ha comenzado a publicar La Biblioteca Bunge. Para empezar, un clásico: “La Ciencia. Su método y su filosofía”. Para disfrutar del gran polemista, puede leerse la esclarecedora y divertida obrita “Las pseudociencias, ¡vaya timo!”, también en Laetoli.

Tags: biología ciencia ciencias economía entrevista entrevistas filosofía Mario Bunge marx marxismo portada pseudociencias psicoanálisis psicología psicología evolutiva sociedad sociologíaCompartir este artículo: