Crítica del relato sobre Calvino en el libro de Elvira Roca Barea, por Jesús G Maestro

Calvino miserias de la Reforma

De Lutero a Auschwitz hay mucha menos distancia de la que se cree

De Lutero y el idealismo a Auschwitz

Literatura como negación de todo dios

La literatura es la negación de todo dios

Literatura sofisticada , Ilustración e idealismo. Crítica de William Blake

Jesús G Maestro expone en el vídeo el modo en que el Materialismo Filosófico y la Crítica de la Razón Literaria llevan a cabo la crítica dialéctica de la Literatura

Se analiza el poema de Blake titulado La voz del viejo bardo

Crítica filosófica materialista de la poesía de William Blake

el problema del chamanismo según Mircea Eliade

ENLACE AL ARTICULO DE M.ELIADE
http://www.persee.fr/web/revues/home/prescript/article/rhr_0035-1423_1946_num_131_1_5473

Desde el materialismo filosófico, en polémica con el paleoantropólogo francés Clottes, la revista El Catoblepas publica una reseña de Lino Camprubí Bueno ( nieto del filósofo, fundador del Materialismo Filosófico,Gustavo Bueno), en la que se oponen las tesis materialistas sobre los dioses-númenes animales en la primera fase del desarrollo de las religiones a los dioses animistas (idealismo religioso). http://nodulo.org/ec/2012/n125p01.htm

evolucionismo vs creacionismo. ¿ Quién alimenta la polémica ?


La ciencia ha ido desplazando en el mundo occidental a la religión como institución capaz de ofrecer explicaciones sobre asuntos que interesan a los seres humanos. Las preguntas kantianas: ¿ quién soy ? , ¿ qué debo hacer ? ¿ qué puedo conocer ? son respondidas con una más convincente y muchomás racional argumentación por las ciencias o por la filosofía materialista que por los dogmas de las religiones

libro recomendado http://www.franceculture.fr/oeuvre-les-mondes-darwiniens-l-evolution-de-l-evolution-de-sous-la-direction-de-thomas-heams-philipp
L’année Darwin
La théorie darwinienne de l’évolution dérange toujours les créationnismes
Par Guillaume Lecointre – SPS n° 288, octobre 2009
L’évolution biologique, phénomène qui échappe à nos sens
Le monde d’hier, bien qu’animé des mêmes lois physiques et chimiques que celles d’aujourd’hui, était différent dans ses formes, qu’il s’agisse des continents ou des espèces. Ce n’est pas parce que nos sens nous montrent un monde stable que celui-ci ne change pas. Sa vitesse de changement peut tout simplement nous être imperceptible. « De mémoire de rose, il n’y a qu’un jardinier au monde », nous écrivit un jour malicieusement Fontenelle (1657-1757). De mémoire de rose on n’a jamais vu mourir un jardinier, nous rappelait Diderot (1713-1784). L’évolution biologique est contre-intuitive d’abord parce qu’elle constitue un fait d’une ampleur et d’une portée hors de nos sens, et sur des durées pour nous inconcevables. À quelques exceptions près, la règle générale est qu’à petit changement, petite durée ; grand changement, grande durée. Soit le changement d’une espèce dans un temps qui nous est concevable est imperceptible à nos sens, soit des changements peuvent paraître spectaculaires à nos yeux entre une forme ancienne et une forme descendante récente mais alors ces formes sont séparées par des durées inconcevables. Et malheureusement, ceux des êtres vivants qui évoluent vite, produisant de grands changements dans de petites durées, échappent à nos capacités visuelles… Lorsqu’un virus, une bactérie ou un insecte ravageur s’adapte en quelques années aux contraintes que nous leur imposons, il s’agit d’êtres que nous ne pouvons voir de nos yeux ou bien d’êtres que nous ne croisons pas dans la vie courante. Et même si nous pouvions les voir… il faudrait avoir de la constance dans l’observation. Car l’évolution biologique est un phénomène populationnel. Il ne faut pas s’attendre à voir de ses yeux un individu muter spontanément à un moment donné de sa vie. Son constat est une affaire de fréquences dans des populations.

L’évolution biologique reste donc, le plus souvent, imperceptible à nos pauvres sens humains et c’est peut-être ce qui permet si facilement à tant de forces sociales extra-scientifiques de la nier. Cependant, cette explication est loin d’épuiser tous les déterminants de ces négations, nous y reviendrons. La dimension populationnelle du phénomène évolutif, son imperceptibilité, les efforts d’abstraction qu’il requiert, la place prépondérante du hasard, son incompatibilité avec notre essentialisme (nous serions par essence différents des autres espèces), notre anthropocentrisme, notre notion de destinée, si spontanés, sont autant d’obstacles à sa compréhension. Plus il y a d’obstacles culturels et plus il est nécessaire de traiter d’épistémologie, c’est-à-dire de mécanique de la démarche scientifique, lorsque l’on combat les récupérations idéologiques et religieuses des sciences.
Mais qu’y a-t-il de si terrible dans la théorie darwinienne de l’évolution ?
L’évolution biologique telle qu’elle continue d’être validée par les scientifiques aujourd’hui repose sur un enchaînement extrêmement simple de constats et de déductions logiques, qui furent déjà ceux de Charles Darwin (1809-1882), méticuleusement documentés par celui-ci dès 1859. Nous les exposerons brièvement ici sans terme technique en respectant le raisonnement de Darwin lui-même, en suivant la présentation qu’en fait Patrick Tort (Darwin et la science de l’évolution, Gallimard, 2000). Ces déductions ont été validées un nombre incalculable de fois par des chercheurs de terrain, mais aussi en laboratoire, puis dans des « expériences grandeur nature » en permanence réalisées par l’industrie agronomique lorsque celle-ci lutte contre les capacités évolutives de ravageurs, l’industrie biotechnologique lorsqu’on utilise les capacités évolutives d’êtres vivants pour leur faire fabriquer des molécules (bio-ingénierie), la recherche biomédicale lorsque celle-ci lutte contre les capacités évolutives des agents pathogènes pour l’Homme.
Constat n° 1 : Parmi les individus qui se reconnaissent comme partenaires sexuels potentiels, il existe des variations (physiques, génétiques, d’aptitude…). Quelle que soit la source de cette variation, il existe donc au sein de ce que nous reconnaissons comme des espèces une capacité naturelle à varier, la variabilité.
Constat n° 2 : Dès les débuts de la domestication, les hommes ont toujours modelé les êtres vivants à leurs besoins par des croisements sélectifs : il existe, depuis plus de dix mille ans, une sélection artificielle en horticulture et en élevage au sein même de ce que nous appelons une espèce. Il existe donc chez celle-ci une capacité naturelle à être sélectionné, la sélectionnabilité.
La question qui se pose dès lors est de savoir si la variabilité naturelle est sujette à sélection dans la nature. Cette question revient à se demander quel pourrait être l’agent qui produirait cette sélection.
Constat n° 3 : Les espèces se reproduisent tant qu’elles trouvent des ressources (ressources alimentaires, conditions optimales d’habitat). Leur taux de reproduction est alors tel qu’elles parviennent toujours aux limites de ces ressources, ou trouvent d’autres limites telles que la prédation qu’elles subissent par d’autres espèces. Il existe donc une capacité naturelle de surpeuplement. Cette capacité est observable de manière manifeste lorsque les milieux sont perturbés, par exemple lorsque des espèces allogènes envahissent subitement un milieu fermé, comme une île. L’histoire des hommes fournit de multiples exemples de transferts d’espèces suivis de pullulations, comme ce fut le cas de l’importation du lapin en Australie.
Constat n° 4 : Pourtant, il existe des équilibres naturels. En effet, le monde naturel tel que nous le voyons – non perturbé par l’homme – n’est pas constitué d’une seule espèce hégémonique, mais au contraire de multiples espèces en coexistence, et ceci malgré la capacité naturelle de surpeuplement de chacune.
Inférence : chaque espèce constitue une limite pour les autres, quelle que soit la nature de cette limite : soit en occupant leur espace, soit en les exploitant (prédation, parasitisme), soit en exploitant les mêmes ressources… Les autres espèces constituent donc autant de contraintes qui jouent précisément ce rôle d’agent sélectif.
Constat n° 5 : les espèces dépendent également, pour le succès de leur croissance et de leur reproduction, d’optima physiques (température, humidité, rayonnement solaire, etc.) et chimiques (pH, molécules odorantes, toxines…). En fait, ces facteurs physiques et chimiques de l’environnement constituent eux aussi des facteurs contraignants. S’ils changent, les variants avantagés ne seront plus les mêmes.
Conclusion : Variabilité, sélectionnabilité, capacité au surpeuplement sont des propriétés observables des espèces. L’environnement physique, chimique et biologique est constitué de multiples facteurs qui opèrent une sélection naturelle à chaque génération. Cela signifie qu’au sein d’une espèce, les individus porteurs d’une variation momentanément avantagée par les conditions du milieu laisseront davantage d’individus à la génération suivante que ceux porteurs d’un autre variant. Si ces conditions se maintiennent assez longtemps, le variant avantagé finira par avoir une fréquence de 100 % dans la population. L’espèce aura donc quelque peu changé : elle n’est pas stable dans le temps. Si ces conditions changent, d’autres variants que le variant majoritaire du moment peuvent devenir à leur tour avantagés. C’est pourquoi on dit que la variabilité maintenue dans une espèce constitue en quelque sorte son assurance pour l’avenir, donnée bien connue des agronomes. La promesse d’avenir d’une espèce n’est pas dans l’hégémonie du « variant le plus adapté » (la fameuse « survie du plus apte ») mais dans le maintien dans les populations de variants alternatifs par une source continue de variations. Pour forcer le trait, on pourrait dire que le succès d’aujourd’hui est assuré par le plus apte, celui de demain par une « réserve » d’individus aujourd’hui moins aptes.
Le monde vivant tel que nous le voyons est donc un équilibre de contraintes interagissant en permanence, et il est le fruit d’une sélection naturelle de variations qui, au cours du temps, se sont avérées avantageuses. L’optimalité fonctionnelle des variations sélectionnées fut une condition de leur survie. D’où cette impression que nous avons, parfois, que « la nature est bien faite », longtemps utilisée dans un autre contexte par les théologiens pour glorifier sagesse et puissance divines. En fait, les solutions trop désavantageuses ne sont pas parvenues jusqu’à nous.
Le phénomène d’évolution biologique, même présenté ci-dessus comme Darwin lui-même a pu le concevoir et l’argumenter amplement, n’est ni une spéculation ni une conjecture : ce phénomène est observé, expérimenté en laboratoire sur des espèces à temps de génération courts, en agronomie, en médecine, en bio-ingénierie. La sélection naturelle n’est pas une vieille idée, elle n’est pas une affaire de fossiles, elle est la dynamique même du vivant. Elle s’applique à l’explication naturelle des origines de l’espèce humaine.
Remarque n° 1 : Il reste toujours des variants non optimaux. Par ailleurs des variants désavantagés continuent d’apparaître en permanence, mais selon la lourdeur du handicap héritable, leur maintien dans les générations suivantes est plus ou moins compromis. D’autre part, certaines structures qui paraissent handicapantes (par exemple l’accouchement par le clitoris chez les hyènes tachetées femelles provoquant le décès d’une partie des nouveaux-nés) sont en fait biologiquement liées à d’autres structures fournissant un avantage déterminant (l’agressivité des femelles et la masculinisation partielle des organes génitaux externes qui l’accompagne), d’où leur maintien. Ces considérations nous forcent à relativiser cette impression que nous avons d’une « nature bien faite ». Bien des espèces paient de lourds fardeaux (mesurés en termes de décès des descendants) dans le maintien de dispositifs qui nous semblent absurdes.
Remarque n° 2 : Il existe des variants sélectivement neutres. Ce socle de base de la proposition darwinienne du mécanisme évolutif a été complété au vingtième siècle par le modèle dit « neutraliste ». Des variants sélectivement neutres à l’égard des facteurs de l’environnement peuvent avoir des fréquences qui varient aléatoirement dans les populations, au gré des croisements. Cette fréquence peut même atteindre 100 % de manière tout à fait aléatoire dans une population, et ceci d’autant plus facilement que la population sera d’effectif réduit.
Remarque n° 3 : L’espèce n’est pas inscrite dans le marbre. Le vivant n’est pas stable. Il peut être conçu comme un fleuve de générations, lequel se divise en bras, affluents, rivières. Les individus d’une généalogie changent, et les formes d’une population à une génération t diffèrent des formes de la génération t+n. Des portions d’arbre généalogique peuvent diverger, séparées par des obstacles physiques, chimiques, biologiques, etc., et les individus qui les constituent de part et d’autre du point de divergence peuvent ne plus jamais se rencontrer, de même pour leurs descendances. Ou leurs descendances se rencontrer à nouveau mais ne plus se reconnaître comme partenaires sexuels. Ou encore se croiser à nouveau mais produire une descendance stérile. On dira alors qu’elles ne font plus désormais partie de la même espèce. L’espèce n’est pas écrite sur les être vivants, ni inscrite dans une essence dont ils seraient porteurs, ni dans le ciel ; elle n’est pas éternelle ; elle n’est pas stable. Elle est d’abord ce que nous voulons qu’elle soit ; c’est-à-dire qu’il existe une définition théorique. L’espèce n’est rigoureusement définie que dans la durée du temps : c’est l’ensemble des individus qui donnent ensemble de la descendance fertile, depuis le précédent point de rupture du flux généalogique théorique jusqu’au prochain point de rupture. Après ce point de rupture, les individus qui ne sont plus interféconds avec leurs formes parentales ou latérales constitueront, par convention, une nouvelle espèce.
Un constat immédiat est à faire : l’espèce n’est pas stable, l’environnement non plus, à plus ou moins long terme. Si rien n’est stable, pourquoi ne voyons-nous pas une continuité de formes organiquement désordonnées ? Pourquoi, malgré la variation, les individus se ressemblent-ils ? En fait, le vivant est la résultante de forces de maintien organique et de forces de changement. Parmi les forces du maintien organique, la sélection naturelle par le moyen des facteurs d’un milieu stable élimine pour un temps de la postérité généalogique les individus peu optimaux. Elle participe donc au maintien des « discontinuités » que nous percevons. En d’autres termes, nous n’observons pas dans la nature d’animal mi-lézard vert mi-lézard des murailles car il n’y a pas eu de « niche » d’optimalité correspondant à une telle forme. Ensuite, le croisement entre partenaires sexuels pour la reproduction limite les effets des mutations aléatoires subies par tout individu et participe donc aussi à la stabilité organique. D’autre part, les contraintes architecturales internes héritées des ancêtres constituent également des limites au changement. De même, des contraintes fonctionnelles internes évidentes limitent forcément le champ des changements possibles. Par exemple, bien des embryons « malformés » meurent avant même d’avoir été confrontés directement au milieu.
Parmi les forces du changement, il y a les sources de la variation, par exemple les erreurs des polymérases (ensemble d’enzymes qui assure une réplication de l’ADN, avant une division cellulaire) qui, bien que très fidèles, laissent tout de même passer dans l’ADN des « coquilles » parmi les milliards de paires de bases recopiées. Lorsque le milieu change, les conditions sélectives changent aussi. La sélection naturelle devient aussi, dans ces conditions, la courroie de transmission du changement sur les êtres vivants, des changements qui ne traduisent aucun « but », mais seulement les aléas du milieu.
Mais qu’est-ce qui dérange tant ?
Quelle que soit l’ampleur des changements et quelle que soit l’intensité des contraintes architecturales et fonctionnelles internes, la multitude de facteurs intriqués en jeu est telle qu’il est impossible, sur le plan théorique, de donner une priorité absolue aux forces stabilisatrices. En d’autres termes, le milieu, lui-même imprévisible sur le long terme, rend, via la sélection naturelle, le devenir d’une espèce imprévisible et rend du même coup caduque toute notion de « destinée ». Rien n’est écrit dans le marbre et l’on a coutume de dire, après S.J. Gould (1941-2002), que si nous revenions à un point antérieur quelconque du film de la vie, la probabilité pour que la série d’événements se déroulant sous nos yeux à partir de ce point soit exactement la même est infiniment faible. La notion même de destinée est incompatible avec tout processus historique, processus évolutif compris. C’est l’une des difficultés psychologiques les plus difficiles à surmonter lorsque l’on tente de faire comprendre le processus évolutif à un public qui confond encore le discours sur les faits naturels et le discours sur les valeurs. En effet, tandis que l’absence de « but » et de « destinée » dans l’explication scientifique d’un phénomène naturel ne relève que de l’amoralité de la démarche scientifique et de sa neutralité métaphysique, le discours scientifique injustement transposé comme discours moral et/ou métaphysique rend pour nos semblables ces absences de but et de destinée désespérantes, intolérables, immorales. Bien entendu, ce n’est pas la théorie de l’évolution qu’il faut récuser dans ce cas mais la confusion entre le discours scientifique sur les faits, méthodologiquement défini et limité, et le discours sur les valeurs qui relève de processus d’élaboration très différents. Il faut expliquer alors qu’il ne faut pas projeter nos réflexes psychologiques (buts, actions intentionnées) et nos espoirs (destinée) dans une explication scientifique de l’origine des espèces. La théorie de l’évolution n’incorpore ni transcendance, ni but, ni destinée, n’a pas à donner de « sens » à notre vie, ne défend ni ne préconise aucune valeur, aucune morale : ce n’est simplement pas le rôle d’une théorie scientifique.

– Cette double hélice biologique est une preuve évidente de la spiritualité du Cosmos
Une bonne partie des négations de la théorie darwinienne de l’évolution viennent de là : des membres de l’UIP à ceux du mouvement de l’« Intelligent Design », on veut faire dire à une théorie scientifique ce qu’elle n’a pas à dire. On lui reproche de ne pas donner du « sens ». On se désespère d’un devenir sans but ni destinée. On juge la sélection naturelle immorale. Bref, pour le scientifique c’est comme si on jugeait l’attraction des corps célestes comme immorale et une réaction chimique in vitro comme désespérante parce que intrinsèquement non intentionnée. On peut mettre également sous ce chapitre ce que l’on a de façon erronée appelé le « Darwinisme social », et qui n’est que l’évolutionnisme philosophique élaboré par Herbert Spencer, du vivant de Darwin. L’évolutionnisme philosophique de Spencer est effectivement récusable d’abord et entre autres motifs parce qu’il transpose directement un modèle explicatif du changement des espèces dans les champs moraux et politiques, transfert qui n’est ni requis ni opéré par la théorie de l’évolution de Darwin elle-même. L’évolutionnisme de Spencer fait dire à une démarche scientifique ce qu’elle n’a pas à dire. Ce n’est d’ailleurs pas une science mais un système philosophique. L’évolutionnisme, pris dans ce sens-là, a contribué et contribue encore à éloigner les intellectuels d’une véritable lecture de Darwin, mais aussi à susciter une méfiance aussi injustifiée que répandue à l’encontre d’une théorie scientifique. La théorie darwinienne ou néo-darwinienne de l’évolution ne véhicule, en elle-même, pas plus de valeurs que la théorie de la gravité universelle ou celle de la dérive des continents.
En fait, les créationnismes, qu’ils soient seulement « philosophiques » ou qu’ils se parent de scientificité, tentent de projeter des valeurs à la théorie de l’évolution pour pouvoir ensuite plus facilement la nier à travers elles. Pour tuer votre chien, inoculez-lui la rage, puis accusez-le d’être enragé, enfin tuez-le. Car le besoin de nier la théorie de l’évolution provient d’un autre champ. Celui-ci est politique : de tout temps, il a fallu brider la science lorsque celle-ci élaborait des résultats non conformes au dogme.
Tous les créationnismes contre la théorie darwinienne de l’évolution
La théorie scientifique de l’évolution en vigueur aujourd’hui explique l’origine des espèces, l’origine de l’homme, de ses langues, de ses sociétés sans recours à une transcendance. Non pas que cette théorie particulière se soit fixé comme but spécifique de nier toute transcendance : l’athéisme affirmatif ne fait pas partie des objectifs de la science. Plus simplement, les sciences, quelles qu’elles soient, depuis 250 ans environ, n’incorporent pas la transcendance comme outil d’explication. Le créationnisme philosophique adoptera alors diverses postures face à ce qui lui apparaît comme une insupportable lacune, afin de brider la science : nous allons les décliner ci-dessous.
Commençons par distinguer le créationnisme « philosophique » du créationnisme « scientifique ». Le créationnisme philosophique stipule que la matière et/ou l’esprit ont été créés par une action qui leur est extérieure. L’affirmation opposée est celle d’un matérialisme immanentiste. Il s’agit d’affirmer que le monde réel est constitué de matière, y compris les manifestations très intégrées de celle-ci (« esprit », sociétés, etc.), que la matière, quelle que soit la description que l’on peut en faire, est incréée et porte en elle-même les ressources de son propre changement. Aucune de ces deux postures philosophiques n’est accessible empiriquement ; c’est-à-dire qu’elles ne peuvent être testées scientifiquement. Il s’agit bien là du terrain de la philosophie.
Examinons à présent les différentes versions du créationnisme philosophique. Les trois monothéismes ont adopté au cours de leur histoire diverses postures face à l’inadéquation logique entre le sens littéral des Écritures et les résultats de la science. Déclinons ces postures dans un gradient de plus en plus néfaste à l’indépendance d’une démarche scientifique. Premièrement, on a adapté le sens des Écritures aux résultats de la science. Cette attitude, généralement qualifiée de « concordiste », ne sera pas analysée ici. Deuxièmement, on a adapté le sens des résultats de la science à la lumière du dogme. Troisièmement, on a sollicité la société des scientifiques de l’intérieur afin qu’elle réponde à des préoccupations théologiques (fondation John Templeton, Université Interdisciplinaire de Paris notamment dans leur appel du 22 février 2006 dans le journal Le Monde). Quatrièmement, on a prétendu prouver scientifiquement la validité littérale des Écritures par ce qui a été présenté comme de véritables démarches et expériences scientifiques (créationnisme « scientifique » de H. Morris et D. Guish). Cinquièmement, on a nié purement et simplement les résultats de la science, soit en cherchant à démontrer leur fausseté au moyen de discours ré-interprétatifs mais sans expériences scientifiques (Harun Yahya, témoins de Jéhovah), soit au moyen de ré-interprétations et de contre-expériences qui se voulaient scientifiques (sédimentologie de Guy Berthault, mouvement du « dessein intelligent »). Enfin, on a intimidé les scientifiques en les sommant de récuser les résultats de leur travail (Galilée en astronomie, Buffon concernant l’âge de la terre, même Darwin dut faire des concessions entre la première et la seconde édition de L’origine des Espèces…) ou en les pourchassant. Voici donc une typologie résumée de tous les créationnismes philosophiques, avec des exemples, non pas de personnes, mais se manifestant sous forme d’organisations :
A. Les créationnismes intrusifs :
A.a. Nier la science : le créationnisme négateur d’Harun Yahya.
A.b. Mimer la science : le créationnisme mimétique de H. Morris et D. Guish.
A.c. Plier-dénaturer la science : le « Dessein Intelligent » ou la théologie de William Paley présentée comme théorie scientifique.
B. Le spiritualisme englobant :
B.a. Science et théologie vues comme les pièces d’un même puzzle : l’Université Interdisciplinaire de Paris.
B.b. La fondation John Templeton : lorsque la théologie finance la science.
Tous ces créationnismes philosophiques ne sont pas des créationnismes « scientifiques ». Lesquels d’entre eux méritent l’appellation de « créationnisme scientifique », c’est-à-dire mettent la science au service d’une preuve de la création ? Il s’agit assurément des catégories A.b. et A.c. puisque dans la première la « science » prouve la Vérité des Écritures et dans la seconde le créateur est incorporé comme explication « scientifique ». Pour ce qui concerne les catégories B.a. et B.b., il ne s’agit pas d’un créationnisme scientifique au sens précédent ; cependant la science est mobilisée par ces spiritualistes afin de servir d’autres desseins que l’élaboration de connaissances objectives, y compris d’accréditer une idée de création beaucoup plus sophistiquée. Ainsi, contrairement à une idée reçue, le créationnisme philosophique ne s’oppose pas nécessairement à l’idée d’évolution biologique. L’évolutionnisme théiste de Teilhard de Chardin en est un exemple dont on trouve des descendants au sein des providentialismes modernes (catégorie B). La catégorie A est anti-évolutionniste, sauf peut-être pour certains adeptes du « Dessein Intelligent » pour qui les moyens par lesquels le Grand Concepteur réalise ses desseins pourraient incorporer la transformation (non darwinienne) des espèces. La catégorie B est évolutionniste. Mais tous sont anti-darwiniens, les premiers parce qu’ils refusent le fait de l’évolution biologique, les seconds parce que le modèle darwinien faisant intervenir hasard, variation, contingence, sélection naturelle ne les satisfait pas, pour des raisons morales et idéologiques.
Mention spéciale concernant l’Intelligent Design
La volonté politique la plus manifeste est représentée par le mouvement américain de l’Intelligent Design. Suite aux revers juridiques des créationnistes « scientifiques » de la seconde moitié des années 1980, ceux-ci doivent à nouveau changer de stratégie. Dès le début des années 1990, P. Johnson, juriste, élabore la notion d’« Intelligent Design » (ID) à partir de la vieille analogie du théologien anglican William Paley et la présente comme théorie scientifique. La stratégie consiste à utiliser l’étiquette « science » pour atteindre des objectifs politiques et spirituels, objectifs clairement énoncés dans leur « Wedge Document » (voir le Nouvel Observateur Hors Série n° 61 « La bible contre Darwin » dirigé par Laurent Mayet, décembre 2005). L’un de ces objectifs principaux est de faire passer une conception théologique pour de la science afin que celle-ci soit enseignée dans les écoles. Selon le « Discovery Institute » qui structure le mouvement, « la théorie du dessein intelligent affirme que certaines caractéristiques de l’univers et des êtres vivants sont expliquées au mieux par une cause intelligente, et non par un processus non dirigé telle la sélection naturelle ». Le mouvement du « dessein intelligent » s’emploie donc à critiquer tout ce qui peut l’être dans la théorie darwinienne de l’évolution, et surtout ses ennemis de toujours : le matérialisme méthodologique inhérent à une approche seulement scientifique des origines du monde naturel, et le rôle de la contingence des facteurs de transformation des espèces au cours du temps. Pour tout schéma argumentatif, il ne s’agit que de la répétition, sous une forme retravaillée, de l’analogie finaliste du théologien anglican William Paley (1743-1805). Arguant que tout objet/artefact est intentionnellement façonné pour remplir une fonction, Paley et ses imitateurs d’aujourd’hui transposent ce principe dans la nature pour faire intervenir une intelligence conceptrice à l’origine de l’adéquation entre formes et fonctions naturelles et donc une intelligence à l’origine des êtres vivants. C’est la vieille analogie de la montre. Dans une montre, l’adéquation « parfaite » de la forme de chacune des pièces à la fonction qu’elle remplit et son agencement harmonieux avec les autres pièces remportent l’admiration et appellent à supposer que l’ensemble provient de la volonté d’un horloger présumé. Dans la nature, le rayon de courbure du cristallin est tel que les rayons lumineux se focalisent précisément en un point de la rétine ; et la merveilleuse adéquation entre forme et fonction ne peut être, dans ce raisonnement analogique, plus efficacement expliquée que par l’hypothèse d’une intelligence conceptrice dès son origine. Les promoteurs modernes du dessein intelligent pensent que la science rénovée, incorporant les causes surnaturelles, doit chercher et dicter ce qui constituera une « éthique naturelle », une « morale naturelle », et que cette science-là sera en mesure de découvrir quels comportements transgressent les buts sous-jacents au dessein intelligent à l’origine de l’espèce humaine. Ce serait donc à cette science de découvrir lesquels de nos comportements, nos mœurs, notre morale, sont voulus par Dieu. La fonction de Think Tank conservateur prend alors toute sa signification : l’avortement et l’homosexualité transgressent l’Intelligent Design de Dieu, notamment par dévoiement des fonctions pour lesquelles nos formes avaient été initialement créées. En donnant une assise prétendument scientifique au « Bien » et au « Mal », le courant du « dessein intelligent » débouche donc sur une sorte de scientisme religieux et théocratique incompatible avec la laïcité. En décembre 2005, l’ID est clairement identifié au « procès de Dover » comme religion déguisée et non comme science, et son enseignement est déclaré anti-constitutionnel.
S’il arrive à des scientifiques d’écrire contre les créationnismes, c’est que ces derniers tentent de s’introduire dans la démarche scientifique, miment les sciences, ou encore font dire aux sciences ce qu’elles n’ont pas à dire. Ces scientifiques ne font alors que leur devoir de citoyens.
La controverse se développe sur Internet largement sous forme de dessins humoristiques, tel celui-ci traduit dans de nombreuses langues.

Carl Gustav Jung

Es un investigador que interesa conocer por sus aportaciones a la psicología, a la filosofía y al estudio de los mitos

Sobre la obra de Jung,el sitio que sigue es lo mejor que hemos encontrado
http://www.philemonfoundation.org/media_resources/watch

libro disponible en e-reading http://books.google.es/books?id=NlTJvU_EbgcC&lpg=PA9&ots=I1Wx63g6GA&dq=gustav%20jung&lr=lang_es&hl=es&pg=PA66&output=embed

debate sobre escuelas religiosas en EEUU


NYRblog : Roving thoughts and provocations from our writers
FUENTE http://www.nybooks.com/blogs/nyrblog/2011/apr/26/bad-arguments-roberts-court-religious-schools/?printpage=true
Bad Arguments: The Roberts Court & Religious Schools
Ronald Dworkin

Doug Mills/The New York Times/Redux
Justices Antonin Scalia, Clarence Thomas, and Ruth Bader Ginsburg leaving the Supreme Court after a ceremony honoring the late Chief Justice William Rehnquist, Washington, D.C., September 2005

Five conservative justices now dominate our Supreme Court—Chief Justice John Roberts and Justices Anthony Kennedy, Antonin Scalia, Clarence Thomas, and Samuel Alito. They continue to revise our historical constitution and two new cases show that the arguments they offer continue to be embarrassingly bad. One concerns contributions to religious schools; the other, public financing of elections. I will describe those cases and defend that criticism, but it might be well to notice, first, why the justices have had to resort to arguments of such poor quality.

We cannot accuse these justices of ignoring the plain meaning of the Constitution. The popular assumption that justices can decide constitutional cases by just consulting the text of that document and the intentions of its eighteenth- and nineteenth-century authors, without relying on their own sense of justice, is simplistic and wrong. Many of the most important constitutional clauses—the First Amendment’s promise of “the freedom of speech,” for instance, its guarantee of “free exercise” of religion, and its prohibition of any religious “establishment”—are drafted in abstract language; justices must interpret those clauses by trying to find principles of political morality that explain and justify the text and the past history of its application. They will inevitably disagree about which principles best satisfy that test, and they will inevitably be influenced, in making that judgment, by their own sense of what a good constitution would provide.

But that does not mean that the justices are free to interpret the abstract clauses of the Constitution to match their own political convictions, whatever these are. In the last few years they have overruled a long series of recent and important precedent decisions and they have reversed several long-standing constitutional traditions. They have flatly prohibited even obviously sensible race-conscious social and educational policies, bolstered government’s support for religion, and progressively narrowed the scope of abortion rights. They have changed the American electoral system to make the election of Republican candidates more likely, for example by guaranteeing corporations a constitutional right to spend as much as they wish denouncing candidates they dislike. As I have argued, these various decisions cannot be justified by any set of principles that offer even a respectable account of our past constitutional history.

Consider the Court’s decision, handed down on April 4, in Arizona Christian School Tuition Organization v. Winn et al. Arizona allows taxpayers to claim, as a full credit against their state income taxes, money they contribute to school tuition organizations (STOs) that provide scholarship funds to private schools of their choosing. Schools that use a religious test for admissions or scholarships are eligible and much of the money contributed to these organizations has gone to such schools. A group of Arizona taxpayers challenged this tax credit: they said that it violates the First Amendment, which forbids states from “establishing” religion. The Ninth Circuit Court of Appeals agreed but the Supreme Court, by a vote of 5–4, reversed its decision. The Court did not decide that the Arizona scheme is constitutional; it decided rather that private citizens have no right—no “standing”—to challenge its constitutionality.

The separation of these two issues—whether an act of government is unconstitutional and whether some person or group has legal standing to challenge it—may sound hair-splitting, but it is an integral part of our constitutional practice. The Constitution provides that the federal courts, including the Supreme Court, have jurisdiction to decide only genuine “cases or controversies” and the Court has interpreted this requirement to mean that only people who have actually been harmed in some way by an act of government are permitted to challenge its constitutionality. That general principle makes good sense. Litigants who have something special at stake are likely to do a better job presenting a constitutional argument than those whose interest is only academic, and the opposite practice—allowing anyone who thinks a statute unconstitutional to bring a lawsuit—might swamp the courts with litigation.

When has a particular citizen actually been harmed by an allegedly unconstitutional act? Am I, a white taxpayer, harmed if my state uses tax money, including my taxes, to subsidize all-white private schools? The Court long ago held no: even if an act is unconstitutional, the financial harm any ordinary taxpayer suffers, just because his taxes were used to enforce it, is too trivial to count. Black schoolchildren have standing to challenge state-supported white schools because the disadvantage is special to them: they, unlike white taxpayers, have been denied the equal protection the Constitution guarantees. But I cannot, for I have not been harmed. The right-wing justices relied on that principle in the Arizona Christian case: since any taxpayer can take a tax credit for any contribution to any STO he chooses, they said, no taxpayer suffers any special disadvantage and so none has standing to sue.

But for many decades the Court has recognized an important exception to this general principle. In 1968, in Flast v. Cohen, the Court decided, with only one dissent, that it does not apply in certain cases like Arizona Christian that arise under the “establishment” clause holding that Congress “shall make no law respecting an establishment of religion.” This decision—known as the Flast exception—makes sense. The other rights set out in the Bill of Rights, including the “free exercise of religion” clause of the First Amendment, are designed to protect people from individualized harm. If government forbids a particular religious practice—the use of peyote in religious ceremonies, for example—some citizens are distinctly disadvantaged and only they should be permitted to challenge the constraint. But the “establishment” clause, uniquely, is different. It is meant to protect all citizens, just as citizens, from any form of state religion. In many such cases, including the Arizona Christian case, a requirement to show special damage would mean that no one would have standing to challenge even an egregious violation of the establishment clause.

Repealing the Flast exception would therefore please social conservatives anxious to increase government support for religion. The five conservative justices took a long step in that direction in the 2007 Hein case in which a group of taxpayers sued to challenge President George W. Bush’s expenditures for his “faith-based initiatives.” Two of those justices—Scalia and Thomas—declared that the Flast exception should be overruled outright on the ground that the constitutional phrase “cases or controversies” allows no exceptions. The three others chose instead to rely on a distinction that the Court had actually rejected in an earlier case: they said that Flast didn’t apply because in Flast the plaintiffs were challenging a congressional expenditure while in Hein they were challenging discretionary spending by the president. But there is absolutely no difference in principle between expenditures by the two branches of government. If one violates the establishment clause so does the other; if taxpayers have standing to challenge one kind they must have standing to challenge the other. To dismiss a precedent with an argument that bad means actually overruling it while pretending not to.

The five conservatives also refused to apply the Flast exception in the new Arizona Christian case. Once again Scalia and Thomas said the exception should be candidly overruled. Once again the three others used a silly distinction to avoid doing that: Kennedy, in an opinion joined by the other two, said that the exception did not apply because the government did not itself contribute any money to religious schools. It only allowed taxpayers a full credit against their taxes if they contributed.

In fact, there is no difference in motive, consequence, or principle between a direct expenditure to a religious school from the state treasury and a full tax credit for those who contribute to a religious school themselves. The STOs that solicited funds told would-be contributors, correctly, that they would be making a gift with other people’s money—that is, with the money the state would have to raise from other people to make up for the taxes forgone through the credit.*

The three justices needed yet another embarrassing claim to complete their case, however. As Justice Elena Kagan pointed out in her devastating dissent, since the Flast decision the Supreme Court had several times accepted, without comment, that ordinary taxpayers have standing to challenge tax advantages that benefit religious organizations. In Committee for Public Education & Religious Liberty v. Nyquist, for example, it struck down tax deduction for payments of tuition at religious schools. (Kagan said she had counted fourteen such cases and “I suspect that I missed a few.”) Kennedy replied that since all the parties and the justices had just assumed, in these past cases, that the Flast exception applied when tax credits rather than direct expenditures were challenged, the Court had not actually ruled on the issue, so he was free to disregard all those decisions. But the Court had had to accept that the taxpayers had standing in these cases in order to accept jurisdiction, so of course the Court’s decisions count as precedents. The fact that all the parties in those cases thought Kennedy’s distinction between direct expenditures and tax credits too silly even to mention should have given him pause, not comfort.

Why, then, did the three conservative justices—Kennedy, Roberts, and Alito—not follow Scalia and Thomas in simply overruling Flast? They would have avoided having to make as many bad arguments as they did. (They would have needed only one.) Roberts and Alito both promised, in their Senate confirmation hearings, to respect precedent. But they both qualified the promise: they would not need to respect past decisions whose rationale had been “undermined” by later decisions. Perhaps they are now engaged in an undermining process, step by step, so they can later justify overruling Flast and other precedents they dislike. Justice Stephen Breyer has called that strategy “death by a thousand cuts.” The strategy might conceivably be at work in the Court’s recent abortion rights decisions as well.

Part two: protecting the power of wealth in politics

* Kennedy tried to defend his distinction through another one. Money that a taxpayer owes in taxes remains his property until the taxes are paid, he said, so that allowing him a tax credit means allowing him to spend his money as he chooses; it does not mean government spending its own money. That assumption is the premise of the extreme right-wing claim that taxation is theft because it forces people to give up their own money. But it is only a bookkeeping matter of no moral significance whether the government withholds tax from paychecks, so that the money it takes is never in a taxpayer’s bank account, or whether it collects tax periodically so that temporarily it is.

April 26, 2011 10:15 a.m.

Copyright © 1963-2011 NYREV, Inc. All rights reserved.

los Derechos Humanos en la Historia ( inglés )

Los Derechos Humanos:uno de los temas que vamos a analizar o debatir, en el curso de un proyecto Comenius( en este participamos institutos de bachillerato de cinco países: España,Polonia,Rumanía,Bulgaria y Turquía ).El título del proyecto es significativo: Between Religions and Ethics.A common ground

Es un tema que ha sido tratado recientemente en la sede de la Fundación Gustavo Bueno, en la ciudad de Oviedo(Asturias,España).
Se planteaba la cuestión de las democracias y las religiones, en los XIV Encuentros de Filosofía. Las tesis fundamentales sostenidas por el Materialismo Filosófico sobre esta cuestión podemos resumirlas en lo siguiente: la moral , la ética y el derecho son vinculados , o bien desde el idealismo de la conciencia, o bien desde el materialismo de la conciencia. El caso de Kant servirá como ejemplo del idealismo en cuanto a la cuestión d elos Derechos Humanos, como derivados de una conciencia autónoma.Desde el materialismo no se acepta la conciencia autónoma, sino que lo que hace que la ética tenga alguna fuerza de obligar está ejercido en la práctica del Derecho positivo y su fuerza de obligar mediante el poder ejecutivo. De hecho, en asuntos de relaciones internacionales, la ONU no tiene capacidad de obligar, sino que , de hecho, opera en función de l apotencia de obligar que algunos Estados miembros pueden tener sobre los demás.( El derecho de veto es un ejemplo claro )

Sin duda, cuando se habla sobre las relaciones internacionales, uno de los critterios esenciales es la referencia a los Derechos Humanos
Y estos derechos incluyen , desde la nematología, todo tipo de derechos que sólo por estar redactados y aprobados por la ONU parecen ya tener un anclaje en la realidad política.Cosa ciertamente poco acorde con los hechos en la mayor parte de los casos en que surgen conflictos , religiosos, económicos,militares,políticos…
Sin embargo, al parecer el referirse a estos Derechos Humanos da siempre un pretigio y barniz democrático, a quienes los refieren en cualquier ámbito.

ARTICULO DE INETERES PARA ESTA TEMATICA
Published on The Nation (http://www.thenation.com)
http://www.thenation.com/article/153993/human-rights-history
Human Rights in History
Samuel Moyn | August 11, 2010

A mere thirty-three years ago, on January 20, 1977, Jimmy Carter inaugurated his presidency by proclaiming from the Capitol steps, “Because we are free we can never be indifferent to the fate of freedom elsewhere…. Our commitment to human rights must be absolute.” Most people had never heard of “human rights.” Except for Franklin Delano Roosevelt in a couple of passing references, no president had really mentioned the concept, and it never had gained much traction around the world either. Carter’s words sparked an intense debate at every level of government and society, and in political capitals across the Atlantic Ocean, about what it would entail to shape a foreign policy based on the principle of human rights.

The concept of rights, including natural rights, stretches back centuries, and “the rights of man” were a centerpiece of the age of democratic revolution. But those droits de l’homme et du citoyen meant something different from today’s “human rights.” For most of modern history, rights have been part and parcel of battles over the meanings and entitlements of citizenship, and therefore have been dependent on national borders for their pursuit, achievement and protection. In the beginning, they were typically invoked by a people to found a nation-state of their own, not to police someone else’s. They were a justification for state sovereignty, not a source of appeal to some authority—like international law—outside and above it.

In the United States, rights were also invoked to defend property, not simply to defend women, blacks and workers against discrimination and second-class citizenship. The New Deal assault on laissez-faire required an unstinting re-examination of the idea of natural rights, which had been closely associated with freedom of contract since the nineteenth century and routinely defended by the Supreme Court. By the 1970s, rights as a slogan for democratic revolution seemed less pressing, and few remembered the natural rights of property and contract that the New Deal had once been forced to challenge. Carter was free to invoke the concept of rights for purposes it had never before served. (Arthur Schlesinger Jr. once called on future historians to “trace the internal discussions…that culminated in the striking words of the inaugural address.” No one, however, yet knows exactly how they got there.)

It looks like Carter was an exception in another sense. He inaugurated the era of human rights in this country, but now it seems to be fading. Bill Clinton dabbled in human rights while outlining a new post–cold war foreign policy, but the Democratic politician now in the White House has spurned them. Few developments seem more surprising than the fact that Barack Obama rarely mentions human rights, especially since past enthusiasts for them like Samantha Power and Anne-Marie Slaughter have major roles in his foreign policy shop. Obama has given no major speech on the subject and has subordinated the concerns associated with human rights, such as taking absolute moral stands against abusive dictators, to a wider range of pragmatic foreign policy imperatives. As his Nobel remarks made plain, Obama is a “Christian realist” inclined to treat human sin, not human rights, as the point of departure for thinking about America’s relation to the world’s many injustices and horrors.

The rise and fall of human rights as an inspirational concept may seem shocking, but perhaps it is less so on second glance. Ever since Carter put human rights on the table, Republican presidents have found uses for them too, typically by linking them to “democracy promotion” abroad. There is no denying the powerful growth of nongovernmental organizations in the United States and around the world that has occurred since slightly before Carter’s time, and impressively ever since. But George W. Bush, placing himself in an almost equally longstanding tradition, invoked human rights as the battle cry for the neoconservative vision of transforming the Middle East and beyond—at the point of a gun, if necessary—perhaps sullying them beyond recuperation. Obama seems to think so. If their current abeyance is surprising, perhaps it’s because of a historical mistake: the belief that human rights were deeply ingrained in American visions of the globe in the first place.

But what about the 1940s, when FDR essentially coined the phrase “human rights” and set in motion a series of events that culminated in the United Nations–sponsored Universal Declaration of Human Rights in 1948? Beginning in the 1990s, when human rights acquired a literally millennial appeal in the public discourse of the West during outbreaks of ethnic cleansing in Southeastern Europe and beyond, it became tempting to treat 1948 as a moment of annunciation, with large political consequences. Carter, and the 1970s, were rarely mentioned. It became common to assume that, ever since their birth in a moment of postgenocidal revulsion and wisdom, human rights had become embedded slowly but steadily in humane consciousness in what amounted to a revolution of moral life. In a euphoric mood, high-profile observers like Michael Ignatieff believed that secure moral guidance, born of incontestable shock about the Holocaust, was on the verge of displacing self-interest and power as the foundation of international relations. In Samantha Power’s “A Problem From Hell”: America and the Age of Genocide (2002), Raphael Lemkin, who crafted the draft resolution of the 1948 Convention on the Prevention and Punishment of the Crime of Genocide, was dusted off as a human rights sage and hero, with Carter earning attention only for failing to intervene against Pol Pot’s atrocities.

In fact, when “human rights” entered the English language in the 1940s, it happened unceremoniously, even accidentally. Human rights began as a very minor part of a hopeful alternative vision to set against Adolf Hitler’s vicious and tyrannical new order. In the heat of battle and shortly thereafter, a vision of postwar collective life in which personal freedoms would coalesce with more widely circulating promises of some sort of social democracy provided the main reason to fight the war.

It’s important to enumerate what human rights, in the 1940s, were not. Ignatieff was wrong. They were not a response to the Holocaust, and not focused on the prevention of catastrophic slaughter. Though closely associated with the better life of social democracy, only rarely did they imply a departure from the persistent framework of nation-states that would have to provide it.

Above all, human rights were not even an especially prominent idea. Unlike later, they were restricted to international organization, in the form of the new United Nations. They didn’t take hold in popular language and they inspired no popular movement. Whether as one way to express the principles of Western postwar societies or even as an aspiration to transcend the nation-state, the concept of human rights never percolated publicly or globally during the 1940s with the fervor it would have in the ’70s and the ’90s, including during negotiations over the Universal Declaration.

What if the 1940s were cut loose from the widespread myth that they were a dry run for the post–cold war world, in which human rights began to afford a glimpse of the rule of law above the nation-state? What if the history of human rights in the 1940s were written with later events given proper credit and a radically different set of causes for the current meaning and centrality of human rights recaptured? The central conclusion could only be that, however tempting, it is misleading to describe World War II and its aftermath as the essential source of human rights as they are now understood.

From a global perspective, the brief career of human rights in the 1940s is the story of how the Allied nations elevated language about human rights as they reneged on the earlier wartime promise—made in the 1941 Atlantic Charter—of the self-determination of peoples. Global self-determination would have spelled the end of empire, but by war’s end the Allies had come around to Winston Churchill’s clarification that this promise applied only to Hitler’s empire, not empire in general (and certainly not Churchill’s). The Atlantic Charter set the world on fire, but because similar language was dropped from the Universal Declaration, human rights fell on deaf ears. It is not hard to understand why. Human rights turned out to be a substitute for what many around the world wanted: a collective entitlement to self-determination. To the extent they noticed the rhetoric of human rights at all, the subjects of empire were not wrong to view it as a consolation prize.

But even when it comes to the Anglo-American, continental European and second-tier states where human rights had at least some minor publicity, the origins of the concept need to be treated within a narrative explaining not their annunciation but their general marginality throughout the mid- to late 1940s. In the beginning, as a vague synonym for some sort of social democracy, human rights failed to address the genuinely pressing question of which kind of social democracy to bring about. Should it be a version of welfarist capitalism or a full-blown socialism? A moral language announcing standards above politics offered little at a moment in world history of decisive political choice. By 1947–48 and the crystallization of the cold war, the West had succeeded in capturing the language of human rights for its crusade against the Soviet Union; the language’s main advocates ended up being conservatives on the European continent. Having been too vague to figure in debates about what sort of social democracy to bring about in the mid-1940s, human rights proved soon after to be just another way of arguing for one side in the cold war struggle. Never at any point were they primarily understood as breaking fundamentally with the world of states that the United Nations brought together.

In considering the origins and peripheral existence of the concept of human rights, the focus should be on the formation of the United Nations, since until not long before Carter’s declaration human rights were a project of UN machinery only, along with regionalist initiatives, and had no independent meaning. Yet the founding of the United Nations, and the forging of its Universal Declaration, actually presents a very different story line from the one that actors in the drama of human rights in the 1990s would have us believe.

Recall that FDR had to be cajoled into accepting the idea of an international organization. In the Dumbarton Oaks documents, the startling outlines of a prospective international organization for the postwar era discussed by the Allies in 1944, it was clear that the wartime rhetoric that sometimes included the new phrase “human rights” masked the agendas of great-power realism. And the campaign by various individuals and groups up to and during the epoch-making San Francisco conference on the United Nations in mid-1945 to alter this tactic failed spectacularly, despite the symbolic concession of the reintroduction of the concept of human rights into the charter written there. The victorious wartime alliance had been enshrined as the security council of the new world government, as its seat of true authority, and while some minor states and private citizens attempted to resist a UN that would simply entrench and balance the power of the war’s victors, they did not succeed.

If a heroic view of human rights is familiar, it is because of two common but untenable ways of remembering the period. The first is to overstate—often drastically—the goals and effects of the campaign against the Dumbarton Oaks settlement. The second is to isolate the path toward the Universal Declaration as a road still traveled, even if the cold war temporarily erected a barrier on it. But instead of a rousing story of how the document emerged against all odds, one needs to tell an unflattering story about why no one cared about it for decades. As an early NGO chief, Moses Moskowitz, aptly observed later, the truth is that human rights “died in the process of being born.” Why they were born again for our time is therefore the true puzzle.

The United States, which had helped drive the global inflation of wartime hopes, quickly retreated from the language it had helped to introduce, leaving Western Europe alone to cultivate it. Even there—especially there—the real debate in domestic politics was about how to create social freedom within the boundaries of the state. Coming after the announcement of the Truman Doctrine in March 1947, with its call for a decisive choice between two “alternative ways of life,” the passage of the Universal Declaration in December 1948 offered the mere pretense of unity at a crossroads for humanity. And already by that point, with most emphasis on the right of conscience, European conservatives had captured the language of human rights by deploying it as a synonym for moral community that secularism (and the Soviets) threatened, while few others learned to speak it.

In any case, “human rights” meant something different in the 1940s. Despite its new international significance, its core meaning remained as compatible with the modern state as the older tradition of the domestic rights of man had been. Both were the background principles of the nations united by them. In this sense, if in few others, “human rights” preserved a memory of the “rights of man and citizen” more than summoning a utopia of supranational governance through law. The inclusion of social and economic rights in the mid-1940s very much mattered: still relevant rights to economic security and social entitlements were prominent and, unlike now, surprisingly consensual. But they were earlier products of citizenship struggles, and have still barely affected the international order.

From another view, however, the postwar moment gave the antique idea of declaring rights an altogether new cast: neither a genuine limitation of prerogative, as in the Anglo-American tradition, nor a statement of first principles, as in the French, the Universal Declaration emerged as an afterthought to the fundamentals of world government it did nothing to affect. No one registered this fact more clearly than the lone Anglo-American international lawyer still campaigning for human rights in 1948, Hersch Lauterpacht, who denounced the Universal Declaration as a humbling defeat of the ideals it grandly proclaimed.

After the 1970s, and especially after the cold war, it became usual to regard World War II as a campaign for universal justice, with the shock of the discovery of the camps prompting unprecedented commitment to a humane international order. Rather than Moskowitz’s story of death in birth, the proclamation of human rights became one of birth after death, especially Jewish death. In the postwar moment, however, across weeks of debate around the Universal Declaration in the UN General Assembly, the genocide of the Jews went unmentioned, despite the frequent invocation of other dimensions of Nazi barbarity to justify specific items for protection, or to describe the consequences of leaving human dignity without defense.

The more recent phenomenon of Holocaust memory has also encouraged a mystified understanding of the Nuremberg trials, which in reality contributed to the ignorance of the specific plight of the Jews in the recent war rather than establishing a morally familiar tradition of responding to mass atrocity. The 
Allies coined the new penal concept of “crimes against humanity” in the days between Hiroshima and Nagasaki, as they struggled with how to treat the defeated enemy elites. But on the rare occasion the notion referred to the Jewish tragedy, it got short shrift at Nuremberg, at a time when the West knew little and cared less about the Holocaust, and the Soviets wanted patriotic and antifascist victims rather than Jewish ones.

The concept of human rights was not prominently invoked in the proceedings. It is not at all obvious that, at the time, Nuremberg and related legal innovations like the genocide convention were conceived as part of the same enterprise as the itemization of human rights, let alone falling under their umbrella—though they are now often inaccurately described as if they were a single, though multifaceted, achievement. Lemkin, the main force behind the genocide convention, understood his campaign to be at odds with the UN’s human rights project. In any case, Lemkin’s project was even more marginal and peripheral in the public imagination than the Universal Declaration, passed by the General Assembly the day after the passage of the genocide resolution.

If there is a pressing reason to return to the history of human rights in the 1940s, it is not because of their importance at the time. The Universal Declaration was less the annunciation of a new age than a funeral wreath laid on the grave of wartime hopes. The world looked up for a moment. Then it returned to the postwar agendas that had crystallized at the same time that the United Nations emerged. A better way to think about human rights in the 1940s is to come to grips with why they had no function to play then, compared with the ideological circumstances three decades later, when they made their true breakthrough.

During that interval, two global cold war visions separated the United States and the Soviet Union, and the European continent they were splitting between themselves. The struggle for the decolonization of empire—movements for the very self-determination that had been scuttled as human rights rose—made the cold war competition global, even if some new states strove to find an exit from its rivalry to chart their own course. Whereas the American side dropped human rights, both the Soviet Union and anticolonialist forces were more committed to collective ideals of emancipation like communism and nationalism as the path into the future. They did not cherish individual rights directly, to say nothing of their enshrinement in international law. Utopian ideals were not lacking, but human rights were not one of them.

During the 1960s crisis of superpower order, the domestic consensus in the East and West around the terms of the cold war began to fracture. Without ever dying in the East, the dream of “building socialism” lost its appeal, while in the West the anxieties of the cold war and early worries about its costs drove a new generation to depart from the postwar consensus. Yet in the ensuing explosion of dissent, it was not human rights but other utopian visions that prospered. There were calls for community at home to redeem the United States from hollow consumerism; for “socialism with a human face” in the Soviet empire; for further liberation from “neocolonialism” in the third world. At the time, there were next to no nongovernmental organizations that pursued human rights; Amnesty International, a fledgling group, remained practically unknown. From the 1940s on, the few NGOs that did include human rights on their agenda worked invisibly and bureaucratically for them within the UN’s framework, but their failure over thirty years to become prominent, let alone effective, confirmed the agonizing fruitlessness of this project. As Moskowitz observed bitterly in the early ’70s, the human rights idea had “yet to arouse the curiosity of the intellectual, to stir the imagination of the social and political reformer and to evoke the emotional response of the moralist.” He was right.

But within one decade, human rights would begin to be invoked across the developed world and by many more ordinary people than ever before. Instead of implying what they had come to mean at the United Nations by the 1960s—further colonial liberation—human rights were used by new forces on the ground, like NGOs, and most often meant individual protection against the state and by some authority above it. Amnesty International became visible and, as a beacon of new ideals, won the Nobel Peace Prize in 1977—in America, Carter’s year—for its work. The popularity of its mode of advocacy forever transformed the basis for agitating for humane causes, and spawned a brand and age of internationalist citizen engagement.

At the same time, Westerners left the dream of revolution behind, both for themselves and for the third world they had once ruled, and adopted other tactics, envisioning an international law of human rights as the steward of utopian norms and the mechanism of their fulfillment. Even politicians, Carter towering over them all, started to invoke human rights as the guiding rationale of the foreign policy of states; for Americans, it was a moment of recovery from Henry Kissinger’s evil as well as the foreign policy, hatched by Democrats before Kissinger took power, that had led to the Vietnam disaster. After Amnesty won a Nobel Prize, other NGOs began to sprout: Helsinki Watch—now Human Rights Watch—emerged the next year.

Most visible of all, the public relevance of human rights skyrocketed, as measured by the simple presence of the phrase in the newspaper, ushering in the recent supremacy of the notion compared with other schemes of freedom and equality. In 1977 the New York Times featured the phrase “human rights” five times more frequently than in any prior year. The moral world had changed. “People think of history in the long term,” Philip Roth says in one of his novels, “but history, in fact, is a very sudden thing.” Never has this been truer than when it comes to the history of human rights.

But how to explain the recent origins of what now looks like a short-lived faith? The designation of the 1940s as the era when contemporary global commitments were born is one version of a larger mistake. The roots of contemporary human rights are not to be found where pundits and professors have longed to find them: neither in Greek philosophy nor monotheistic religion, neither in European natural law nor early modern revolutions, neither in horror against American slavery nor Hitler’s Jew-killing. The temptation to ransack the past for such “sources” says far more about our own time than about the thirty years after World War II, during which human rights were stillborn and then somehow resurrected.

Human rights came to the world in a sort of gestalt switch: a cause that had once lacked partisans suddenly attracted them in droves. While accident played a role in this transformation, as it does in all human events, what mattered most was the collapse of universalistic schemes and the construction of human rights as a persuasive “moral” alternative to them. These prior universalistic schemes promised a free way of life but led to bloody morass, or offered emancipation from capital and empire but were now felt to be dark tragedies rather than bright hopes. They were the first candidates for replacing the failed premises of the early postwar order, but they failed too. In this atmosphere, an internationalism revolving around individual rights surged. Human rights were minimal, individual and fundamentally moral, not maximal, collective and potentially bloody.

Given its role in the 1940s, the United Nations had to be bypassed as human rights’ essential institution for them to matter. The emergence of new states through decolonization, earth-shattering in other respects for the organization, changed the meaning of the very concept of human rights but left it globally peripheral. It was, instead, only in the 1970s that a genuine social movement around human rights made its appearance, seizing the foreground by transcending government institutions, especially international ones. It, too, emphasized that human rights were a moral alternative to the blind alleys of politics.

To be sure, there were a number of catalysts for the explosion: the search for a European identity outside cold war terms; the reception of Soviet and later Eastern European dissidents by Western politicians, journalists and intellectuals; and the American liberal shift in foreign policy in new, moralized terms, after the Vietnam catastrophe. Equally significant, but more neglected, were the end of formal colonialism and a new view toward the third world. Empire was foreclosed, yet romantic hopes for decolonization were also smashed and the era of “failed states” was opening.

There is a great irony in the emergence of human rights as the last utopia when others failed. The moral claim to transcend politics that led people to ignore human rights in the 1940s proved to be the cause of the revival and survival of human rights three decades later, as “ideology” died. Not surprisingly, it was then that the phrase “human rights” became common parlance. And it is from that recent moment that human rights have come to define the hopes of the present day.

Beyond myth, the true history of human rights matters most of all so that we can confront their prospects today and in the future. A few holdouts aside, progressives have fully adopted human rights into—or even as another phrase for—their politics in the past few decades. And they are correct to do so, since many specific rights, such as principles of equality and well-being, or entitlements to work and education, are those whose content they have defended across modern history. Finally, there is no gainsaying the widespread germination and ambitious agendas of NGOs in the thirty years since human rights came to the world, most of which attempt pressing changes with the most honorable of intentions. All the same, to date human rights have transformed the terrain of idealism more than they have the world itself.

Moreover, human rights have many faces and multiple possible uses. As much as they call for social concern, they anchor property—the principle of rights having been most synonymous with this protection for most of modern history. They were put to use in the name of neoconservative “democracy promotion” and have justified liberal warfare and “intervention.” They serve as the brand name for diverse schemes of global governance in which vulnerability and inequality persist. Tea Party Express chair Mark Williams recently claimed that his movement “is a Human Rights Movement (by virtue of being based on the greatest expression of Human Rights ever devised by our mortal hand—the United States Constitution).” What may matter is less the idea of human rights than its partisan interpretations and applications, which are inevitable.

If so, why persist in upholding the fiction that human rights name an inviolable consensus everyone shares? Like all universalist projects, human rights are violated every time they are interpreted and transformed into a specific program. Because they promise everything to everyone, they can end up meaning anything to anyone. Human rights have become an ideology—ours—except that, as in the 1940s, it is now difficult to see how the pretense of agreement can help when there is no consensus about how, or even whether, to change the world.

This contemporary dilemma has to be faced squarely; yet history as a celebration of origins will not offer any guidance. To be sure, Obama’s “Christian realism” is dubious too, and is no alternative to the human rights mindset of his recent Democratic predecessors. Carter and Obama have been the most assiduous presidential readers of Reinhold Niebuhr. But while Carter found in the Protestant divine the courage to indict national sin, Christian realism too often allows Americans to feel like children of light alone, facing darkness abroad rather than in themselves. Yet Obama’s initially surprising caution toward human rights remains useful: it suggests that the faith in the notion may be less deeply rooted than we thought, and not at all necessary. The real question is what to do with the progressive moral energy to which human rights have been tethered in their short career. Is the order of the day to reinvest it or to redirect it?

In his recent manifesto for a reclaimed social democracy, Ill Fares the Land, my late colleague Tony Judt stirringly calls for a revival of an unfairly scuttled domestic politics of the common good. Judt argues that if the left, after a long era of market frenzy, has lost the ability to “think the state” and to focus on the ways that “government can play an enhanced role in our lives,” that’s in part because the ruse of international human rights lured it away. The antipolitics of human rights “misled a generation of young activists into believing that, conventional avenues of change being hopelessly clogged, they should forsake political organization for single-issue, non-governmental groups unsullied by compromise.” They gave up on political tasks, Judt worries, for the satisfying morality of Amnesty International and other human rights groups.

Whether or not this description is correct, the retreat to the state as the forum of imagination and reform is not made any more plausible as a next step. After all, midcentury social democracy had its own global context. And today, as Judt points out, “The democratic failure transcends national boundaries.” So it is definitely not a matter of choosing the state against the globe but of deciding how to connect our utopian commitments to make both more just, each goal being the condition of the other. The question remains not whether to have a language and strategy to confront a flawed world beyond our national borders; it is which language and strategy to choose.

One thing is for sure: the lesson of the actual history of human rights is that they are not so much a timeless or ancient inheritance to preserve as a recent invention to remake—or even leave behind—if their program is to be vital and relevant in what is already a very different world than the one into which they exploded. It is up to us whether another utopia should take the place of human rights, just as they emerged on the ruins of prior dreams.
Source URL: http://www.thenation.com/article/153993/human-rights-history