El progreso de la humanidad: razones para ser optimistas

Por Claudio Di Gregorio

Los medios abundan en malas noticias: despidos, pobreza, más desigualdad económica, calentamiento global y contaminación ambiental, nuevas enfermedades, más terrorismo y guerras en distintas regiones. Homicidios, hambre en África, inundaciones, pandemias, crisis de refugiados, cada vez más químicos en nuestros alimentos… el mundo pareciera estar al borde del colapso —ya vienen el Armagedón y Jesucristo. ¿Deberíamos volver al pasado bucólico de nuestros abuelos o bisabuelos? Quienes lo proponen no saben cómo se vivía antes de la Revolución Industrial: sin medicamentos ni antibióticos o agua potable, sin alimentos suficientes, electricidad o sistemas sanitarios.

Al contrario de lo que creemos, el progreso en las últimas décadas no tiene precedentes. Estamos ante el mayor ascenso en los estándares de vida globales que se haya producido nunca. La pobreza, la desnutrición, el analfabetismo, el trabajo infantil y la mortalidad infantil están cayendo más rápido que en cualquier otro momento en la historia humana. El riesgo de que un individuo sea expuesto a la guerra, muera en un desastre natural o caiga bajo una dictadura es menor que en cualquier otra época.

Hay muchos indicadores de que el pesimismo no se justifica. Veamos unos cuantos:

¿Somos más pobres?

Quizás sí en algunos puntos del planeta —como Argentina o Haití— pero no globalmente. En los últimos 50 años, la pobreza mundial cayó más que en los 500 años precedentes. Desde hace 25 años, salen de la pobreza extrema 138 mil personas por día.

Se calcula que el PIB creció solo 50 % desde el nacimiento de Cristo a 1820. En 1820, el PIB per cápita en lo mejor de Europa Occidental era menor que el actual de Mozambique o Pakistán; desde entonces, el PIB per cápita en Occidente aumentó más de 15 veces. Desde 1950, el PIB per cápita de India se ha multiplicado por 5, el de Japón 11 veces y el de China casi 20 veces: casi 9 de cada 10 chinos vivían en extrema pobreza en 1981; hoy, solo 1 de cada 10.

Los países ricos progresaban más rápido que los pobres, pero desde 2000 los países en desarrollo crecieron más rápido, al 3 % anual. En una década, el ingreso per cápita en los países de ingresos bajos y medios del mundo se duplicó. El 28 de marzo de 2012 fue el primer día en la historia en que los países en desarrollo tuvieron más de la mitad del PIB mundial.

En 1820, el 94 % de la población mundial vivía en la pobreza extrema. En 2015, solo el 12 % del mundo seguía en pobreza extrema.

En el 2000, las Naciones Unidas plantearon el objetivo de que en 2015 la pobreza extrema sea la mitad de la de 1990. La meta se cumplió 5 años antes de la fecha límite.

Expectativa de vida

Un hombre prehistórico, un griego o un romano del imperio tenían una esperanza de vida de 20 a 30 años. Haití, uno de los pocos países que hoy es más pobre que en 1950, en realidad tiene una mortalidad infantil más baja que la que tenían los países más ricos del planeta en 1900.

La esperanza de vida al nacer aumentó más del doble en el último siglo que en los 200.000 años anteriores. Un chico nacido hoy tiene más probabilidades de llegar a la jubilación que sus antecesores hasta el quinto año de vida. Al inicio de la guerra en 1964, EE. UU. y Vietnam tenían muy distintas expectativas de vida; en 2003 se igualaron. La prosperidad es importante: ningún país con ingreso per cápita superior a 10 mil dólares tiene una tasa de mortalidad infantil superior al 2%.

¿Mueren de hambre en el África subsahariana?

Los europeos del siglo 18 recibían menos calorías que el promedio subsahariano de hoy, y sus hambrunas eran crónicas o periódicas. Hace un siglo las familias gastaban casi todo su ingreso en alimentos; hoy pesan cinco veces menos en la canasta familiar.

Mil millones le deben la vida a la Revolución Verde de Norman Borlaug, de mediados de siglo, y 2 mil millones han dejado de tener hambre desde 1990.

¿El mundo es cada vez más violento?

En las invasiones mongoles del siglo XIII habría muerto una de cada 8 personas del mundo. En las caídas de Roma (siglos III a V) y de la dinastía Ming (siglo XVII) murieron proporcionalmente dos veces más que en la Segunda Guerra Mundial.
En Europa desde 900 d.C. había dos guerras nuevas por año, y en los 500 años que terminaron en 1938 hubo más de 2 mil guerras en el resto del mundo.

La guerra y la violencia eran el estado natural. Un 15 % de los cavernícolas tuvo una muerte violenta; 34 de los 49 primeros emperadores romanos y uno de cada ocho regentes europeos del 600 al 1800 fueron asesinados en el cargo. El sacrificio humano era común en la antigüedad. La tortura era aplicada por las autoridades —ceguera, hierro ardiente, amputaciones— y las ejecuciones eran orgías de sadismo, pero ambas fueron derogadas en casi todo el mundo. Los reyes lograron impedir las guerras civiles, y la justicia reemplazó la venganza personal. En 1828 se crea la policía. El aumento del comercio transformó al prójimo, de amenaza a cliente.

Las guerras duraban años, pero las cuatro con grandes poderes en el último cuarto del siglo XX duraron en promedio 97 días. En las guerras entre países morían unas 86 mil personas en los años 50; hoy mueren poco más de 3 mil. Las guerras civiles actuales matan a menos de un tercio de las cifras que en los años 60 a 80.

El siglo XXI ha estado más libre de genocidio que nunca. El terrorismo es espectacular, pero de los 457 grupos terroristas activos desde 1968, ninguno logró conquistar un Estado y el 94 % de ellos no logró ni siquiera uno de sus objetivos.

Somos los destructores del medio ambiente

No tanto. En 1972, el Club de Roma advirtió que los contaminantes aumentaban exponencialmente, pero pronto la contaminación no solo dejó de aumentar, sino que comenzó a disminuir dramáticamente. Según la agencia ambiental de Estados Unidos, de 1980 a 2014 las emisiones totales de los seis principales contaminantes del aire se redujeron, en promedio, en más de dos tercios. La emisión de plomo, caso extremo, cayó un 99 %.

La deforestación se detuvo en los países ricos. El área forestal de Europa y de Estados Unidos viene creciendo desde 1990, y en el resto la pérdida anual de bosques es casi cero. En China, los bosques aumentan en más de 2 millones de hectáreas por año. La deforestación de la Amazonia brasileña disminuyó un 70 % desde 2005.

En 1975 se calculó que la mitad de las especies del planeta se habrían extinguido, pero la Unión Internacional para la Conservación de la Naturaleza hoy enumera solo 709 especies extinguidas desde 1500. Las áreas protegidas casi se duplicaron entre 1990 y 2013, y ahora el área mundial es dos veces los Estados Unidos.

Los autos son más limpios: un auto moderno en marcha contamina menos que un auto de los años 70 apagado, cuando se fugaba vapor de gasolina.

En 1972 dijeron que el cobre se agotaría en 36 años. Hoy estimamos que nos quedan entre 100 y 200 años de cobre.

¿Estamos envenenando nuestra salud?

Quizás la fiebre tifoidea haya matado uno de cada tres atenienses y acabado con su civilización. La Peste Negra del siglo XIV mató a un cuarto de los europeos. Cuando Napoleón se retiró de Moscú en 1812, más de 400.000 de sus 500.000 soldados murieron de neumonía, tifus y disentería.

Desde hace 25 años, 285.000 nuevas personas ganan acceso a agua potable cada día, quizás el mayor factor de eliminación de enfermedades, seguido por los antibióticos y las vacunas. La viruela mataba millones; hoy no existe. Medicamentos baratos frenaron las enfermedades cardiovasculares.

Hoy el cáncer es más frecuente, pero eso ocurre porque en promedio ataca a los 65 años, y antes no vivíamos hasta esa edad. Además, los tratamientos mejoran: las tasas de muerte por cáncer han disminuido un 22 % en las últimas 2 décadas. La Organización Mundial de la Salud estima que la contaminación y los químicos en nuestro medio ambiente no representan más del 3 % de todos los cánceres, incluidos los cánceres laborales. La Academia Nacional de Ciencias de EE. UU. opina que los componentes sintéticos de nuestra dieta podrían ser más seguros que los componentes naturales.

El peor problema en los países pobres no viene de la tecnología y la riqueza, sino de su falta: sin electricidad ni gas, miles de millones cocinan quemando leña, estiércol y carbón en ambientes cerrados, y eso causa enfermedades respiratorias agudas y mata a una persona cada 10 segundos en el mundo.

¿Somos prisioneros del sistema capitalista?

Para el Antiguo y el Nuevo Testamento la esclavitud es una institución natural y establecida. Hasta el siglo XIX, no era ilegal en ningún lado. Se sigue practicando en algunas zonas, pero desde 2007 es un delito en todo el mundo. La segregación ha desaparecido de las democracias occidentales.
En 1900, nadie vivía en una democracia que alcanzase a todo hombre, mujer o nativo. Hoy la democracia es la regla en Occidente, y en los catorce países de la ex Unión Soviética.
Además, entramos al mundo laboral más tarde, trabajamos menos horas por semana, nos jubilamos antes y vivimos más tiempo después de la jubilación. La población mundial crece, pero la tasa de desempleo cae.

Nuestra visión de la homosexualidad

Hasta mediados del siglo XX era un delito en muchos países, y en el pasado a menudo se pagaba con mutilación y con la vida, lo que aun ocurre en algunos países islámicos. Pero no solo ya no es delito en el mundo civilizado, sino que desde 1973 no se la considera trastorno mental.

¿Cada día somos más ignorantes?

En 1820, según la OCDE, solo el 12 % de la población mundial podía leer y escribir; hoy solo el 14 % de los adultos no puede leer y escribir. Y los países pobres alcanzan a los ricos: en 1900 tenían 1/8 del nivel de alfabetización de los países ricos; ahora es la mitad.

En América Latina, la educación primaria aumentó de 23 % en 1900 al 94 % en 2010. Tras la Segunda Guerra Mundial, el coeficiente de inteligencia promedio era de 100; en 1972 fue de 108, y en 2002, de 118,5. Antes, ninguna mujer iba a la universidad; hoy más mujeres van que hombres.

¿Se exagera con el feminismo?

Quizás sí, pero el retraso era largo: durante casi toda la historia, las mujeres fueron propiedad de sus padres primero, y luego de sus maridos. No podían votar, tener propiedades, controlar sus propios cuerpos, recibir educación o trabajar fuera del hogar. Incluso podían ser compradas y vendidas.

Si nuestra hija o nuestra hermana venía a nuestra casa escapando de un marido violento, podríamos haber ido a la cárcel por albergarla. Debíamos devolverla a su marido golpeador. El cambio de mentalidad ha sido tal que los hombres de hoy son más feministas que las mujeres en los años 70.

Hay demasiados pobres niños maltratados

Cierto, pero el pasado era mucho peor: desde siempre el trabajo de niños muy chicos fue natural. Los padres recurrían a ellos no porque fueran malos, sino porque eran muy pobres y necesitaban el trabajo de sus hijos para alimentar a la familia. Aun en 1950, la tasa de trabajo infantil en China era del 48 %, en India 35 %, en África 38 %, y en un país más rico como Italia, del 29 %.

Según la Organización Internacional del Trabajo, del 2000 al 2012 los trabajadores infantiles disminuyeron de 245 a 168 millones: 40% menos niñas y 25% menos varones. Y la proporción de chicos en trabajos peligrosos o insalubres cayó dos tercios.

Hemos progresado más en estos 100 años que en los previos 100 mil. La mayor parte de la reducción de la mortalidad humana ocurrió en las últimas cuatro de las 8 mil generaciones de Homo sapiens, desde que evolucionamos hace 200 mil años.

La humanidad pudo hacer todo esto cuando muy pocos tenían acceso a una fracción del conocimiento y podían colaborar solamente con gente cercana. Imaginemos lo que va a pasar ahora, que somos miles de millones conectados. Todavía hay enormes problemas —como la crisis de los refugiados, el cambio climático o el aumento de la desigualdad en la mayor economía mundial— pero ahora tenemos más cerebros que nunca, inventando posibles soluciones.

En física, la velocidad de escape es la velocidad que necesita un objeto para liberarse de la fuerza gravitacional de un cuerpo. La humanidad ha alcanzado la velocidad de escape.


 

Quien desee profundizar en el tema puede descargar la versión in extenso de este artículo. También dispone del ciclo de recientes audiciones del Observatorio Racionalista sobre “El progreso humano”, empezando por la segunda parte del programa del 9 de febrero de 2019 (“La neutralidad positiva”).

Recomiendo también sitios web como Our World in Data de Max Roser; Gapminder de Hans Rosling (contra las percepciones erróneas); OECD Historical Statistics, el del Banco Mundial y los de la ONU y sus agencias.

Finalmente, estos libros:

  • Amartya Sen, Development as Freedom, 1999.
  • Charles Kenny, Getting Better, Why Global Development Is Succeeding, 2012.
  • Henry George, Progress and Poverty, 2006.
  • Henry Grady Weaver, The Mainspring of Human Progress, 1953-1965.
  • Joel Mokyr, The Lever of Riches. Technological Creativity and Economic Progress, 1992.
  • Johan Norberg, Progress: Ten Reasons to Look Forward to the Future, 2016.
  • Matt Ridley, The Rational Optimist: How Prosperity Evolves, 2010.
  • Otto L. Bettman, The Good Old Days: They Were Terrible, 1974.
  • Peter H. Diamandis & Steven Kotler, Abundance: The Future is Better Than You Think, 2012.
  • Robert William Fogel, The Escape From Hunger and Premature Death, 2004.
  • Ronald Bailey, The End of Doom: Environmental Renewal in the Twenty-First Century, 2015.
  • Ruth DeFries, The Great Ratchet: How Humanity Thrives in the Face of Natural Crisis, 2014.
  • Steven Pinker, The Better Angels of Our Nature, 2011.
  • Indur M. Goklany, The Improving State of the World, 2007.

Psicoanálisis a un siglo de distancia

Por: Mario Bunge

Del libro 100 ideas

El psicoanálisis nació a la luz en 1900, con la publicación de La interpretación de los sueños, de Sigmund Freud. Ernest Jones, su fiel discípulo inglés y principal biógrafo, nos cuenta que este libro, al que Freud siempre consideró su obra maestra, se reeditó ocho veces en vida de su autor. Y afirma que «No se hizo ningún cambio fundamental, ni hubo necesidad de hacerlo».

Semejante inmutabilidad basta para despertar la sospecha de cualquier mente crítica. ¿Por qué no fue necesario modificar nada esencial en una doctrina psicológica en el curso de tres décadas? ¿Será porque no hubo investigación psicoanalítica de los sueños? ¿O porque el primer laboratorio de estudios científicos de los sueños fue fundado recién en 1963, en la Universidad de Stanford, y sin la participación de psicoanalistas? Y si es así, ¿no será que el psicoanálisis es más literatura fantástica que ciencia?

Éste no es el lugar adecuado para hacer una investigación detallada de la teoría ni de la terapia freudianas: esta tarea ya fue hecha por docenas de psicólogos y psiquiatras científicos, de esos que no predican en los templos psicoanalíticos que son ciertas facultades de psicología latinoamericanas. Me limitaré a resumir una decena de resultados de esos análisis de algunos de los mitos más populares inventados por Freud. Helos aquí.

1. Inferioridad intelectual y moral de la mujer, envidia del pene, complejo de castración, orgasmo vaginal y normalidad del masoquismo femenino. Puros cuentos. No hay datos clínicos ni experimentales que los avalen. Lo único que hay son efectos psicológicos de la discriminación contra la mujer en la sociedad actual. Pero éstos están desapareciendo a medida que, contrariamente al notorio machismo de Freud, se va reconociendo la paridad de los sexos.

2. Todo sueño tiene contenido sexual, ya manifiesto, ya latente. Incomprobable, ya que, si en un sueño no aparece nada sexual, el analista “interpretará” algo en el sueño como símbolo sexual. Pero otro analista lo “interpretará” de manera diferente. Al igual que los viejos almanaques de los sueños, los psicoanalistas no exhiben pruebas de sus interpretaciones; pero, a diferencia de aquellos, los psicoanalistas no proponen reglas explícitas que sirvan, por ejemplo, para jugar a la quiniela.

3. Complejos de Edipo y de Electra, y represión de los mismos. No hay datos fidedignos, ni clínicos ni antropológicos, que indiquen la existencia de esos complejos. En cuanto a la hipótesis de la represión, sólo sirve para proteger las hipótesis precedentes: cuanto más enfáticamente niego odiar a mi padre, tanto más fuertemente confirmo que lo odio. Que es como decir que el campo gravitatorio es tanto más intenso cuanto menos acelere a los cuerpos en caída.

4. Todas las neurosis son causadas por frustraciones sexuales o por episodios infantiles relacionados con el sexo (p. ej., abuso sexual y amenaza de castración).Pura fantasía. La frustración sexual causa estrés, no neurosis (las que, por lo demás, no fueron bien definidas por Freud). No se ha probado que los abusos sexuales sufridos durante la infancia dejen huellas más profundas que privaciones, palizas, humillaciones u orfandad. Tampoco es plausible que todo olvido resulte de la censura por parte del fantasmal superyó. Se olvida lo que no se refuerza. Lo que sí se ha probado es que la llamada técnica de “recuperación” (implantación) de recuerdos reprimidos fue un pingüe negocio. En todo caso, los trastornos psicológicos tienen múltiples fuentes y, por tanto, múltiples tratamientos posibles. Algunos de ellos (p. ej., micción nocturna y fobias) se tratan exitosamente con terapia de la conducta. Otros (p. ej., depresión y esquizofrenia) responden a drogas. Y otros más (p. ej., violencia patológica) pueden necesitar intervención quirúrgica (en la tiroides o en la amígdala cerebral).

5. La violencia (guerra, huelga, etcétera) es la válvula de escape de la represión del instinto sexual. Salvo en casos patológicos, tratables con neurocirugía, la violencia tiene raíces sociales y culturales: pobreza, expansión económica, fanatismo político o religioso, etcétera. Por tener causas sociales, la violencia colectiva tiene remedios sociales. Por ejemplo, la delincuencia disminuye con la ocupación.

6. Sexualidad infantil. Mito. En efecto, la sexualidad reside en el cerebro, no en los órganos genitales. Sin hipotálamo ni las hormonas que éste sintetiza (oxitocina y vasopresina) no habría deseo ni placer sexuales. Y el cerebro infantil no tiene la madurez fisiológica necesaria para sentir placer sexual. Para entender la sexualidad hay que hacer investigaciones psiconeuroendocrinológicas y antropológicas, en lugar de fantasear incontroladamente.

7. El tipo de personalidad es efecto del modo de aprendizaje del control de los esfínteres. Falso. La investigación ha mostrado la inexistencia de esta correlación: las personalidades “oral” y “anal” son producto de la fantasía incontrolada de Freud. Hay muchos tipos de personalidad, y todos son producto del genoma, del ambiente y del propio esfuerzo. Más aún, lejos de ser inalterable, la personalidad puede ser transformada radicalmente por enfermedades cerebrales, accidentes cerebrovasculares, drogas y reaprendizaje.

8. Los actos fallidos (lapsos de la lengua) revelan deseos reprimidos. Sólo en algunos casos, y son los menos. La mayoría de las transposiciones de palabras son errores inocentes. Para provocarlas deliberadamente se arman los trabalenguas. Además, algunos sujetos son más propensos que otros a cometerlas.

9. El superyó reprime todos los deseos y recuerdos vergonzosos, los que se almacenan en el inconsciente. El analista lo destapa con el método de la asociación libre. Los experimentos más notables sobre el tema, los de la famosa investigadora Elizabeth Loftus (quien no es psicoanalista), no han mostrado la existencia de la represión. Y la experiencia clínica muestra que tampoco existe la asociación libre, puesto que el analista transmite a su cliente sus propias hipótesis y expectativas. A medida que aprende la jerga freudiana, el cliente “confirma” lo que su analista espera de él.

10. El ser humano es básicamente irracional: está dominado por su inconsciente. El inconsciente freudiano, como el diablillo cartesiano, jugaría arbitrariamente con nuestras vidas y a espaldas de nuestra conciencia. Esta visión pesimista de la humanidad no se funda ni puede fundarse sobre datos empíricos. Lo que no quita que algunos procesos mentales escapan, en efecto, a la conciencia. Pero ya Sócrates sostenía algunas cosas de las que no tenemos conciencia. Y el libraco El inconsciente, de Eduard von Hartmann, apareció cuando Freud tenía catorce años, y fue un best seller en alemán y en francés durante una generación. (Yo lo heredé de mi tío Carlos Octavio, quien a su vez puede haberlo heredado de su padre.) En todo caso, si es verdad que a menudo tenemos impulsos irracionales, también es cierto que otras veces logramos controlarlos. Que para eso se montan mecanismos de educación y control social. Y para eso hay quienes hacen ciencia o técnica auténticas: para ascender de lo irracional a lo racional.

En resumen, las fantasías psicoanalíticas son de dos clases: las incomprobables y las comprobables. Las primeras no son científicas. Y las segundas son de dos clases: las que han sido puestas a prueba y las que aún no han sido investigadas científicamente. Todas las del primer grupo han sido falsadas. Y, evidentemente, las del segundo grupo siguen en el limbo.

¿Qué queda de todo un siglo de psicoanálisis? Nada más que fantasía incontrolada. Los psicoanalistas no hacen experimentos, y ni siquiera llevan estadísticas de sus tratamientos. Además, ignoran por principio los hallazgos de la psicobiología y de la psiquiatría biológica. Su psicología es de sillón y sofá, porque son prisioneros del mito primitivo del alma inmaterial que no puede captarse por medios materiales, tales como la resonancia magnética funcional y otros métodos de visualización de procesos mentales.

El psicoanálisis es la teoría de los que no tienen teorías científicas de lo mental ni de lo cultural. Y es una curandería irresponsable que explota la credulidad. Como dijo Sir Peter Medawar, Premio Nobel de Medicina, el psicoanálisis es «Un estupendo timo intelectual». Ningún otro timo del siglo pasado ha dejado semejante huella en la cultura popular.

El éxito comercial del psicoanálisis se explica porque (a) no requiere conocimientos previos; (b) no exige rigor conceptual ni empírico; (c) pretende explicarlo todo con un puñado de principios: desde las neurosis y la rebelión adolescente hasta la religión y la guerra; (d) es un sucedáneo de la religión; (e) llenaba vacíos que dejó hasta hace poco la psicología científica, en particular la sexualidad, las emociones y los sueños; (f) se jacta de curaciones inexistentes; y (g) según el propio Freud, los psicoanalistas les hacen el favor a sus clientes de cobrarles la consulta: no hacen obra social.

Pero éxito comercial y penetración en la cultura de masas no son lo mismo que triunfo científico. Cien años de fantaseo psicoanalítico no han arrojado resultados equivalentes a los que arroja una semana de investigaciones de laboratorio en neurociencia cognoscitiva.

Además, hoy contamos con la psiconeuroendocrinoinmunofarmacología. Ésta es la palabra castellana más larga que conozco. Abreviémosla PNEIF. Este acrónimo designa la ciencia aplicada que busca fármacos que prometan reparar los trastornos del sistema neuroendocrinoinmune que se sienten como trastornos mentales, tales como el dolor y el pánico, la confusión y la amnesia, la alucinación y la depresión.

El caso de la PNEIF es uno de los pocos en que se conoce la fecha exacta del nacimiento de una ciencia: 1955. Ese año se descubrió el primer fármaco neuroléptico para el tratamiento de una enfermedad mental: la depresión. Antes sólo se conocían estimulantes, tales como la cafeína, la benzedrina y la cocaína; calmantes, tales como el opio; y drogas que, como el alcohol y el tabaco, al principio estimulan y luego inhiben.

La ciencia básica correspondiente es la psiconeuroendocrinoinmunología, o PNEI, fusión de cuatro disciplinas que antes estaban apenas relacionadas. No fue sino en el curso de las últimas décadas que se advirtió que las fronteras entre las distintas ciencias del cerebro son en gran medida artificiales, porque cada una de ellas estudia una parte o un aspecto de un único supersistema.

Por ejemplo, se ha descubierto que el órgano de la emoción (el sistema límbico) sostiene unas veces, y otras entorpece, las actividades del órgano del conocimiento (la corteza cerebral). Sin motivación no hay aprendizaje; a su vez, el motivo puede ser afectivo, tal como el deseo de agradar o de molestar a alguien. Y si la emoción es muy fuerte, como es el caso del pánico, el raciocinio falla.

Todo esto se ha sabido desde que los seres humanos empezaron a interesarse por sus procesos mentales. Lo que no se sabía antes es que estos procesos están bastante bien localizados en el cerebro. Por ejemplo, un ser humano que tiene una lesión grave en la corteza prefrontal (detrás de los ojos) tiene el juicio moral deteriorado. Es el caso, afortunadamente muy raro, de los psicópatas.

La PNEIF está de moda porque está abordando y resolviendo una pila de enigmas de la vida mental, y porque su uso médico promete curar o al menos atenuar las angustias de los enfermos mentales y acabar con el psicomacaneo y la psicocurandería.

Por ejemplo, si con una píldora diaria se logra controlar a un esquizofrénico, quedan sin trabajo tanto el brujo que sostiene que se trata de un caso de posesión demoníaca como el psicoterapeuta que asegura que el trastorno es resultado de un episodio infantil, y que trata al paciente con meras palabras.

La PNEIF es la versión más reciente, rigurosa y eficaz de la medicina psicosomática. El psicoanálisis ha quedado definitivamente tan atrás como el curanderismo, excepto como superstición popular y como negocio.

Para comprobar lo que acabo de afirmar basta preguntarle a un boticario qué píldoras se recetan con algún éxito para tratar angustias, obsesiones, depresiones, esquizofrenias y otros trastornos mentales. Y quien quiera saber qué fundamento tienen tales recetas, deberá consultar las revistas científicas que se ocupan de la mente y sus trastornos, así como los semanarios científicos generales Nature y Science.

Estas publicaciones están llenas de nuevos resultados sobre la psique. Ninguna de ellas acepta macaneos psicoanalíticos. Los psicoanalistas sólo usan revistas psicoanalíticas: constituyen una secta marginal con respecto a la comunidad científica. Su alquimia no transmuta ignorancia en conocimiento, sino mito en oro.

La popularidad del psicoanálisis entre los escribidores posmodernos se explica en parte porque no exige conocimientos científicos. Y en parte también porque los posmodernos, como los filósofos hermenéuticos y los practicantes de las “ciencias” ocultas, sospechan que todo es símbolo de alguna otra cosa. Sin embargo, incluso Freud admitió que, a veces, un cigarro es un cigarro.

Filosofar científicamente

Por: Mario Bunge. Extraído del libro 100 ideas.

Es sabido que, hasta hace un par de siglos, no se distinguió entre filosofía y ciencia. Los filósofos de la Contrailustración, en particular Hegel, Schelling y Fitche, fueron los primeros en erigir una pared entre ambos campos. Aun así, no todos los siguieron. Por ejemplo, el filósofo y matemático Bernhard Bolzano se inspiró en el gran matemático y filósofo racionalista Leibniz antes que en los románticos. Los neokantianos, de Cohen y Natorp a Cassirer, hicieron pininos para mostrar que la filosofía de Kant era compatible con la ciencia, aunque acaso necesitara alguna cirugía plática. A fines del siglo XIX se publicaba en lengua alemana una revista trimestrar de filosofía científica. Y de 1927 a 1938 los neopositivistas reunidos en el Círculo de Viena, y luego expatriados a los EE.UU., declararon que hacían filosofía científica. Que alguna de estas tentativas haya sido lograda aún hoy es motivo de debate.

La ruptura final de la filosofía con la ciencia vino con la hermeneútica de Dilthey, el intuicionismo de Bergson, el neohegelianismo de Croce y Gentile, la fenomenología de Husserl, el existencialismo de Heidegger y Sartre, y la filosofía lingüística del segundo Wittgenstein, Austin y Strawson. Es verdad que Bergson saludó al darwinismo. Pero al mismo tiempo afirmó que la razón no puede comprender la vida, y que la ciencia sólo puede dar cuenta de lo inanimado. Además, su crítica a la teoría especial de la relatividad fue tan lamentable que él mismo mandó retirar su libro de circulación.

¿Vale la pena intentar reaproximar ambos campos después de tantos fracasos y conflictos? Creo que sí, aunque sólo sea porque toda investigación científica presupone ciertos principios filosóficos. He aquí una muestra de tales principios tácitos: “El mundo exterior existe independientemente del sujeto y puede conocerse en alguna medida”, “todo es legaliforme: no hay milagros”, “para averiguar cómo es el mundo tenemos que ejercitar la razón y la imaginación, imaginar hipótesis y teorías, y diseñar y realizar observaciones y experimentos”. O sea, los científicos filosofan sin saberlo. Siendo así, es deseable explicitar, analizar y sistematizar las ideas filosóficas que los científicos suelen manejar en forma descuidada.

Una tarea útil que puede hacer el filósofo es estudiar y denunciar la ambivalencia filosófica de la mayor parte de los científicos. Me refiero al hecho de que, al tiempo que practican una filosofía, suelen predicar otra. Por ejemplo, cuando enseñan o escriben libros de texto suelen decir que toda investigación comienza por la observación o “se basa” en ella, y que las teorías no son sino compendios de datos observacionales. Pero a continuación introducen conceptos que denotan inobservables, tales como los del universo, tiempo, masa, peso atómico, longitud de onda, potencial, metabolismo, aptitud, evolución e historia. O sea, predican el empirismo pero practican una síntesis de empirismo con racionalismo.

Sin embargo, la filosofía de la ciencia, o epistemología, no es el único punto de contacto entre la filosofía y la ciencia. Todas las ramas de la filosofía se pueden encarar de manera científica. Esto no implica que el filósofo se ponga a hacer mediciones o experimentos. Sí implica que pone a prueba sus conjeturas y que, cuando trabaja un problema filosófico, se entera de los resultados científicos pertinentes.

Por ejemplo, si quiere tratar el problema del ser, debe comenzar por distinguir dos clases de existencia: la concreta (o material) y la abstracta (o ideal). Si quiere ocuparse de objetos ideales, tendrá que aprender el ABC de la lógica y de la matemática, que son las ciencias de los objetos abstractos. Si, en cambio, pretende filosofar sobre cosas concretas, tales como átomos, organismos o personas, tiene el deber de aprender el ABC de las ciencias que tratan de ellas.

De lo contrario, su discurso será obsoleto u oscuro, y por lo tanto inútil. Esto le ocurrió a Heidegger cuando escribió su famoso Ser y Tiempo, que podría haber sido escrito por un monje del siglo anterior al de Tomás de Aquino. Lo mismo ocurre con los filósofos de la mente que se niegan a enterarse de los descubrimientos sensacionales que está haciendo la neurociencia cognoscitiva, que trata las funciones mentales como procesos cerebrales. No están al día y por lo tanto no aportan conocimientos propiamente dichos: sólo aportan opiniones y juegos académicos.

Algo parecido ocurre con los problemas de los valores y de las normas morales. Es sabido que algunos juicios de valor son subjetivos, mientras que otros son objetivos. Por ejemplo, yo no puedo justificar que Mozart me guste muchísimo más que Bartok. Acaso pueda explicar esta preferencia en términos de mi educación, pero no puedo dar razones valederas. En cambio, todos podemos dar buenas razones para preferir el agua potable a la contaminada, la justicia a la injusticia, la solidaridad al egoísmo, la libertad a la tirazía, la paz a la guerra, etc.

O sea, hay valores objetivos y por lo tanto justificables, además de los subjetivos, que son mera cuestión de gusto. Siendo así, es posible y deseable intentar fundamentar la axiología y la ética sobre la ciencia y la técnica, en lugar de sostener que los valores y las reglas morales son puramente emotivos, o convenciones sociales, o normas impuestas por el poder económico, político o eclesiástico.

Por ejemplo, se puede argüir en favor de la retribución justa del trabajo, recurriendo no sólo a los sentimientos de compasión y solidaridad, sino también a las estadísticas que muestran que la longevidad y la productividad aumentan con el ingreso. O sea, la justicia social es buen negocio.

Procediendo de esta manera, se puede mostrar que no todas las doctrinas filosóficas son meras opiniones, ni menos aún supersticiones, sino que algunas de ellas pueden abonarse con conceptos o datos científicos.

Ya pasó el tiempo de la especulación filosófica desbocada. Llegó el tiempo de la imaginación filosófica alimentada y controlada por los motores intelectuales de la civilización moderna: la ciencia y la técnica. Llegó el tiempo de frecuentar más el taller filosófico que el museo de filosofías caducas.

Sobreviviendo a la era de la desinformación

Por David Helfand para el Skeptical Inquirer

En 2016 mucha gente de los medios tradicionales declaró ominosamente que habíamos entrado en la era de la “posverdad política” (Drezner 2016) y ahora vivimos en la “democracia posfáctica” (Barret 2016). Con la proliferación de rentables sitios de falsas informaciones, tuits inconsistentes con la dominante realidad política, y la mayoría de los ciudadanos muy ocupados en construirse cámaras de eco de sus creencias personales en las redes sociales, la histeria parece justificada.

Pero, como Alexios Mantzarlis del Instituto Poynter nos recuerda (Mantzarlis 2016), los políticos, los comentaristas mediáticos y tu vecino no han tomado la “verdad” en serio desde hace mucho tiempo.

En efecto, el experto en clásicos Edward M. Harris ha hecho notar en un artículo en el cual disecciona el “Discurso de Demóstenes contra los medios” (Harris 1989), que 2.400 años atrás en Atenas “aunque un testigo que perjuraba podía ser juzgado… un orador que hablara en la corte podía darse el permiso de decir tantas cosas como imaginara sin miedo a un castigo”.

Harris continúa : “Resumiendo, nada proveniente del conocimiento de la audiencia y de los límites de la plausibilidad restringe al orador de inventar falsedades y distorsionar la verdad”.
El embuste público, por tanto, no es nada nuevo. Lo que sí es nuevo es el ámbito sobresaturado de tecnología en que actualmente está embebido. Es el “conocimiento de la audiencia” y los “límites de plausibilidad” —no las falsedades y distorsiones— las que han cambiado.

¿Cómo evolucionó el “conocimiento de la audiencia”, a lo largo de la historia del Homo sapiens en esta tierra? Por más del 95% de nuestra historia, el conocimiento estaba limitado, pero era testado diariamente contra la realidad. El cazador recolector que recogía bayas venenosas fue prontamente eliminado del pool de genes, así como el joven que conducía a su familia a cazar leones hambrientos en lugar de gacelas.

Aquellos pocos que analizaban los patrones de las estrellas y así podían predecir la migración de los ñus fueron objeto de especial veneración (solíamos llamarlos “expertos”). Había también, sin dudas, mucha información errónea en aquellos idílicos días — los rayos evidenciaban la furia de los dioses y los grupos vecinos eran señalados muy a menudo, como los “otros”, fueran hostiles o no. Pero como la mayor preocupación era la simple supervivencia, el “conocimiento de la audiencia” concordaba bien, en general, con la realidad.

El ciudadano promedio de hoy vive en un mundo muy diferente. Como dice la célebre tercera ley de Arthur C Clarke, “cualquier tecnología suficientemente avanzada es indistinguible de la magia” y tal magia permea y define el mundo del típico adulto estadounidense.

Desde autos que estacionan solos y GPS hasta iPads, aviones y cirugía LASIK, nadie tiene idea de cómo funciona la tecnología con la que trabajan o qué principios físicos sustentan su operación. Son, realmente, “indistinguibles de la magia”.

Y, al vivir en ese mundo mágico, los “limites de plausibilidad” son fácilmente expandidos. Si la caja que habla en tu tablero sabe exactamente dónde estás y puede decirte cómo llegar a donde quieres ir, ¿por qué no sería plausible hablar con parientes muertos? Si con una potente luz aplicada a tus ojos se puede eliminar tu necesidad de anteojos, ¿por qué el usar imanes no te curarían esa artritis?

Si un científico “experto” te dice que tu terapia magnética es un sinsentido, es solo un ejemplo de la primera ley de Clarke: “Cuando un científico eminente pero anciano afirma que algo es imposible, es casi seguro que está equivocado.”

Y como los imanes hicieron maravillas para el mejor amigo de tu cuñada, probablemente funcionarán para ti. Si la mayoría de las cosas de tu mundo son indistinguibles de la magia, es al mismo tiempo razonable y práctico adoptar a la magia como principio operativo. Y como solo los hechiceros comprenden la magia, consultarlos (homeópatas, astrólogos, médiums y místicos) tiene perfecto sentido.

A pesar de que la democratización, tanto del conocimiento como de la habilidad para contribuir con este, proveídas por internet tiene obvios beneficios, también tiene una muy seria desventaja.

Los “límites de plausibilidad” se han evaporado y el “conocimiento de la audiencia” está construido con información proveída por Facebook, experiencia personal y anécdotas. El estadounidense promedio está fuertemente aislado de la realidad física que sus ancestros estuvieron forzados a confrontar diariamente, y por tanto, viven en un mundo de autoafirmación del pensamiento mágico.

Hemos entrado, por tanto, no a la era “posfáctica o de la “posverdad”, sino a la era de la información falsa. Los hechos todavía existen. Buenas aproximaciones a la verdad todavía pueden ser encontradas. Y la información nunca ha sido tan abundante: IBM calculó, pocos años atrás, que producimos 2,5 quintillones de bytes de información por día, suficiente para llenar una biblioteca de medio kilómetro de alto que rodee a la tierra por el Ecuador.

Cuánto de esa información son sinsentidos, es la adivinanza. El problema es que todos se creen igualmente bien calificados para responder a eso y lo postean en sus blogs, donde se convierten en su versión personal de la verdad y pueden ser fácilmente compartidas y propagadas. Y ese es el origen de la información errada.

Hubo un tiempo cuando la mayoría de las personas que escribían acerca de un tópico en particular lo hacían porque habían adquirido cierto grado de conocimiento especializado. Habían leído lo que ya se sabía acerca del tema, habían conducido algunas observaciones e incluso experimentos propios y habían concluído que podrían escribir algo para contribuir al avance de nuestro entendimiento del tópico en cuestión.

Incluso podrían haber sido llamados “expertos” en el tema. Internet ha reventado este modelo. A la par que la democratización, tanto del conocimiento como de la habilidad para contribuir con este, proveídas por internet tiene obvios beneficios también tiene una muy seria desventaja.

Tom Nichols, escribiendo en el Federalista (Nichols 2014), describe esta desventaja como “La muerte de la pericia”, la cual se caracteriza por ser “un colapso, propulsado por Google, basado en la Wiki y empeorado por los blogs, de cualquier división entre profesionales y hombres comunes, estudiantes y profesores, conocedores y admiradores”. En otras palabras, entre aquellos que han alcanzado ciertos logros en ciertas áreas y aquellos que no alcanzaron nada.

Esto, dice él, crea una cultura en la cual “la opinión de todos acerca de cualquier cosa es tan buena como la de cualquier otro”. Así, Jenny McCarthy puede decir que el “instinto materno” es, de lejos, superior a la evidencia científica acerca de la seguridad de las vacunas, y millones de zombies alimentados por Google asienten y respaldan sus opiniones sin fundamento, desde una mina de información falsa y similar sinsentido de internet.

Este cuerno de la abundancia de mala información alimenta otro gran pasatiempo estadounidense: las teorías de conspiración. Según un encuesta reciente (Poppy, 2017) de 1.511 adultos, el 54% creen que los ataques del 11 de septiembre están relacionados con una conspiración del gobierno estadounidense, mientras que el 42% cree que el calentamiento global es una conspiración o una patraña, el mismo porcentaje cree en encuentros con alienígenas. El 30% cree que el expresidente Obama nació en Kenia.

Quedé un tanto sorprendido al ver que sólo el 24% cree que los alunizajes son una tomadura de pelo, pero tal vez sea porque el programa Apollo está tan lejos ya de la memoria colectiva que a nadie le importa. Más interesante es el resultado de que el 32% cree que el North Dakota Crash fue un encubrimiento gubernamental a pesar de que los investigadores lo inventaron en la encuesta para medir cuántas personas ven todas las cosas como conspiraciones.

Para aquellos de nosotros que estamos aún convencidos que los hechos acerca del mundo físico pueden ser descubiertos y que el análisis racional de esos hechos pueden ser útiles en la creación de modelos predictivos de ese mundo, un contraataque parece ser conveniente. ¿Por dónde empezar?

La ciencia es la más poderosa herramienta intelectual que la humanidad haya inventado hasta el momento. A diferencia de la reconfortante certeza que otras cosmovisiones proveen, la ciencia reconoce sus hallazgos como contingentes y sus modelos como limitados en su aplicación.

Es importante notar que, sin embargo, esa ciencia es al mismo tiempo un sistema para descubrir los hechos y un sistema de valores: escepticismo, base en la evidencia, interpretación utilizando razonamientos inductivos y deductivos, etc.

Los científicos sostienen que tanto el sistema de descubrimiento como los valores mencionados son crucialmente importantes. Pero, como los valores son un tema delicado para la mayoría de las personas y son, como máximo, indirectamente testables con la realidad, parece ser sabio diferir con la afirmación de Jonathan Swift de que “razonar nunca hará a un hombre corregir una opinión errónea que no fue adquirida por razonamiento” (Swift, 1721), y dejar la parte de los valores afuera, por ahora.

Mi recomendación para un contraataque en la era de la información errada es aferrarse a los hechos.

Para estos propósitos, mi definición de un hecho simple es una medición de alguna cantidad física, realizada con los mejores instrumentos disponibles, de acuerdo con procedimientos definidos con precisión, citados con su incertidumbre asociada y sometido a revisión escéptica, preferiblemente una que repita y verifique las mediciones. Un hecho compuesto puede ser deducido de un cierto número de hechos simples.

Un buen ejemplo de un hecho compuesto es la afirmación de que el CO2 actualmente agregado a la atmósfera proviene de la quema de combustibles fósiles. He dado muchas clases y charlas públicas acerca del cambio climático, y al mismo tiempo que mi audiencia no estaba de acuerdo con mis conclusiones acerca de la gravedad de la situación o mis propuestas para mitigarla, encontré objeciones a este hecho una vez que me tomé el tiempo para explicar cuidadosamente las evidencias.

He procedido como sigue: según mi experiencia, esta aproximación tiene dos virtudes.

Primero, para los más dedicados negadores de la ciencia, establece el rol inequívoco de los humanos en el cambio de la composición de la atmósfera.

Segundo, ilustra el proceso de encubrimiento de hechos acerca del mundo. No hago predicciones acerca del futuro del planeta, tampoco sugerir políticas para resolver el problema. Lo primero es, por lejos, muy incierto como para constituir un hecho, y lo último incluye elementos acerca de los cuales la gente razonable puede diferir.

Pero comenzando con un hecho acerca del cual podemos coincidir, se establece para las partes un punto de conexión y una plataforma basada en la realidad para la discusión posterior. La era de la mala información provee poco soporte para tomar decisiones individuales y plantea un desastre potencial para la formación de políticas públicas racionales.

La contrainsurgencia llama, definitivamente. Pero nuestras acciones serán ineficientes si están politizadas (Foster, 2017) y no persuasivas, si no nos atenemos escrupulosamente a los principios del pensamiento científico.

El problema de la reproducibilidad en la investigación médica (Begley y Ellis, 2012) y, más recientemente, en Psicología (Nousek et al., 2015) socavan nuestra credibilidad.

La participación en -incluso la promoción de- propaganda en los medios acerca de los hallazgos científicos es, de igual manera, extremadamente inútil.

Las afirmaciones de autoridad serán —quizás deberían ser— ignoradas.

El poder de la ciencia se fundamenta en su acercamiento escéptico y racional, basado en evidencias para entender el mundo. Este poder comienza con los hechos y, en mi experiencia, estos hechos son la mejor herramienta para comenzar la revolución.  

Paso 1

Describo cómo podemos contar los átomos y las moléculas, una a una, y muestro una tabla que liste el número de cada clase en una muestra de un millón de partículas de aire.
Este proceso de conteo es, por supuesto, muy destacable (¿bordeando la magia?), pero como la mayoría del público no tiene concepto del tamaño de un átomo (y por tanto de cuán sorprendente es que podamos contarlos uno a uno), pueden aceptar las concentraciones atmosféricas como hechos, ya que contar es un proceso muy sencillo que todos lo entienden.

Paso 2

Muestro los primeros dos años de la curva de Keeling de concentración de CO2 desde 1958 y 1959. Este gráfico muestra el número de moléculas de CO2 que aumenta continuamente  desde octubre hasta mayo, y luego va cayendo simétricamente desde mayo hasta septiembre. Una discusión acerca de cómo las plantas aspiran CO2 y luego lo expiran durante la estación de crecimiento y luego como las bacterias rompen el tejido de las plantas y liberan CO2 en el invierno, esta es también una historia plausible que es fácilmente aceptable.

Cuando una persona muy reflexiva objeta porque el hemisferio sur tiene estaciones opuestas a las del norte, premio eso y le muestro el mapa del mundo mostrando cuántas más áreas cubiertas por plantas hay en las zonas templadas del hemisferio norte versus la misma zona en el hemisferio sur.

Paso 3

Muestro entera la curva de 50 años de Keeling en la cual la monótona tendencia hacia arriba eclipsa la fluctuación estacional. Luego pongo la pregunta: ¿Cómo podemos saber de dónde proviene el CO2 adicional?

Paso 4

Muestro que la concentración en la atmósfera es función del tiempo. La baja del O2 es una sorpresa para casi todos pero es inequívoca en los datos, como también que las fluctuaciones estacionales están perfectamente desfasadas con el patrón anual de CO2.

Aquí reitero el patrón de respiración CO2 a O2 de las plantas con la que todos concuerdan- siempre es bueno contar a la gente algo que ya saben, incluso si solo lo aprendieron 5 minutos atrás, porque las mantiene enganchadas con la línea argumental.

El punto interesante aquí es que la cantidad de O2 que ha desaparecido es justamente igual a la necesaria para explicar el aumento del CO2, si el CO2 proviene de la combustión (combinación con oxígeno) de material que contiene carbón: C más O2 equivale a CO2. Es importante notar que esta es solo una correlación y no puede ser interpretada como causación, enfatizando el cuidado con que acumulamos hechos y no saltando a conclusiones.

Paso 5

Una digresión acerca de los isótopos se requiere ahora, en particular, que el carbón tiene tres isótopos comunes ( C-12, C-13 y C-14). Enfatizo cómo estos isótopos son químicamente idénticos pero que los más pesados se mueven despacio y por tanto son discriminados negativamente en las reacciones químicas.

Esto explica porqué las plantas tienen menos C-13 y C-14 que el aire que respiran. También proveo una breve introducción al decaimiento radioactivo para explicar como el C-14 gradualmente se convierte en el corriente y viejo nitrógeno, el constituyente dominante de la atmósfera, en una escala de tiempo de 5.730 años.

Paso 6

Los penúltimos datos apuntan a la proporción de de C-13 y C-14 respecto al C-12 provenientes de mediciones directas de la atmósfera durante los últimos 40 años y de tres anillos retrocediendo varios siglos. Estos datos muestran una gradual declinación en la proporción C-13/C-12 comenzando alrededor del 1.800 en el inicio de la Revolución industrial que se acelera rápidamente durante pocas décadas pasadas, justo como el total de CO2 en la atmósfera.

La proporción C-14/C-12 también ha declinado rápidamente durante los últimos 30 años. Proveyendo imágenes de varias fuentes de carbón (CO2 de volcanes y del intercambio entre el océano y el aire, así como el C de las plantas vivas, ensayos de bombas nucleares en la atmósfera, y las plantas muertas convertidas en combustibles fósiles), estoy listo para llegar a la conclusión ineludible.

Paso 7

La reducción en las proporciones excluyen el intercambio atmosférico de volcanes y del océano, porque ambos tienen proporciones mayores de C-13/C-12.

Los valores en caída de C-13 significan que las plantas deben estar involucradas. La disminución de los valores de C-14 significan que debemos estar agregando CO2 al aire que es altamente deficiente en C-14 y que no puede provenir de las plantas modernas cuyo C-14 fue enriquecido por las pruebas nucleares de 1.950. Deben provenir de las plantas antiguas cuyo C-14 ha decaído completamente.

Por tanto, la fracción dominante del nuevo CO2 en la atmósfera debe provenir de la quema de combustibles fósiles. LQQD.

 

Pseudociencia, estafa y censura: ¿Qué pasa con las universidades paraguayas?

Además de la crisis política y mediática, en las últimas semanas están abundando las denuncias por estafas en las universidades paraguayas.

Recientemente, el Consejo Nacional de Educación Superior (CONES) clausuró cuatro facultades de Medicina de las universidades Hispano-Guaraní, Tres Fronteras, San Sebastián y María Auxiliadora.

Días antes, el mismo CONES advirtió que la mayoría de las carreras de la Universidad del Sur (UNASUR) estarían inhabilitadas.

Cientos de estudiantes se encuentran a la deriva. Los más preocupados son los de los últimos años, ansiosos por graduarse. Los estudiantes alegan buena fe al haberse inscrito a los cursos de aquellos centros de enseñanza superior, cuyas autoridades aseguran que tienen todo en orden.

A esto se suma la denuncia de censura impuesta por las autoridades de la Universidad Católica de Asunción al sociólogo y politólogo argentino neomarxista Atilio Borón, cuya conferencia tuvo que trasladarse a la sede de la Facultad de Filosofía de la Universidad Nacional de Asunción.

El libre intercambio de ideas y la disputa por la búsqueda de la verdad son los ejes principales de una universidad. Prohibiendo discusiones se atenta contra el libre flujo del ejercicio crítico.

Se adhiere a este festival universitario de la vergüenza la defensa de una tesis homofóbica y pseudocientífica en la Universidad del Chaco, institución dirigida por una persona condenada a cuatro años de prisión por vaciamento del Banco Nacional de Trabajadores y que también fue denunciada por no pagar salarios de sus empleados.

El título de la tesis es “Características de las escrituras manuscrita de personas con trastorno homosexual”, así con errores de concordancia en el mismo título —impreso y supuestamente revisado— del trabajo monográfico.

Como si se tratara de un chiste, la tesis es de una carrera de Criminalística y Ciencias Forenses que no está habilitada por la Agencia Nacional de Evaluación y Acreditación (ANEAES) y mucho menos las maestrías que ofrece esa universidad.

¿Qué nos preocupa? ¿Que abunde pseudociencia en la universidad? ¿Que sea un trabajo sobre grafología? ¿Nos repele que se acepten trabajos homofóbicos? ¿Que se escriba mal un título? ¿Que se gradúen licenciados sin conocer metodología ni escritura científica?

Todo eso debe preocuparnos, porque en su conjunto es una señal de que las instituciones académicas no están funcionando.

En Paraguay, hasta hace poco era relativamente fácil abrir una universidad privada si se tenía los contactos o acuerdos necesarios con la clase política. Tanto es así, que algunos políticos se crearon sus propias universidades solamente con el aval de sus colegas parlamentarios.

En el país existen universidades que otorgan títulos impune e irresponsablemente a personas que no tienen condiciones básicas de comprensión lectora o análisis crítico, graduados que no diferencian teoría científica de mera especulación, ciencia de pseudociencia, universidad de estafa educativa.

Hay universidades que no tienen bibliotecas, que no publican revistas científicas, que no investigan, que no destinan fondos para actividades científicas; hay “altas casas de estudios” que ofrecen carreras que no están habilitadas, que solo dan fotocopias a sus estudiantes, o que les exigen una carga horaria de cuatro horas semanales (pero por largos y lucrativos cuatro o cinco años).

En síntesis, hay universidades que no deberían llamarse así.

Por su parte, la Universidad Nacional de Asunción (UNA), que aunque tenga 12 revistas científicas y la mayoría de los investigadores del PRONII y proyectos de ProCiencia, no se termina de despertar de “pesadilla oscurantista”.

Recordemos que su rector estuvo preso por corrupción en la principal penitenciaría del país. La reforma no ha llegado aún pese a los levantamientos estudiantiles del 2015.

El propio ethos de nuestro sistema universitario es el problema. Permitimos que sobresalga la mediocridad, nos aislamos del debate científico e intelectual de las universidades modernas extranjeras, copiamos modelos perimidos, fomentamos la endogamia, facilitamos la simplicidad académica y abogamos por el reduccionismo argumentativo. Las falacias son más rápidas de comprender que las teorías y leyes estudiadas y reanalizadas.

El trabajo “Caracterización de la ciencia en el Paraguay de la democracia (1989-2015). Aproximación a la historia de la ciencia paraguaya”, arroja datos concretos sobre la actividad investigativa en el país. Según estudios previos del profesor Antonio Cubilla, director del Instituto de Patología e Investigación (IPI) y miembro honorario de APRA, son cuatro los factores que imposibilitaron el surgimiento de una masa crítica de científicos e investigadores en el país:

  1. La exclusión histórica de la investigación en la universidad;
  2. La creencia falsa del elevado costo de la ciencia;
  3. Facilidad inmediata de transferencia o copia de tecnología externa; 
  4. La creencia de que la investigación científica solo es patrimonio de los países más ricos.

A esto le sumamos la falta de tradición científica, la falta de financiación de las ciencias básicas y la falta de escuelas de pensamiento científico.

Julio Rafael Contreras, pionero en estudios de historia y filosofía de la ciencia local, sostiene que no se llegó aún al punto en que la mayoría de las ciencias practicadas dentro de nuestras fronteras hagan “cuerpo en el sistema cognitivo, funcional y mental de la vida nacional”. Y va un poco más allá, pues postula que la investigación científica es un “problema de existencia real” para un país como el nuestro.

Y no es para menos. La Organización de Estados Iberoamericanos indica en su informe sobre “Ciencia, tecnología e innovación para el desarrollo y la cohesión social” del 2014 que “la brecha entre los países ricos y pobres no es solo la distribución de la riqueza, sino también la del conocimiento”.

Ya el filósofo Juan Andrés Cardozo, en su obra “La razón como alternativa histórica”, escribe que la ciencia “es un fenómeno sociocultural que interviene decisivamente en el destino de las sociedades contemporáneas”, metiéndose de lleno en la discusión actual sobre el rol de la ciencia, tecnología e innovación que cobra más protagonismo mientras más desarrollo haya. Y, al igual que Cubilla, Cardozo ve que la universidad paraguaya ignoró casi por completo a la investigación durante gran parte de la historia.

Hoy la universidad paraguaya da cabida a la estafa, a la censura, da espacios a la pseudociencia, a la reducción epistemológica y metodológica y posterga su transformación hacia una sociedad de la información y el conocimiento.

¿Podrá solucionarse pronto esta crisis educativa? No lo sabemos, pero en un momento de mucha oscuridad social, la universidad debe convertirse al menos en la defensa de la razón, del debate de ideas, la fortaleza del pensamiento crítico, de la disputa por el conocimiento y guardiana de la libertad intelectual.

PNL y negligencia intelectual.

Por: Francisco Ascarza. Publicado originalmente en el blog Insurrectos.

En sociedades presididas en principio por la racionalidad, cuando ésta se diluye o se disloca, los ciudadanos se ven tentados a recurrir a formas de pensamiento prerracionalistas. Se vuelven hacia la superstición, lo esotérico, lo ilógico, y están dispuestos a creer en varitas mágicas capaces de transformar el plomo en oro y los sapos en príncipes.” Del libro “Un mundo sin rumbo: crisis de fin de siglo”, de Ignacio Ramonet.

Una mirada a la irracionalidad contempla, asimismo, un acercamiento hacia las pseudociencias. A éstas podríamos definirlas como un conjunto de conocimientos que pretende tener caracter científico, pero que carece de el. Según el filósofo Paul Kurtz, en “Is parapsychology a science?” (1978/1981, The Skeptical Inquirer, Vol 3. nº.2, pp. 14-23), estos modelos pseudocientíficos
a) no utilizan métodos experimentales rigurosos en sus investigaciones;
b) carecen de un armazón conceptual contrastable;
c) afirman haber alcanzado resultados positivos, aunque sus pruebas son altamente cuestionables, y sus generalizaciones no han sido corroboradas por investigadores imparciales.

pnl

Y es en este contexto que se enmarca la Programación Neurolingüística o PNL. En efecto, según el artículo publicado por Alejandro Borgo en la revista del CAIRP (Centro Argentino para la Investigación y Refutación de la Pseudociencia, ya disuelto), el Consejo Nacional de Investigación, creado por la Academia Nacional de Ciencias de los Estados Unidos, encomendó al Comité de Técnicas para el Mejoramiento del Desempeño Humano la tarea de investigar la PNL con el objeto de determinar su validez como técnica terapéutica y de aprendizaje. Las conclusiones son claras (pueden leerse completas en http://www.nap.edu/openbook.php?record_id=1025&page=141). He aquí algunas:

Muchas de las teorías a las que apela la PNL y que se citan como congruentes con ella, no tienen aceptación científica (teoría del cerebro holográfico de Pribram, y la descripción del cerebro estadístico de John).
Los experimentos presentados en apoyo de la PNL no son satisfactorios.
– Hay errores en la descripción de procesos biológicos básicos. Ejemplo: una sinápsis se define como una conexión dendrita-dendrita, en vez de dendrita-axón.
– Las referencias biológicas y psicológicas están desactualizadas. No se menciona la neurotransmisión cuando se habla de la organización cerebral y lo que se cita de psicología cognitiva omite los últimos 20 años de trabajo.
– La conclusión general es que no hay evidencia empírica, hasta la fecha, que permita sostener tanto las pretensiones como la eficacia de la PNL.

En definitiva, la PNL no se sostiene como una disciplina confiable y se presta para la manipulación de incautos y el beneficio económico de los gurús que la defienden.
Y sin embargo, es importante hacer notar que en nuestro medio se está poniendo de moda. El mes pasado recibí por lo menos dos invitaciones a charlas acerca de este tema. Charlas que por cierto, no eran gratuitas.

Entonces, ¿qué extrañas fuerzas mueven a empresarios, artistas, universitarios, oficinistas y gente de toda índole a experimentar en estas turbias aguas? ¿qué misterioso componente convierte a esta pseudociencia en exitosa?.

La respuesta a estas preguntas transita el camino del engaño y la pereza intelectual. En efecto, la programación neurolinguistica se atribuye una engañosa respetabilidad al hacer alarde de un lenguaje que, por la utilización de vocablos ciéntificos, pretende ser serio. Tal como lo hiciera notar Michael Corballis en “Are we in our right minds?” (1999) [1]: “la PNL es un título completamente falso, diseñado para dar la impresión de respetabilidad científica”. Y es bien sabido que muchos sucumben a la tentación de quedarse con la cáscara: “si suena bien, ha de ser cierto”.

Es esta actitud facilista la que proporciona tierra fértil para el éxito de charlatanerías de esta índole. Y ese facilismo, que caracteriza el comportamiento de muchos individuos, va de la mano de la pereza intelectual. Estas personas son reacias a preguntarse acerca de la esencia de las cosas. Prefieren una mentira simple e ingeniosa a una verdad que los obligue a razonar. La superficie es su habitat. Dificilmente puedan comprender la belleza de la profundidad. Se regodean en el término y no en el significado. Se les invita a aprender, pero se excusan diciendo que el tiempo que tienen es corto. Entonces es más sencillo ser un seguidor. Simplemente se engulle lo que otros masticaron.

A veces me pregunto si es razonable preocuparse por gente así. Me tienta responder con un silencio indiferente. Despues de todo, cada quien hace de su vida lo que quiere. Pero entonces recuerdo que por culpa de esta negligencia intelectual, gran parte de la historia de la humanidad está cubierta por un manto de sangre resultante de los crímenes cometidos en nombre de todo tipo de dogmatismos y supercherías.

Entonces dejo de lado el sueño de la madrugada para escribir.

Referencias:

[1] Michael Corballis (1999)
Corballis, MC., “Are we in our right minds?” In Sala, S., (ed.) (1999), Mind Myths: Exploring Popular Assumptions About the Mind and Brain Publisher: Wiley, John & Sons. ISBN 0-471-98303-9 (pp. 25-41) see page p.41

Otras referencias:

Eric Einspruch y Bruce Forman
Einspruch, E. L., & Forman, B. D. (1985). “Observations Concerning Research Literature on Neuro-Linguistic Programming”. Journal of Counseling Psychology, 32(4), 589-596.

Barry Beyerstein (1995)
Beyerstein, B. ‘Distinguishing Science from Pseudoscience’, Centre for Professional and Curriculum Development, Dept. Psychology, Simon Fraser University.

Grant Devilly (2005)
“Power therapies and possible threats to the science of psychology and psychiatry” Australian and New Zealand Journal of Psychiatry 39:437–45(9)