Miguel Moreno
Universidad de Granada
Licencia: CC BY-NC-SA 4.0
Esta monografía tiene por objeto contextualizar el desarrollo de la teoría del conocimiento en interacción con la ciencia y la cultura contemporáneas, proporcionando la base teórica para un curso posterior de epistemología aplicada. Su orientación es más teórica que práctica, lo que explica el interés por estudiar las fortalezas y debilidades de diversas metodologías de investigación científica, así como los inconvenientes de su aplicación para el tratamiento de problemas complejos que surgen en diversos campos de conocimiento y actividad profesional.
Los elementos teóricos proporcionados deberían ser suficientes para acotar el contexto amplio en el que ciertos problemas de interés para la epistemología se originan y desarrollan. Los casos seleccionados y las referencias a debates en curso se proponen con la finalidad de incentivar una dinámica de actualización e indagación constante, asumiendo que los contenidos e intereses de la epistemología evolucionan influidos por problemas de otras disciplinas y en respuesta a la diversificación de sus saberes y metodologías.
El propósito de mostrar una cartografía detallada de los ámbitos de conocimiento y disciplinas que integran el vasto panorama de la ciencia contemporánea institucionalizada supone agregar múltiples desafíos, considerando la complejidad inherente a la pretensión de visualizar de manera coherente la dependencia de nodos y redes de citas cruzadas dentro de una misma disciplina (véase E. Petrovich (2021): “Science mapping and science maps”. Knowledge Organization 48, no. 7-8: 535–562).
El incremento incesante de artículos indexados en bases de datos de publicaciones electrónicas incluye un porcentaje considerable de piezas que difícilmente encajarían en disciplinas muy compartimentadas, bien por la naturaleza interdisciplinar del problema objeto de estudio o bien por las herramientas y tecnologías utilizadas, cuyo efecto en las metodologías con las que se entrenan profesionales de un mismo ámbito de conocimiento puede contribuir a generar culturas de trabajo diferenciadas (véase Habib, M., & Okayli, M. (2023). "An Overview of Modern Cartographic Trends Aligned with the ICA’s Perspective". Revue Internationale de Géomatique, 1-16. https://doi.org/10.32604/rig.2023.043399).
Incluso la taxonomía y visualización de objetos científicos tales como patentes, datasets, documentos, ensayos en curso y publicaciones de referencia en ámbitos hiperespecializados conlleva dificultades extraordinarias, dada la complejidad inherente a las políticas de difusión e infraestrura científica entre los países que destinan porcentajes más altos de su PIB a la investigación (véase Börner, K., Theriault, T. N., & Boyack, K. W. (2015). "Mapping science introduction: Past, present and future". Bulletin Of The Association For Information Science And Technology, 41(2), 12-16. https://doi.org/10.1002/bult.2015.1720410205).
En la monografía se dedica un primer bloque de contenido a la evolución del conocimiento científico en el último siglo, sobre todo en Física y Biología por su influencia en el tipo de problemas que han interesado a la epistemología y filosofía de la ciencia contemporáneas. Entre otros aspectos, se analizan los modelos para explicar el orden y el azar, los enfoques deterministas y relativistas, y las propiedades emergentes en sistemas organizativos complejos.
Un segundo bloque se centra en el paradigma evolutivo y sus desarrollos, analizando conceptos clave del darwinismo y las aportaciones que obligaron a revisar o ampliar sus postulados, como la teoría sintética de la evolución. En particular, se analiza su influencia en la comprensión de la biología del desarrollo y de la evolución humana, así como sus implicaciones culturales a través de autores destacados.
En un tercer bloque se proporcionan elementos teóricos para entender el alcance de la revolución cognitiva y su influencia en la epistemología evolutiva, explorando algunas de sus implicaciones para entender diversos aspectos de la cultura y la cooperación social. Este apartado se complementa con otro centrado en las revoluciones científicas que sustentan lo que denomino pensamiento subyacente, donde las aportaciones de los ámbitos científicos más dinámicos se incorporan al trasfondo de contenidos y referencias conceptuales que definen niveles básicos de alfabetización y desarrollo cultural.
Se ha tenido en cuenta el impacto de sucesivas revoluciones tecnológicas, asumiendo que no solo los contenidos teóricos contribuyen a establecer los umbrales básicos de alfabetización y conocimiento especializado requeridos para ciertos tipos de actividad profesional. En particular, se analiza el impacto de la digitalización y las aplicaciones de la inteligencia artificial popularizadas a través del uso de grandes modelos de lenguaje (LLM) y la IA generativa, interpretados como nuevos condicionantes de la producción cultural.
Los bloques finales se dedican a estudiar el papel del conocimiento riguroso como soporte de la democracia liberal; la confrontación entre comunidades profesionales ancladas en la realidad y grupos de afinidad ideológica; y las implicaciones de fenómenos como el anumerismo, el negacionismo y las estrategias de desinformación en la dinámica sociocultural. Entre otros aspectos, se analizan diversos vectores de irracionalidad en la política y la cultura, ligados a la instrumentalización de las redes sociales como plataformas de manipulación política y al factor de riesgo adicional que introducen los esquemas fallidos de liderazgo en las capacidades colectivas para la gestión de riesgos existenciales.
La dimensión social del conocimiento se analiza en un apartado específico, donde se evalúa la contribución del conocimiento experto al debate público sobre desafíos globales, la naturaleza y evolución de las universidades y su contribución al progreso y la cohesión social, considerando las consecuencias de la presión creciente por mercantilizar toda la producción de conocimiento y el esquema de incentivos que obliga a trabajar en formatos de hiperproductividad y autopromoción incesante.
El formato elegido para esta memoria técnica precisa algunas aclaraciones. La facilidad de navegación y buena legilibilidad en dispositivos con pantallas de diverso tamaño queda mejor resuelta como se hace en esta versión de fichero HTML5 único, con tabla de contenido al comienzo. Una razón determinante para optar por el formato HTML son las funciones de accesibilidad y personalización del texto que incorporan los navegadores más utilizados, y cuyas posibilidades son determinantes frente al PDF, como señalan en su política de accesibilidad organizaciones como arXiv (Why HTML?). Esto explica el interés por mantener un cuerpo de texto lo más simple y fluido posible, lo que permite traducir a cualquier idioma todo el contenido con un solo clic y, en los navegadores más utilizados, reproducir el texto con voces personalizables o hacer uso de las herramientas mencionadas para leer el texto sin distracciones. El cambio a un tema oscuro aporta mejor contraste y reduce la fatiga visual en la lectura.
Los listados en ocasiones extensos de enlaces, referencias y notas de ciertos apartados se han agrupado en bloques expandibles de texto plano, intentando que cada referencia ocupe una sola línea numerada, fácilmente identificable. Se evita así desplazar al final de cada capítulo el listado de notas y referencias, como suele hacerse en textos académicos cuya maquetación emula el formato impreso. El formato elegido aquí permite copiar de un solo clic cada bloque de enlaces o referencias —un componente de funcionalidad común en los manuales o documentación técnica con fragmentos de código— y facilita la comprobación por separado de las fuentes externas relacionadas con el contenido de cada apartado o sección.
Herramientas como stackedit, dillinger, zettlr, editormarkdown, typora o marktext proporcionan una vista previa con enlaces activos al pegar el contenido de cada bloque de referencias, simplificando el manejo de fuentes y su incorporación en aplicaciones de notas y bases de conocimiento como obsidian, joplin, notion o logseq.
Prácticamente todos los navegadores incorporan ya funciones para leer sin distracciones (Vista lectura, Modo envolvente) o permiten instalar extensiones con funcionalidad parecida (Just Read, Reader View, p. ej.). Las opciones de visualización, sumadas a las posibilidades de traducción automática y reproducción del texto con voces de calidad, hacen del formato HTML la opción natural, cuya vigencia y compatibilidad a largo plazo parecen garantizadas.
La documentación e indicaciones para los estudios de caso aparecen como un bloque plegado que se expande al clicar, utilizando una combinación de las etiquetas <details> y <summary> para facilitar una lectura fluida y sin distracciones del texto principal. En algunos apartados se introducen enlaces activos dentro del cuerpo de texto, que permiten una consulta rápida abriendo una nueva ventana o pestaña del navegador. El índice incluye un listado específico de estudios de caso y un glosario ampliado con respecto a versiones previas.
Como alternativas a los buscadores más populares se han utilizado Elicit, Perplexity, Copilot, GPT-4o1, iAsk y Claude 3.5 Sonnet, cuyos outputs han sido revisados y contrastados para detectar imprecisiones o errores en enlaces y referencias. El uso de estas herramientas ha sido útil para estructurar y resumir los aspectos relevantes en algunos estudios de caso y dar forma al extenso material en apartados saturados de contribuciones en la literatura. Es preciso reconocer que muchos recursos bibliográficos valiosos —sobre todo libros y monografías especializadas— habrían quedado fuera del radar de haber utilizado solo las herramientas convencionales de búsqueda en Science Direct, Scopus y Web of Science.
La relación entre gnoseología filosófica y disciplinas científicas emergentes o consolidadas es compleja y difícil de precisar en pocas líneas, al menos desde finales del siglo XVIII. Si proyectáramos los criterios de demarcación de la epistemología de la ciencia contemporánea hacia el pasado, habrían resultado dudosas o metodológicamente cuestionables muchas prácticas que contribuyeron a desarrollos tan exitosos como el descubrimiento de Urano en 1781, por William Herschel; los experimentos con pilas eléctricas de Alessandro Volta en 1800 (y primeras baterías); la teoría atómica de John Dalton en 1808 (aplicable a todos los elementos, entendiendo las reacciones químicas como reorganización de átomos); la teoría cinética de los gases desarrollada por Robert Boyle, Jacques Charles y Joseph Gay-Lussac entre 1802 y 1808; y los experimentos en electromagnetismo de Hans Christian Oersted, André-Marie Ampère y Michael Faraday entre 1820 y 1830.
Aunque la revolución científica moderna había ocurrido entre los siglos XVI y XVII, la consolidación del método hipotético-deductivo en la Filosofía Natural fue acompañada de muchos elementos especulativos, incertidumbres y prejuicios ontológicos acerca del valor de la inducción, la obtención de evidencia y los conceptos de causalidad aplicables en física y en biología. Muchos esfuerzos de clarificación conceptual tuvieron resultados notables en física (sobre todo en termodinámica y electromagnetismo), y no menos relevantes en biología (teoría de la evolución por selección natural) o psicología (percepción y papel de las sensaciones en el conocimiento). Pero puede sorprender el tiempo que se mantuvieron intactas abstracciones como la de tiempo y espacio absolutos en la explicación del movimiento hecha por Newton, junto con otras muchas consideraciones acríticamente asumidas de la alquimia y la astrología de la época.1
El avance simultáneo de diversas ramas de la filosofía natural entre 1780 y 1840 originó nuevas disciplinas y ramas de la ciencia contemporánea, que cristalizaron en desarrollos teóricos tan notables como la teoría de la formación de los planetas de Laplace (se originaron al desprenderse sucesivamente de la masa solar en ignición y en un movimiento rotatorio) o la ampliación de la tabla periódica de los elementos químicos (cuando Mendeleiev ordenó los átomos según sus propiedades y predijo la existencia de algunos elementos desconocidos). Los nuevos protocolos de investigación y trabajo sistemático de laboratorio redujeron el papel del azar en muchos resultados y facilitaron descubrimientos como el de los microorganismos, por Pasteur (demostrando así la causa de muchas enfermedades infecciosas y haciendo viables los primeros ensayos de vacunación). O, tras una revisión sistemática de muestras recogidas durante su expedición a bordo del Beagle, el núcleo teórico-conceptual de una teoría de la evolución por Darwin (y Wallace), según la cual las especies cambian a lo largo del tiempo por selección natural y adaptación al medio ambiente.
Sin embargo, los déficits teóricos y conceptuales en las metodologías de referencia dejaron en segundo plano contribuciones tempranas que, con décadas de perspectiva, resultaron cruciales para la comprensión de aspectos centrales de la biología y la psicología contemporánea,2 mientras daban audiencia y prestigio social a charlatanes de la frenología y la organología como Franz Joseph Gall, pese a las advertencias de profesionales destacados de la medicina y la cirugía de la época.3, 4
Del mismo modo que la física contemporánea se parece poco a lo que Aristóteles entendió por física, la teoría del conocimiento resultante de la interacción con la ciencia y la cultura desde finales del XVIII se parece poco a la gnoseología renacentista. Y es así pese al papel destacado que desempeñaron autores como René Descartes, David Hume, John Locke o William Whewell en clarificar las fuentes y procedimientos de obtención de conocimiento fiable. Incluso este último —a quien se atribuye la propuesta de sustituir el término filósofo natural por científico, dada la importancia que otorgaba a la inducción como base del método científico para conectar los hechos y las ideas— consideró perfectamente aceptable recurrir a causas sobrenaturales para explicar los saltos y vacíos en el registro fósil en la historia de la Tierra, por lo que no debe sorprender su controversia con quienes —como John Stuart Mill— sostenían la importancia de la lógica frente a la inducción para ampliar el conocimiento fiable.
Durante la segunda mitad del siglo XX se produce la consolidación de la epistemología como reflexión sistemática ligada a las ramas de la ciencia con mayor desarrollo: física, astrofísica, física nuclear, biología, bioquímica, genética, genética molecular, computación y teoría de la información, entre otras. Pero durante siglos la gnoseología filosófica había mantenido lazos estrechos con la filosofía natural y con el pensamiento matemático de su tiempo; y desde la ilustración griega se había considerado la geometría tan importante o más que la lógica para entrenar el razonamiento humano en el abordaje de múltiples problemas filosóficos. La diferencia en el siglo XX deriva de la complejidad de las relaciones interdisciplinares —que dificulta la coordinación entre saberes especializados— y de la mayor dificultad para conectar metodologías, herramientas de trabajo y dominios de conocimiento alejados entre sí, pero relevantes para aportar soluciones eficaces en problemas complejos (como suele ocurrir en cuestiones ambientales y de salud pública, por ejemplo).
Otro aspecto que condiciona el desarrollo de la teoría del conocimiento atañe al papel de la tecnología como factor determinante para el avance de la investigación científica y la consolidación de conocimiento fiable. En la historia de la ciencia y la tecnología se alude a la big science para explicar los cambios en la investigación científica ocurridos en los países industrializados durante y después de la Segunda Guerra Mundial. La investigación científica de calidad tiene como referente el modelo de proyectos a gran escala con financiación estatal que ha sido la condición de posibilidad material, profesional y financiera requerida para consolidar los grandes equipos de trabajo e instalaciones (aceleradores de partículas, grandes telescopios, láseres de alta potencia, colisionador de hadrones, laboratorios involucrados en el Proyecto Genoma Humano, etc.) responsables de las mayores transformaciones sociales, culturales, productivas y medioambientales de las últimas décadas.5
La complejidad creciente y la naturaleza multidimensional de los problemas en los que disciplinas científicas, tecnología, desarrollos normativos y ciencias sociales deben coordinarse para encontrar soluciones óptimas, eficientes e igualitarias sin generar conflictos ni distorsiones irreversibles de la dinámica social constituye un nuevo contexto de desafíos para la epistemología contemporánea, involucrada a menudo en problemas de carácter ético, político o geoestratégico para los que no disponía de perspectiva ni base teórico-conceptual.6, 7
1. Newton, Isaac (2011, orig. 1686). Principios matemáticos de la filosofía natural. Tecnos.
2. Piccolino, Marco, and Marco Bresadola (2002). 'Drawing a Spark from Darkness: John Walsh and Electric Fish.' Trends in Neurosciences 25 (1): 51–57. https://doi.org/10.1016/S0166-2236(00)02003-8
3. Wyhe, John Van (2002). “The Authority of Human Nature: The Schädellehre of Franz Joseph Gall.” The British Journal for the History of Science 35 (1): 17–42. https://doi.org/10.1017/S0007087401004599
4. Sakalauskaitė-Juodeikienė, Eglė et al. (2017). “The Reception of Gall’s Organology in Early-Nineteenth-Century Vilnius.” Journal of the History of the Neurosciences 26 (4): 385–405. https://doi.org/10.1080/0964704X.2017.1332561
5. El conocimiento aplicado y su impacto social fue objeto de estudio en obras como la Nueva Atlántida (The New Atlantis, 1626), de Francis Bacon, considerada uno de los primeros ensayos de prospectiva tecnológica. https://www.thomasmorestudies.org/wp-content/uploads/2020/09/Bacon-New-Atlantis-2020-Edition-7-6-2020.pdf
6. Repko, A. F., & Szostak, R. (2016). Interdisciplinary research: Process and Theory. Ch. 1, 4, 8, 11. SAGE Publications.
7. Bennett, L. M., & Gadlin, H. (2012). Collaboration and Team Science: From Theory to Practice. Journal of Investigative Medicine, 60(5), 768-775. https://doi.org/10.2310/jim.0b013e318250871d
Relación entre lógica, mundo y mente
- Sher (2016). "An Outline of a Foundation for Logic" (from: Epistemic friction: An essay on knowledge, truth, and logic, Ch. 10). Oxford University Press, pp. 253-338.
Ideas básicas 1. La lógica está fundamentada tanto en la mente como en el mundo, y estos fundamentos están interconectados. 2. La lógica debe funcionar en el mundo y por lo tanto debe estar fundamentada en el mundo, al menos en el sentido de estar limitada por el mundo. 3. Lecciones de la historia y situaciones hipotéticas muestran que la lógica es vulnerable a errores fácticos. 4. Debido a su conexión inherente con la verdad, la lógica está significativamente limitada por el mundo. 5. Ciertas leyes fuertes que rigen la realidad pueden permitir que la lógica lleve a cabo su tarea designada en el conocimiento. 6. La formalidad explica los rasgos característicos de la lógica, como la generalidad considerable y la fuerte fuerza modal. 7. La formalidad también explica otros rasgos atribuidos a la lógica: neutralidad de tema, abstracción, fundamentalidad, fuerte normatividad, certeza y cuasi-aprioridad. 8. La verdad es una fuente de normatividad epistémica en general, y la verdad formal es la fuente de la normatividad lógica. 9. El criterio de invariancia bajo isomorfismos resuelve el problema de Tarski de 1936 sobre constantes lógicas. 10. La formalidad contribuye a la sistematicidad de la lógica al cerrar una brecha entre el tratamiento de operadores lógicos en lógica de enunciados y de predicados. 11. La "tesis de primer orden estándar" limita las constantes lógicas sin justificación filosófica adecuada. 12. El criterio de invariancia ha llevado a desarrollos importantes en matemáticas y lingüística. 13. La conexión de la lógica con la verdad explica cómo la verdad de verdades lógicas se basa en la correspondencia. 14. Algunas objeciones a la caracterización de constantes lógicas son infundadas o se basan en malentendidos. 15. El criterio de invariancia establece una condición necesaria y suficiente sobre la logicalidad desde la perspectiva de la satisfacción de los requisitos de generalidad y fuerza modal. 16. La generalidad de la lógica se explica por su formalidad y una teoría de inferencia general no sería mejor que la lógica formal para realizar la tarea de la lógica. 17. Fundamentar la lógica en la realidad no la hace contingente, y la posibilidad de diferentes leyes formales no socava la necesidad de la lógica. 18. Los problemas debidos a ZFC no socavan la necesidad de la lógica en los niveles filosóficos más generales de la teoría. 19. El formalismo semántico proporciona una base común para la lógica y las matemáticas en los aspectos formales de la realidad. 20. La lógica y las matemáticas tienen una relación intrincada que implica una base común y una división del trabajo con respecto a lo formal. 21. El desarrollo entrelazado de la lógica y las matemáticas ejemplifica la circularidad constructiva. 22. Contrario a varias opiniones, las teorías lógicas son falibles y están abiertas a revisión basada en una variedad de consideraciones. 23. La lógica se extiende a contextos no verídicos porque las leyes formales son relevantes para cualquier discurso orientado al mundo. 24. Teorías como la lógica modal extienden la lógica estándar de maneras que divergen de nuestra extensión, pero aun así caen bajo la categoría de "lógica" desde nuestra perspectiva. 25. Algunas circunstancias justifican la aceptación simultánea de lógicas en conflicto, pero el pluralismo lógico radical que descuida los valores de verdad y examen crítico es rechazado.
Indicaciones:
El estudio de caso consiste en comparar la valoración del contenido hecha por tres usuarios distintos con la traducción/análisis automatizado de las ideas básicas (recogidas en la tabla) y la valoración sucinta que se detalla a continuación. El objetivo es identificar los aspectos cualitativamente diferentes que distinguen la tarea hecha por humanos de la realizada por un servicio de IA generativa, y sus implicaciones.
Fortalezas:
- Proporciona una base sólida para la lógica que explica sus rasgos clave como la generalidad y la necesidad a través del concepto de formalidad.
- Muestra cómo la lógica está sujeta a restricciones verídicas significativas y es revisable, contrario a opiniones comunes.
- Ofrece una explicación unificada de la lógica y las matemáticas que da cuenta de su interacción dinámica.
- Permite cierto pluralismo lógico justificado mientras rechaza un "todo vale" radical.
Debilidades potenciales:
- Algunos detalles técnicos de la caracterización de constantes lógicas podrían necesitar más elaboración para hacer frente a posibles objeciones.
- El tratamiento de lógicas no estándar como la lógica modal podría requerir un análisis más profundo de cómo encajan exactamente en el marco general.
- Se podría desarrollar más la explicación de cómo los descubrimientos empíricos podrían en principio conducir a la revisión lógica.
- El extracto presenta una explicación robusta y matizada de los fundamentos de la lógica, centrado en cuestiones clave y dejando espacio para un pluralismo razonable, como base para ampliar la investigación sobre la naturaleza de la lógica.
Cuestiones para el debate:
- ¿Qué criterios de relevancia diferenciados cabe destacar en la extracción de contenido hecha por humanos y en la que hace un servicio de IA generativa?
- ¿Hay algún sesgo detectable en el output obtenido?
- Las ideas seleccionadas de manera automática, ¿podrían servir de base para un trabajo fiable de indagación más exhaustiva? ¿Podría decirse lo mismo de las seleccionadas por humanos?
- ¿Qué supone el desarrollo de "asistentes de razonamiento" y de "sistemas cognitivos con capacidad agencial" para interpretar la naturaleza exclusiva del pensamiento humano?
Referencias adicionales:
1. Hu, P., & Ying, X. (2025). Unified Mind Model: Reimagining autonomous agents in the LLM era. arXiv. https://doi.org/10.48550/arXiv.2503.03459
2. Kvam, P. D., Sokratous, K., Fitch, A., & Hintze, A. (2024). Using artificial intelligence to fit, compare, evaluate, and discover computational models of decision behavior. Decision, 11(4), 599–618. https://doi.org/10.1037/dec0000237
3. Diaz-Asper, C., Hauglid, M. K., Chandler, C., Cohen, A. S., Foltz, P. W., & Elvevåg, B. (2024). A framework for language technologies in behavioral research and clinical applications: Ethical challenges, implications, and solutions. American Psychologist, 79(1), 79–91. https://doi.org/10.1037/amp0001195
El dinamismo de diversos dominios de investigación teórica y aplicada en el panorama científico actual contribuye a expandir los límites del conocimiento y a redefinir las metodologías y herramientas de trabajo con mayor potencial para transformar la sociedad y su dependencia de tecnologías esenciales de los próximos años.
Los desarrollos en Inteligencia Artificial y el acceso masivo de usuarios, empresas e instituciones de investigación a servicios potenciados por las capacidades de los grandes modelos de lenguaje (LLM) y sistemas preentrenados –tales como GPT-4 y GPT-3.5 de OpenAI, Copilot de Microsoft, Gémini de Google, Claude de Anthropic, LLaMA-2 de Meta, Falcon de TII y BLOOM del proyecto BigScience, entre otros– pueden contribuir a acelerar fases tediosas de la investigación cuantitativa, depurar resultados y mitigar sesgos en su interpretación. También puede proporcionar herramientas poderosas a usuarios malitencionados dispuestos a recurrir al fraude, la invención de datos y la fabricación de evidencia, con el riesgo de inducir procesos fácilmente incentivables de hiperproducción o simulación artificiosa de capacidades científicas.
La creciente dificultad para distinguir entre autoría humana y producción automatizada de contenidos carentes de rigor y base científica puede tener un efecto social y político gravemente distorsionador de la calidad del debate público y de la participación democrática. Sus implicaciones epistémicas atañen a las fuentes de evidencia, a la calidad de los procesos de filtrado y supervisión experta de contenidos, a la validación de los modelos y servicios puestos a disposición de usuarios o empresas y a las garantías del marco regulador vinculante para evitar que cualquier actor disemine contenidos e información de interés público sin las debidas garantías de objetividad, equilibrio y responsabilidad informativa.
El problema comenzó a tener una incidencia social significativa con la manipulación de bots y sistemas de mensajería en redes sociales durante las campañas de 2016 en Reino Unido (Brexit) y EE. UU. (presidenciales, con victoria de D. Trump); pero adquiere dimensiones inquietantes como factor de desestabilización política, polarización y riesgo de ciberseguridad a gran escala en los años posteriores.1, 2, 3
Una campaña de propaganda y acoso político orquestada con herramientas de IA fácilmente accesibles permite crear e introducir fácilmente en las redes contenido sesgado con apariencia engañosa de rigor y base histórica, por ejemplo. Sin mecanismos adecuados de control, puede permitir a grupos sin escrúpulos amplificar contenido discriminatorio para reforzar prejuicios existentes o llevar al colapso programas genuinos de lucha contra la pobreza, la discriminación o la mejora de las condicione de vida de millones de personas.4
La IA generativa puede ser utilizada para magnificar opiniones extremas y generar contenido que apela a las emociones fuertes, aquellas que activan reacciones irreflexivas o abiertamente irracionales en grandes sectores de la población. Amplificar el impacto de posiciones radicales incrementa las oportunidades de conflictos incontrolados, sustentados en ecosistemas de información fragmentados, cámaras de eco y entornos culturales dominados por patrones destinados a confirmar las creencias de grupo.5, 6
La dificultad para identificar el contenido generado por IA puede ser utilizada para crear noticias falsas, imágenes manipuladas y discursos engañosos dirigidos a minar la confianza en los medios profesionalizados, en las instituciones de control y en los cauces de comunicación científica. Sin capacidad para auditar el proceso de entrenamiento y la calidad de las fuentes de información utilizadas, será difícil establecer garantías robustas de transparencia, calidad, seguridad y reproducibilidad en los resultados obtenidos con tecnologías avanzadas de IA generativa.7, 8, 9
Con los desarrollos en biología sintética se asocia un potencial extraordinario para introducir rasgos inéditos en los sistemas biológicos existentes o desarrollar otros con funciones nuevas y mejoradas. Su potencial puede combinarse con desarrollos en el ámbito de la medicina personalizada, y esta a su vez resultar potenciada con el uso de nuevas capacidades de simulación de procesos biológicos para ensayar con fármacos innovadores y reproducir al detalle las características de ciertos órganos o sistemas del cuerpo humano con fines médicos.10, 11
Técnicas avanzadas de edición genética ligadas al empleo de sistemas CRISPR/Cas y sus alternativas establecen nuevos márgenes de precisión y potencial para el desarrollo de organoides y para obtener modelos más realistas con los que ampliar los conocimientos biológicos y poner a prueba nuevos tratamientos. En conjunto, aportan posibilidades inéditas de comprensión de aspectos evolutivos, fisiológicos, genéticos y organizativos de gran interés para los estudios comparativos del comportamiento y la cognición.12
La investigación científica contemporánea ha expandido notablemente los objetivos y problemas que interesan a la epistemología de la ciencia. No se centra solo en las características del conocimiento producido por la ciencia (y sus requisitos de objetividad, racionalidad, verificabilidad o falsabilidad), sino que ha reforzado la pertinencia de una teoría del conocimiento apta para integrar desarrollos interdisciplinares en dominios consolidados y emergentes, tecnologías y enfoques ligados a la big science y el desafío de los desarrollos en computación cuántica, inteligencia artificial y neurociencia cognitiva como base de nuevas posibilidades de comprensión de la naturaleza humana y del potencial de ampliación del conocimiento humano, sin las limitaciones impuestas por el sustrato biológico o el diseño evolutivo.
1. Abellán López, M. Á. (2023). “Negacionismo (Concepto).” EUNOMÍA. Revista En Cultura de La Legalidad, no. 24 (March): 250–60. https://doi.org/10.20318/eunomia.2023.7664
2. Moreno Muñoz, M. (2021). “Negacionismo y Conflicto Social.” Gazeta de Antropología, 37 (3) 09. https://doi.org/10.30827/Digibug.70333
3. Moreno Muñoz, M. (2018): "Mediación tecnológica de la interacción social y riesgos de su instrumentalización: el caso de la plataforma Facebook". Gazeta de Antropología, 34/2, art. 08: 1-18. http://hdl.handle.net/10481/54720
4. Lewandowsky, S. et al. (2017). “Beyond Misinformation: Understanding and Coping with the ‘Post-Truth’ Era.” Journal of Applied Research in Memory and Cognition 6 (4): 353–69. https://doi.org/https://doi.org/10.1016/j.jarmac.2017.07.008
5. Reisach, U. (2021). “The Responsibility of Social Media in Times of Societal and Political Manipulation.” European Journal of Operational Research 291 (3): 906–17. https://doi.org/https://doi.org/10.1016/j.ejor.2020.09.020
6. Chen, L. et al. (2022). “Social Network Behavior and Public Opinion Manipulation.” Journal of Information Security and Applications 64: 103060. https://doi.org/https://doi.org/10.1016/j.jisa.2021.103060
7. Dwivedi, Y. K. et al. (2021). “Artificial Intelligence (AI): Multidisciplinary Perspectives on Emerging Challenges, Opportunities, and Agenda for Research, Practice and Policy.” International Journal of Information Management 57: 101994. https://doi.org/https://doi.org/10.1016/j.ijinfomgt.2019.08.002
8. Vesnic-Alujevic, L. et al. (2020). “Societal and Ethical Impacts of Artificial Intelligence: Critical Notes on European Policy Frameworks.” Telecommunications Policy 44 (6): 101961. https://doi.org/https://doi.org/10.1016/j.telpol.2020.101961
9. Hamid, R., & Brohi, S. (2024). A Review of Large Language Models in Healthcare: Taxonomy, Threats, Vulnerabilities, and Framework. Big Data And Cognitive Computing, 8(11), 161. https://doi.org/10.3390/bdcc8110161
10. Mirza, Zeenat, and Sajjad Karim (2019). “Advancements in CRISPR/Cas9 Technology—Focusing on Cancer Therapeutics and Beyond.” Seminars in Cell & Developmental Biology 96: 13–21. https://doi.org/https://doi.org/10.1016/j.semcdb.2019.05.026
11. Bianchini, F. (2016). Artificial intelligence and synthetic biology: A tri-temporal contribution. BioSystems (2016), http://doi.org/10.1016/j.biosystems.2016.01.001
12. Martin, R. M. et al. (2019). “Highly Efficient and Marker-Free Genome Editing of Human Pluripotent Stem Cells by CRISPR-Cas9 RNP and AAV6 Donor-Mediated Homologous Recombination.” Cell Stem Cell 24 (5): 821-828.e5. https://doi.org/10.1016/j.stem.2019.04.001
Las tres últimas décadas han proporcionado perspectiva y evidencia robusta sobre el alcance devastador de la crisis climática y el papel que juegan la ciencia, la tecnología y el entramado industrial de producción, transporte y distribución de productos de consumo en la aceleración de impacto físico y humano. Pero la calidad, extensión y nivel de consenso experto asociado con los resultados de la investigación interdisciplinar sobre el problema ambiental no han logrado el respaldo esperable en los sistemas de liderazgo y coordinación internacional vigentes. Las sociedades humanas están más próximas que nunca a un umbral crítico de crisis multidimensional, disrupción de los mecanismos de cooperación global y falta de escala en los recursos e iniciativas de adaptación y mitigación, que expertos como Martin Rees (Our Final Hour: A Scientist's Warning, 2003) consideran antesala de un escenario catastrófico de proporciones inimaginables, para el que que se reserva la categoría de riesgo existencial.1, 2
Si bien la preocupación por las cuestiones ambientales ha estado presente en la comunidad científica con mucha antelación a sus picos de visibilidad en los medios generalistas, la percepción pública no ha evolucionado al ritmo que se acumula conocimiento riguroso y evidencia sobre la escala, frecuencia e intensidad de los fenómenos catastróficos ligados al clima ya ocurridos y la gravedad de las amenazas que diversos modelos coinciden en proyectar sobre el futuro inmediato de las zonas más pobladas de todo el planeta Tierra.3, 4, 5, 6
La dificultad para lograr que el conocimiento experto llegue al público no especializado y sirva de soporte a opiniones informadas en el debate público no es un problema nuevo. Tiene sus precedentes en los intentos de transmitir a la opinión pública el criterio de la comunidad experta sobre los riesgos asociados con la tecnología nuclear, las técnicas de recombinación genética y el uso de sustancias prohibidas en el medio ambiente o en la producción industrial, entre otros dominios de problemas.7, 8, 9, 10
A partir de la década de 1960, y con mayor énfasis en los años noventa, se difundieron en el siglo pasado numerosas contribuciones de investigadores con una trayectoria científica destacada que acertaron en su modo de alertar a la opinión pública sobre la gravedad de ciertos problemas: el uso de DDT en las poblaciones de insectos por parte de Rachel Carlson, en su obra "Primavera silenciosa", de 1962; la gravedad de la crisis ambiental y la necesidad de salvar la barrera entre ciencias y humanidades por parte de Edward O. Wilson en sus obras "Consilience" (1998) y "Génesis: El origen de las sociedades"; la fragilidad del planeta Tierra y de sus ecosistemas por parte de James Lovelock, en sus obras "La venganza de la Tierra" y "Novaceno", entre otras. Este grupo de divulgadores expertos comparte la característica de presentarse como interlocutores dispuestos a contribuir, sin intermediarios no especializados, a generar opinión informada, sensibilizar sobre la gravedad de ciertos desafíos y proporcionar elementos valiosos para acciones sociales, educativas y reguladoras ambiciosas, destinadas a preservar los bienes comunes (salud, biodiversidad, calidad del aire, ecosistemas, etc.) en peligro.
En el siglo XXI han tenido impacto destacable obras como Climate cover-up: The crusade to deny global warming, de James Hoggan (2009) y en particular Mercaderes de la duda, de Naomi Oreskes y Eric Conway (2010), sobre las estrategias de desinformación, negacionismo y subestimación de riesgos asociados con la cuestión ambiental, el efecto del humo del tabaco en la salud y el daño ambiental de la lluvia ácida o el deterioro de la capa de ozono. Sin aportar necesariamente investigación original en todos los problemas estudiados, el mérito de estas contribuciones ha sido mostrar la necesidad de integrar conocimientos, metodologías de trabajo y estrategias de comunicación para identificar, prevenir y contrarrestar las acciones de desinformación, retraso normativo y prolongación artificial de controversias e incertidumbre que impiden adoptar medidas eficaces ante problemas globales acuciantes.11, 12
Este tipo de contribuciones han hecho evolucionar también el alcance, las prioridades y las metodologías de trabajo en la epistemología reciente. No basta pasar de puntillas por el problema de la desinformación y los criterios de demarcación entre ciencia y pseudociencia, como si se tratase de aspectos que solo podían condicionar las decisiones de algunas personas incautas y desinformadas sobre el tratamiento equivocado para un problema de salud. Cuando las dinámicas de irracionalidad se convierten en un fenómeno colectivo por el papel que adquieren tecnologías y plataformas diseñadas para captar la atención sin importar la veracidad o rigor de los contenidos, los demás ámbitos de la cultura y las cadenas de toma de decisiones resultan contaminadas y sesgadas por opiniones absurdas, invenciones interesadas y polarización artificial, hasta el punto de generar escenarios de conflicto inmanejables.13, 14
Reflexiones que podían resultar acertadas mientras quedaban circunscritas a las implicaciones de una rama particular de la ciencia, resultan hoy insuficientes cuando el conocimiento científico que debería ser una parte vital del repertorio de la especie para lidiar con los cambios y gestionar la incertidumbre pierde su valor y, en esta dinámica, su potencial para enriquecer creencias tradicionales con nociones más precisas y mejor fundadas en resultados contrastados de investigación. Las tendencias a la especialización disciplinar en la epistemología de la segunda mitad del siglo XX se han visto contrarrestadas por los programas de reflexión interdisciplinar orientados a integrar conceptos, elementos teóricos, intereses y herramientas con las que contribuir a un debate público más racional e informado sobre problemas, riesgos y amenazas de alcance global. Un escenario de crisis sin precedentes es también una nueva oportunidad para una teoría general del conocimiento.15, 16, 17
Entre otros desafíos, se plantea el conflicto que supone aceptar la incertidumbre inherente a la ciencia moderna y a sus modelos explicativos —especialmente en campos como la física cuántica o las ciencias del clima— y divulgar las implicaciones del conocimiento bien consolidado acerca de riesgos y amenazas cuyos procesos causales y escala de impactos es sistemáticamente ignorada o subestimada por la ciudadanía y sus representantes. La epistemología de la ciencia no puede limitarse a exponer los criterios de racionalidad y metodologías que explican el progreso en ciertas ramas del conocimiento, cuando los elementos de conocimiento interdisciplinar que deberían informar políticas públicas racionales en la anticipación de escenarios de riesgo y gestión de problemas complejos se menosprecian o ignoran sistemáticamente, sea por impericia o por cabildeo de grupos dispuestos a invertir lo necesario para impedir cualquier cambio que menoscabe sus intereses.
Precisamente cuando han podido desentrañarse los mecanismos esenciales de la vida y tanto las técnicas de edición genética avanzada como los desarrollos en biología sintética muestran las posibilidades casi ilimitadas de interferir y alterar mecanismos evolutivos que —como los vinculados a procesos de envejecimiento— parecían intocables, se constata con datos y precisión abrumadora la cadena de extinciones y pérdida de biodiversidad desencadenada por la acción humana.18
Cuando el riesgo de saturación informativa contra el que alertaba Edward. O Wilson en 1999 ha adquirido la dimensión de problema social con impacto sistémico, ninguna institución de las sociedades avanzadas parece capaz de establecer mecanismos eficaces para contrarrestarlo. Lo que a finales del siglo XX podía considerarse una tarea de vital importancia que demandaría individuos capaces de sintetizar y extraer sabiduría del trasfondo de ruido y distorsión informativa, pocas décadas después se plantea como un déficit de las democracias desarrolladas que les puede llevar a su propia destrucción, a menos que se articulen estrategias ambiciosas para promover el pensamiento crítico e identificar el valor moral de las necesidades y aspiraciones de la humanidad en su conjunto.19
Al ruido generado por la saturación de fuentes, canales y piezas informativas se suma hoy el potencial de la inteligencia artificial en aplicaciones y desarrollos que emulan o mejoran la competencia humana promedio para tareas intelectualmente exigentes. Nunca ha sido tan fácil imitar la apariencia de prácticas epistémicas genuinas con versiones fraudulentas o mixtificadoras capaces de eludir controles básicos de producción y calidad en los resultados. Las posibilidades de fraude científico y exageración o invención de méritos en carreras profesionales vertiginosas elevan a una nueva dimensión la discusión sobre los criterios de demarcación, el componente institucional y el papel de la teoría del conocimiento como ámbito de reflexión interdisciplinar, capaz de evolucionar en función de los avances científicos y tecnológicos y adaptándose a una pluralidad creciente de métodos y perspectivas.
La epistemología contemporánea no puede desarrollarse vinculada solo a unas pocas ramas aventajadas de la ciencia; opera bajo la presión selectiva de problemas, campos de investigación y prácticas epistémicas que desafían los límites del conocimiento humano, obligándola a ser tan innovadora y adaptable como las teorías científicas que busca comprender. Si dejamos aparte esta interpretación de la teoría del conocimiento, son realmente escasas las alternativas para mantener un proyecto verosímil de comprensión del universo complejo y en constante cambio en el que vivimos.20, 21
1. Rees, Martin (2003). Our Final Hour: A Scientist's Warning: How Terror, Error, and Environmental Disaster Threaten Humankind's Future In This Century—On Earth and Beyond. Basic Books.
2. Spratt, David, and Ian Dunlop (2019). “Existential Climate-Related Security Risk: A Scenario Approach.” Melbourne: Breakthrough - National Centre for Climate Restoration. https://docs.wixstatic.com/ugd/148cb0_a1406e0143ac4c469196d3003bc1e687.pdfTambién: Dunlop, Ian, and David Spratt (2018). “What Lies Beneath: The Understatement of Existential Climate Risk.” Breakthrough - National Centre for Climate Restoration. https://climateextremes.org.au/wp-content/uploads/2018/08/What-Lies-Beneath-V3-LR-Blank5b15d.pdf
3. Trisos, C. H., Merow, C., & Pigot, A. L. (2020). The projected timing of abrupt ecological disruption from climate change. Nature. https://doi.org/10.1038/s41586-020-2189-9
4. Beard, S. et al. (2021). Assessing Climate Change’s Contribution to Global Catastrophic Risk. Futures. https://doi.org/https://doi.org/10.1016/j.futures.2020.102673
5. Poumadère, M., Bertoldo, R., & Samadi, J. (2011). Public perceptions and governance of controversial technologies to tackle climate change: nuclear power, carbon capture and storage, wind, and geoengineering. Wiley Interdisciplinary Reviews: Climate Change, 2(5), 712–727. https://doi.org/10.1002/wcc.134
6. Chung, J.-B., & Kim, E.-S. (2018). Public perception of energy transition in Korea: Nuclear power, climate change, and party preference. Energy Policy, 116, 137–144. https://doi.org/https://doi.org/10.1016/j.enpol.2018.02.007
7. Tzotzos, G. T., Head, G. P., & Hull, R. (2009). Chapter 5 - Risk Perception and Public Attitudes to GM BT - Genetically Modified Plants (pp. 115–146). Academic Press.
8. Goodfellow, M. J., Williams, H. R., & Azapagic, A. (2011). Nuclear renaissance, public perception and design criteria: An exploratory review. Energy Policy, 39(10), 6199–6210.
9. van der Pligt, J., Richard Eiser, J., & Spears, R. (1984). Public attitudes to nuclear energy. Energy Policy, 12(3), 302–305.
10. Goodfellow, M. J., Williams, H. R., & Azapagic, A. (2011). Nuclear renaissance, public perception and design criteria: An exploratory review. Energy Policy, 39(10), 6199–6210.
11. Oreskes, N. (2019). Climate Change Will Cost Us Even More Than We Think. Nytimes.Com. https://www.nytimes3xbfgragh.onion/2019/10/23/opinion/climate-change-costs.html
12. Brysse, K., Oreskes, N., O’Reilly, J., & Oppenheimer, M. (2013). Climate change prediction: Erring on the side of least drama? Global Environmental Change, 23(1), 327–337. https://doi.org/10.1016/j.gloenvcha.2012.10.008
13. Moreno Muñoz, M. (2018): "De la tercera cultura a los ecosistemas de reflexión interdisciplinar: alfabetización integradora inspirada en desafíos globales", en J. L. Gómez Ordóñez (coord.), La cultura de nuestro tiempo. Editorial Universidad de Granada, 2018: 249-270. https://doi.org/10.5281/zenodo.2549991
14. Hansson, S. O. (2017). Science denial as a form of pseudoscience. Studies in History and Philosophy of Science Part A, 63, 39–47. https://doi.org/10.1016/j.shpsa.2017.05.002
15. Romanello, M. et al. (2023). The 2023 report of the Lancet Countdown on health and climate change: the imperative for a health-centred response in a world facing irreversible harms. The Lancet, 402(10419), 2346–2394. https://doi.org/10.1016/S0140-6736(23)01859-7
16. MacAskill, William (2022). What We Owe the Future. Londres: Basic Books.
17. Rauch, J. (2021). The constitution of knowledge: A defense of truth. Brookings Institution Press.
18. Wilson, E. O. (2016). Half-earth: Our planet’s fight for life. Nueva York, NY, Estados Unidos de América: Liveright Publishing Corporation.
19. Wilson, E. O. (1998). Consilience. The Unity Of Knowledge. Vintage Books (p. 294).
20. Weisberg, Herbert I. (2014). Willful Ignorance: The Mismeasure of Uncertainty. Hoboken, NJ, Estados Unidos de América: Wiley-Blackwell.
21. Scharre, Paul (2023). Four Battlegrounds: Power in the Age of Artificial Intelligence. Nueva York, NY, Estados Unidos de América: WW Norton.
Perspectiva 1: El método científico: ¿un dogma más?
¿Es dogmático favorecer la extensión del método científico a todos los campos del pensamiento y de la acción consciente? Planteamos la cuestión en términos de conducta. El dogmático vuelve sempiternamente a sus escrituras, sagradas o profanas, en búsqueda de la verdad; la realidad le quemaría los papeles en los que imagina que está enterrada la verdad: por esto elude el contacto con los hechos. En cambio, para el partidario de la filosofía científica todo es problemático: todo conocimiento fáctico es falible (pero perfectible), y aun las estructuras formales pueden reagruparse de maneras más económicas y racionales; más aún, el propio método de la ciencia será considerado por él como perfectible, como lo muestra la reciente incorporación de conceptos y técnicas estadísticas.
Por consiguiente, el partidario del método científico no se apegará obstinadamente al saber, ni siquiera a los medios consagrados para adquirir conocimiento, sino que adoptará una actitud investigadora; se esforzará por aumentar y renovar sus contactos con los hechos y el almacén de las ideas mediante las cuales los hechos pueden entenderse, controlarse y a veces reproducirse. No se conoce otro remedio eficaz contra la fosilización del dogma — religioso, político, filosófico o científico— que el método científico, porque es el único procedimiento que no pretende dar resultados definitivos. El creyente busca la paz en la aquiescencia; el investigador, en cambio, no encuentra paz fuera de la investigación y la disensión: está en continuo conflicto consigo mismo, puesto que la exigencia de buscar conocimiento verificable implica un continuo inventar, probar y criticar hipótesis. Afirmar y asentir es más fácil que probar y disentir; por esto hay más creyentes que sabios, y por esto, aunque el método científico es opuesto al dogma, ningún científico y ningún filósofo científico debieran tener la plena seguridad de que han evitado todo dogma. De acuerdo con la filosofía científica, el peso de los enunciados —y por consiguiente su credibilidad y su eventual eficacia práctica— depende de su grado de sustentación y de confirmación. Si, como estimaba Demócrito, una sola demostración vale más que el reino de los persas, puede calcularse el valor del método científico en los tiempos modernos. Quienes lo ignoran íntegramente no pueden llamarse modernos; y quienes lo desdeñan se exponen a no ser veraces ni eficaces.
- Bunge (1995). La ciencia, su método y su filosofía. Sudamericana (cap. 12, pp. 90-92).
Perspectiva 2: La importancia del método en la investigación científica
La investigación científica es un proceso sistemático y riguroso destinado a generar conocimiento fiable y válido sobre el mundo natural y social. En este contexto, el método científico se erige como una herramienta fundamental que guía a los investigadores a través de un conjunto ordenado de pasos para formular hipótesis, recolectar datos, analizarlos y llegar a conclusiones verificables. La importancia del método en la investigación científica radica en su capacidad para garantizar la objetividad, reproducibilidad y validez de los resultados obtenidos.
Objetividad y eliminación de sesgos
Uno de los principales beneficios del método científico es su capacidad para minimizar los sesgos. Los procedimientos estandarizados y las técnicas de control, como los grupos de comparación y el cegamiento, ayudan a asegurar que las observaciones y conclusiones no estén influenciadas por las creencias o preferencias del investigador. Este enfoque permite que los resultados sean interpretados de manera imparcial, lo cual es crucial para la credibilidad de la ciencia. Según el estudio de Nosek et al. (2015), la implementación de métodos rigurosos es esencial para la reducción de sesgos y la mejora de la fiabilidad en la investigación científica.
Reproducibilidad
La reproducibilidad es otro pilar fundamental que demuestra la importancia del método científico. Un estudio es considerado reproducible si otros investigadores pueden seguir el mismo procedimiento y obtener resultados similares. Esto no solo valida los hallazgos originales, sino que también fortalece la confianza en la investigación. La reproducibilidad es crucial en la acumulación de conocimiento científico, ya que permite que las teorías se verifiquen y se expandan. Un artículo de Baker (2016) destaca que la reproducibilidad es vital para el progreso científico y que los métodos claros y detallados son esenciales para lograrla.
Validez y fiabilidad
La validez se refiere a la precisión con la que un estudio mide lo que pretende medir. El método científico asegura la validez a través de diseños experimentales robustos, muestreo adecuado y análisis estadísticos apropiados. La confiabilidad, por otro lado, se refiere a la consistencia de los resultados a lo largo del tiempo. Un método científico bien diseñado garantiza que los resultados sean tanto válidos como exactos y precisos (fiables), proporcionando una base sólida para confiar en su utilidad en futuras investigaciones y aplicaciones prácticas. Como señala Munafò et al. (2017), la adherencia a métodos rigurosos es fundamental para asegurar que los estudios sean válidos y confiables, y para mantener la integridad de la investigación científica.
En resumen, el método científico es esencial en la investigación porque proporciona un marco estructurado y sistemático que garantiza la objetividad, reproducibilidad y validez de los resultados. La adherencia a métodos rigurosos permite a los científicos minimizar sesgos, verificar resultados y construir un corpus de conocimiento confiable y aplicable. La importancia del método en la investigación científica no puede ser subestimada, ya que es el cimiento sobre el cual se construye todo el conocimiento científico.
Referencias
- Baker, M. (2016). 1,500 scientists lift the lid on reproducibility. Nature, 533(7604), 452-454. https://doi.org/10.1038/533452a
- Munafò, M. R., Nosek, B. A., Bishop, D. V., Button, K. S., Chambers, C. D., Percie du Sert, N., ... & Ioannidis, J. P. (2017). A manifesto for reproducible science. Nature Human Behaviour, 1(1), 1-9. https://doi.org/10.1038/s41562-016-0021
- Nosek, B. A., Ebersole, C. R., DeHaven, A. C., & Mellor, D. T. (2018). The preregistration revolution. Proceedings of the National Academy of Sciences, 115(11), 2600-2606. https://doi.org/10.1073/pnas.1708274114
GPT-4o (5/06/2024).
Perspectiva 3: La importancia del método en la investigación científica
La investigación científica es un proceso sistemático y riguroso cuyo objetivo es generar conocimiento nuevo y confiable sobre el mundo que nos rodea. En este contexto, el método desempeña un papel fundamental, ya que establece los principios y procedimientos que garantizan la validez y fiabilidad de los resultados obtenidos.
El método científico es un conjunto de técnicas y protocolos diseñados para abordar preguntas de investigación de manera objetiva y reproducible. Implica una serie de pasos lógicos y estructurados, desde la formulación de hipótesis hasta la recopilación, análisis e interpretación de datos empíricos. Estos pasos se basan en la observación, la experimentación y la medición, lo que permite obtener evidencia sólida y verificable.
La importancia del método en la investigación científica radica en varios aspectos clave:
Objetividad: El método científico promueve la objetividad al minimizar la influencia de sesgos personales, emocionales o ideológicos. Al seguir un conjunto de procedimientos estandarizados, los investigadores pueden analizar los fenómenos de manera imparcial y evitar interpretaciones subjetivas.
Reproducibilidad: Un método bien definido y detallado permite que otros investigadores puedan replicar los experimentos o estudios, lo que es fundamental para validar los hallazgos y fortalecer la confianza en los resultados.
Precisión y confiabilidad: El uso de técnicas de medición precisas y protocolos estandarizados garantiza que los datos recopilados sean confiables y representativos del fenómeno estudiado. Esto aumenta la calidad y la validez de las conclusiones obtenidas.
Transparencia y rendición de cuentas: Al documentar detalladamente los procedimientos y métodos utilizados, los investigadores promueven la transparencia y la rendición de cuentas en su trabajo. Esto facilita la revisión por parte de otros expertos y fomenta la integridad en la investigación.
Avance del conocimiento: El método científico proporciona un marco sólido para construir sobre los descubrimientos existentes y generar nuevos conocimientos de manera sistemática y acumulativa. Esto permite el progreso continuo en diversos campos de investigación.
En resumen, el método en la investigación científica es fundamental para garantizar la objetividad, reproducibilidad, precisión, confiabilidad, transparencia y el avance del conocimiento. Al adherirse a principios y procedimientos metodológicos rigurosos, los investigadores pueden obtener resultados sólidos y contribuir al desarrollo del conocimiento científico de manera significativa.
Claude-3 Sonnet (5/06/2024)
La diferencia entre epistemología y teoría general del conocimiento puede interpretarse como una cuestión de enfoque, tradición y problemas de referencia. Ambas disciplinas se ocupan del estudio del conocimiento humano, pero lo hacen desde perspectivas distintas y con intereses diferentes. La epistemología es una rama de la teoría del conocimiento, pero no la agota ni la sustituye. Se complementan, pero no se reducen una a la otra.
La filosofía especulativa fracasó en su intento de dar cuenta de los conceptos y las teorías de la ciencia moderna, especialmente a partir de la crisis terminológica y reinterpretaciones constantes en varios campos de la física a finales del siglo XIX. Este proceso prácticamente marca el derrumbe de la filosofía especulativa como fundamento de la ciencia, tras un periodo de acumulación de dificultades explicativas y desajustes con el avance de las demás disciplinas científicas.1
Pero tampoco el empirismo llevó a buen puerto su intento de basar todo el conocimiento en los datos de los sentidos, puesto que el desafío de explicar la génesis y la validez de los conceptos científicos resultó mayor de lo esperado y fracasaron los intentos de reducir las teorías a proposiciones observacionales.2
Ese aparente fracaso de la epistemología en el siglo XX —en su pretensión de emular una teoría más general del conocimiento— difícilmente encajaba con las expectativas de progreso a partir del estudio focalizado en las ciencias particulares, sobre todo en la física, la biología y la matemática. La epistemología sigue asociada con el estudio del conocimiento científico en sus múltiples ramas, obtenido mediante el uso de procedimientos sistemáticos, racionales y sustentados en la evidencia. En este sentido solapa su objeto con la filosofía de la ciencia, con la que comparte la pretensión de analizar la naturaleza, el origen, la estructura, los límites y la justificación del conocimiento científico, incluyendo los criterios de racionalidad y sus implicaciones.3
De ahí que la epistemología se desarrolle principalmente en el siglo XX, como consecuencia de los avances y las crisis de la ciencia moderna, inspirándose sobre todo en las tradiciones empirista, racionalista y pragmatista de la filosofía moderna (con referentes teóricos tan heterogéneos como Karl Popper, Thomas Kuhn, Imre Lakatos, Paul Feyerabend, W. V. O. Quine o Bas van Fraassen, entre otros).
La preocupación por los elementos universalizables de cada sistema filosófico que serían de interés para una teoría general del conocimiento (según plantea J. Hessen)4 ha sido relegada en favor del estudio de cómo el conocimiento puede obtenerse mediante diversas fuentes, formas y modos. Se asocia con su configuración a lo largo del siglo XIX, en parte como reacción a las críticas e intentos de reforma de la filosofía clásica, pero considerando también el carácter problemático de su cercanía a las tradiciones idealista, fenomenológica y hermenéutica de la filosofía contemporánea (cuyos referentes teóricos son Immanuel Kant, Georg Hegel, Edmund Husserl, Martin Heidegger o Hans-Georg Gadamer).5, 6
De resultar viable, el interés de una teoría general del conocimiento (TGC) —en el sentido de no estar limitada exclusivamente a la epistemología de las ciencias particulares— sería ofrecer una visión coherente del conocimiento humano que abarque sus diversas manifestaciones, sus fundamentos, alcance y limitaciones; y que ayude a entender mejor cómo adquirimos, usamos y evaluamos el conocimiento, tanto en el ámbito científico como en la resolución de problema de la vida cotidiana. Esto incluye la reflexión sobre sus implicaciones éticas, históricas, sociales y culturales. Y tiene numerosos precedentes en los intentos de unificar dominios explicativos en física, en biología y en otras ciencias.7
En ciencia la unificación no es solo un objetivo epistémico, sino un proceso dinámico que implica desarrollos conceptuales y matemáticos, y puede requerir la reestructuración de las teorías concernidas. Como sostiene Margaret Morrison (2000), es improbable que tengan recorrido hoy las concepciones reduccionistas y explicativas de la unificación, sobre el supuesto de que una teoría unificada debe derivar o explicar todas las demás teorías. Tales enfoques ignoran la complejidad y la diversidad de las prácticas científicas, así como el papel de la interpretación y la representación en la construcción de las teorías unificadas. Morrison propone una visión estructural de la unificación, que se centra en las relaciones matemáticas y conceptuales que vinculan las diferentes teorías. Su ejemplo de referencia es la integración de la selección natural y la genética mendeliana en la genética evolutiva.8
La TGC podría ser útil para facilitar el diálogo y la colaboración entre las diferentes disciplinas y áreas del saber, reconociendo sus conexiones y diferencias en los aspectos relevantes. El contexto cultural, científico y filosófico de la tercera década del siglo XXI se caracteriza por una gran complejidad y diversidad de manifestaciones, bajo el efecto de cambios que aceleran la dinámica de multiplicación, especialización y fragmentación del conocimiento. Si bien la especialización abre nuevos espacios de creatividad para la investigación, la fragmentación puede contribuir a nuevas formas de irracionalidad y pérdida de foco entre la comunidad experta. Esto ocurre precisamente cuando mayor es la necesidad de encontrar soluciones a problemas sin precedentes en su alcance y complejidad, en los cuales cada paso debería estar sustentado en el mejor conocimiento disponible.8
En contexto formativo, el desarrollo de las destrezas filosóficas puede potenciarse con un bloque de contenidos teórico-prácticos centrados en la unidad del conocimiento y en los elementos teóricos, metodológicos e interdisciplinares que pueden contribuir a proporcionar una visión más global y crítica del conocimiento. Esta materia daría la oportunidad de integrar y relacionar los saberes de diferentes campos y niveles implicados en un extenso listado de problemas y estudios de caso. Y podría ser lo bastante detallada para contribuir a desarrollar competencias transversales (pensamiento crítico, creatividad, habilidades de comunicación y colaboración, disposición al aprendizaje permanente, etc.) asociadas con los retos y oportunidades de la sociedad del conocimiento.
Igualmente, serviría de antídoto frente a las perspectivas reduccionistas del conocimiento científico y sus aplicaciones, propiciando enfoques más integradores y reflexivos sobre cómo entender el mundo y el impacto de la actividad humana en él, identificando los valores e intereses sociales en la ciencia y la relación entre ciencia y otras formas de conocimiento o prácticas culturales.9, 10, 11, 12, 13, 14
1. Eastman, Timothy E., Michael Epperson, y David Ray Griffin, eds. (2016). Physics and Speculative Philosophy: Potentiality in Modern Science. Berlín: De Gruyter. https://doi.org/10.1515/9783110451818
2. Doppelt, Gerald (2005). “Empirical Success or Explanatory Success: What Does Current Scientific Realism Need to Explain?” Philosophy of Science 72 (5): 1076–87. https://doi.org/10.1086/508958
3. Arran, Gare. (2014). Speculative Naturalism: A Manifesto. Cosmos and history: the journal of natural and social philosophy, 10(2), 300-323.
4. Hessen, Johannes (2006). Teoria del Conocimiento. Losada.
5. Compton, John J. (2002). “Toward a phenomenological philosophy of nature”. En Hermeneutic Philosophy of Science, Van Gogh’s Eyes, and God, 195–202. Dordrecht: Springer Netherlands.
6. Greco, D. (2023). Idealization in epistemology: A modest modeling approach. Londres, Inglaterra: Oxford University Press.
7. Jones, Todd (2013). "Unification", in Curd, Martin, y Stathis Psillos, eds. The Routledge companion to philosophy of science. Routledge. Ch. 52, pp. 552-560.
8. Morrison, Margaret (2000) Unifying Scientific Theories, Oxford: Oxford University Press.
9. Audi, R. (Ed.). (1999). The Cambridge Dictionary of Philosophy (2nd ed.). Cambridge University Press.
10. Audi, Robert (2006). Diccionario Akal de Filosofia. Akal Ediciones.
11. Bunge, Mario (1998). Epistemologia: Curso de Actualizacion. 2a ed. Siglo XXI Ediciones.
12. García, R. (2006). Epistemología y Teoría del Conocimiento. http://www.scielo.org.ar/scielo.php?script=sci_arttext&pid=S1851-82652006000200002
13. Proudfoot, Michael, A. R. Lacey (2009). The Routledge dictionary of philosophy. 4a ed. Londres, Inglaterra: Routledge.
14. Keller, Albert (1988). Teoría general del conocimiento. Herder.
Entre los problemas que pueden analizarse como reflexiones preliminares para entender el interés de la teoría del conocimiento figuran la crisis de los modelos deterministas (por sus consecuencias para las metodologías de investigación científica) y el problema de la demarcación entre ciencia y otros productos culturales que compiten por un estatus o reconocimiento similar.1
El primero obliga a realizar un análisis del concepto de causalidad, incluyendo su evolución en el dominio teórico propio de la física clásica hasta sus versiones contemporáneas, conectadas con marcos teóricos de referencia y modelos del mundo físico completamente alejados del primero. En el paradigma clásico, el determinismo científico asume que los cambios en la realidad física se producen según principios o reglas totalmente predeterminadas, sin una incidencia efectiva del azar (este no sería más que un fenómeno aparente), aunque la complejidad del mundo lo haga casi impredecible en la práctica. Entendida la causalidad como la "relación necesaria entre causa y efecto", se aplica en ciencia a la relación entre acontecimientos, procesos, fenómenos con un patrón de regularidad y la producción de cierto efecto o resultado. La dependencia lógica y cronológica del efecto con respecto a la causa es el aspecto clave. Pero pueden ser muchos los factores que intervengan en la relación causal que desencadena el efecto.2, 3
Se puede interpretar la causalidad como una abstracción que indica cómo progresa el mundo, con un estatus de concepto básico que resulta útil para explicar otros conceptos (y para cuya explicación no cabe apelar a conceptos más básicos). La causalidad está implícita en la lógica y la estructura del lenguaje ordinario, y en la explicación científica es precisamente lo que se intenta explicitar, al margen de otros aspectos ontológicos, epistémicos o metafísicos de interés.3
En ciencia y filosofía se interpreta el principio de causalidad en el sentido de que para todo evento existe una causa, de la que el propio evento es uno de los efectos. En consecuencia, los sucesos no se producen de manera aislada, sino en procesos de interacción e interdependencia, a cuyos primeros componentes denominamos causa y a los segundos, efectos. En la investigación científica se asume que la mejor forma de entender y explicar es descubriendo o explicitando las causas, lo que abre la posibilidad de prevenir y controlar los efectos en el dominio del mesocosmos. Pero quedan fuera del alcance del concepto de causa tradicional los ámbitos explicativos cuya base teórica se considera probabilística (es decir, no determinista), como en estadística inferencial y en los campos de estudio de las ciencias sociales donde los modelos más comunes dependen del análisis estadístico de las variables identificadas. El anclaje probabilístico en las explicaciones obliga a manejar con cautela diversos elementos adicionales (población y muestra de datos, estimación de parámetros, cálculo de intervalos de confianza, puesta a prueba de hipótesis, etc.) de los que dependerá el grado de confianza y precisión de las inferencias útiles para la toma de decisiones informadas.4, 5
La noción no probabilística de causalidad se asocia en física con el determinismo como enfoque explicativo, según el cual el estado del universo en un momento dado, su historia pasada y su evolución hacia adelante se explican por las leyes básicas introducidas por la física clásica. Las leyes del movimiento de Isaac Newton permiten deducir los estados en ambas direcciones del tiempo si alguien conociera las posiciones y momentos presentes de todas las partículas. La única limitación sería de tipo práctico (p. ej., poder computacional) pero no ontológica o metafísica.6
El atractivo del enfoque determinista no se debe solo al carácter problemático de los enfoques rivales. Su poder explicativo y predictivo aporta herramientas para entender la cadena que asocia causas con efectos, pero a costa de difuminar el papel de la acción libre en cualquier eslabón de esa cadena. Si las leyes de la física son deterministas, y nuestras acciones son solo la suma de las interacciones de las partículas, parece que no queda espacio para la libre elección entre dos cursos de acción, porque los estados anteriores del universo ya habrán determinado el resultado de nuestra elección. Sin capacidad de elegir libremente, nadie debería ser premiado o castigado por sus acciones. La aceptación del indeterminismo en la física cuántica —pese a que esta asociación puede resultar hoy acrítica e irreflexiva— ha obligado a reconsiderar lo que significa "explicar" un fenómeno en ciencia, relegando el componente de certeza y sustituyéndolo por modelos probabilísticos que, dentro de los límites de nuestra capacidad de observación y medición, pueden ofrecer una explicación satisfactoria.7, 8
Tampoco el paradigma determinista clásico estaba exento de límites. A muchos efectos, no resultaba lo bastante determinista para explicar la complejidad de las condiciones iniciales que habrían podido llevar al universo actual.9 Y dejaba abierta la cuestión de cómo valores indeterminados de las magnitudes físicas se vuelven determinados.10 Las declaraciones sobre el determinismo universal de Laplace y Du Bois-Reymond se hicieron desde un contexto y programa de investigación específicos (el cual, según van Strien, no representaba una opinión mayoritaria, por lo que cabe considerar el determinismo de esta época más una expectativa que un resultado establecido). Y físicos como Mach, Poincaré y Boltzmann no consideraban el determinismo una afirmación sobre el mundo, sino más bien una característica de la investigación científica.17
El prejuicio determinista no puede basarse solo en la experiencia acumulada de casos observados (puesto que deja fuera casos no observables y no necesariamente compatibles con el patrón de los observados). El principio de indeterminación de Heisenberg sugiere que, a niveles subatómicos, el comportamiento de las partículas no se puede predecir con certeza absoluta, sino solo en términos de probabilidades. Pero, desde otras perspectivas, "el Universo cuántico es más determinista que uno clásico, proporcionando explicaciones más sólidas y mejores predicciones".7, 11
En la explicación del comportamiento humano, por lo tanto, resulta arriesgado evocar la teoría cuántica y sus implicaciones para defender el libre albedrío. Si no cabe descartar que el universo cuántico sea fuertemente determinista, incluso en términos a los que el paradigma clásico no podía aspirar, no habrían existido más alternativas para hacer el Universo que las que lo han llevado a lo que es.7, 8
Las dificultades conceptuales del determinismo se plantean en un proceso análogo al seguido en el debate académico para establecer un criterio claro de demarcación científica. La comunidad experta enfatiza en casi cualquier dominio disciplinar la importancia de la pluralidad metodológica y la tolerancia epistemológica, siempre y cuando se mantengan algunos filtros escépticos de tipo práctico como el resultante de la revisión por pares, la replicabilidad de los resultados o la transparencia en las herramientas y metodologías utilizadas. Se trata de criterios prácticos para evaluar la validez científica, más que requisitos de falsabilidad teórica. Pero suficientes para excluir como pseudociencia muchos enunciados y enfoques teóricos, incluso en los paradigmas más tolerantes a la diversidad.12, 13
Una distinción neta entre ciencia y no-ciencia puede ser viable en la práctica, pero resultar controvertida en la teoría. El criterio popperiano de falsabilidad —según el cual una teoría es científica solo si se puede concebir una observación o un experimento que la refute— es pertinente y útil para distinguir, por ejemplo, entre productos de utilidad médica y pseudoterapias; pero su aplicación en ciencias sociales y en ámbitos de la cultura donde coexisten discursos descriptivos, explicativos o de naturaleza prospectiva puede resultar controvertida e ineficaz. Y puede suponer un desafío extraordinario en cualquier intento de probar empíricamente núcleos teóricos de gran complejidad como los que subyacen a las ciencias del clima o en campos como la teoría de cuerdas.14
Cuando un colectivo de investigadores en física teórica considera que su campo debe estar exento del requisito de comprobación experimental, proponiendo un criterio alternativo de "elegancia explicativa" como requisito válido para su aceptación, hace algo más que distanciarse de una tradición filosófica ligada al empirismo: con ello altera el marco común de reglas consensuadas sobre calidad metodológica en la investigación científica y degrada su propio terreno profesional "a una tierra de nadie entre las matemáticas, la física y la filosofía que no responde realmente a las exigencias de ninguna de ellas." Abriendo la puerta, además, a especulaciones infundadas sobre multiversos incomunidados entre sí; teoría de cuerdas y membranas —sobre entidades fundamentales inobservables solo descritas por idealizaciones geométricas—, observadores duplicados en universos paralelos y ciencia post-empírica.15, 16
Estas reflexiones introductorias bastan para constatar que el conocimiento científico tiene sus límites, teóricos y prácticos. Como los tiene la epistemología de las ciencias particulares (incluso en sus componentes estrictamente lógicos o formales) y cualquier teoría de propósito más general que las incorpore como objeto de estudio. La investigación científica se desarrolla dentro de ciertos marcos conceptuales que operan con un grado razonable de eficacia hasta que se acumulan casos y problemas de difícil explicación, y que demandan nuevos enfoques y herramientas metodológicas, en lugar de justificar una rebaja en los criterios de racionalidad y calidad de la investigación.12
De forma similar, la epistemología evoluciona en interacción con otras disciplinas que a menudo plantean desafíos teóricos y prácticos para la aplicación de nociones tan básicas como las de causalidad y determinación. Las dificultades, sin embargo, no deberían difuminar el papel de los múltiples criterios de calidad epistémica bien consolidados y el valor de los modelos o resultados de investigación con los que resultan compatibles. La ciencia no es la única respuesta a la necesidad humana de comprender el mundo. Pero, asumiendo que ninguna de sus pretensiones está exenta de justificación, la forma en que lo hace se puede distinguir razonablemente de la religión, la mitología o el sentido común.19
1. Gordin, M. D. (2023). The demarcation problem. In Pseudoscience: A Very Short Introduction (pp. 1–15). Oxford University Press. https://doi.org/10.1093/actrade/9780190944421.003.0001
2. Veánse las entradas "Determinismo científico" (https://es.wikipedia.org/wiki/Determinismo_cient%C3%ADfico) y "Causalidad - Filosofía" (https://es.wikipedia.org/wiki/Causalidad_(filosof%C3%ADa)) en Wikipedia, suficientes para el objetivo de esta introducción.
3. Véase el desarrollo adicional en la sección a la que remite el enlace: https://es.wikipedia.org/wiki/Causalidad_(filosof%C3%ADa)#Epistemolog%C3%ADa.
4. Veáse la entrada "Explicación científica", en: https://es.wikipedia.org/wiki/Explicaci%C3%B3n_cient%C3%ADfica
5. Stanford, Kyle (2021). "Underdetermination of Scientific Theory", The Stanford Encyclopedia of Philosophy (Spring 2021 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/archives/spr2021/entries/scientific-underdetermination/.
6. Hoefer, Carl (2021). "Causal Determinism", The Stanford Encyclopedia of Philosophy (Spring 2021 Edition), Edward N. Zalta (ed.), en https://plato.stanford.edu/archives/spr2021/entries/determinism-causal/
7. Chen, E. K. (2023). Does quantum theory imply the entire Universe is preordained? Nature, 624(7992), 513–515. https://doi.org/10.1038/d41586-023-04024-z
8. Gea-Banacloche, Julio. 2022. “Causality, Determinism, and Physics”. American Journal of Physics 90 (11): 809–16. https://doi.org/10.1119/5.0087017
9. Del Santo, F. (2021). Indeterminism, Causality and Information: Has Physics Ever Been Deterministic? (pp. 63–79). https://doi.org/10.1007/978-3-030-70354-7_5
10. Del Santo, Flavio, y Nicolas Gisin (2019). “Physics without Determinism: Alternative Interpretations of Classical Physics”. Physical Review. A 100 (6). https://doi.org/10.1103/physreva.100.062107
11. Heisenberg, Werner (2000, orig. 1958). Physics and Philosophy: The Revolution in Modern Science. Londres, Inglaterra: Penguin Classics.
12. Kuhn, Thomas S. (1962). The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
13. Popper, Karl (1959). The Logic of Scientific Discovery. Londres: Routledge.
14. Coady, D., & Corry, R. (2013). The climate change debate: an epistemic and ethical enquiry. Palgrave Macmillan. Ch. 1-2.
15. Rosenberg, Alex. 2005. Philosophy of science: A contemporary introduction. 2a ed. Londres, Inglaterra: Routledge. Ch. 2-3. https://doi.org/10.4324/9780203087060
16. Portides, Demetris (2008). "Models" (ch. 36), in Martin Curd y Stathis Psillos (eds., 2008). The Routledge companion to philosophy of science. Londres, Routledge. https://doi.org/10.4324/9780203000502
17. van Strien, M. (2021). Was physics ever deterministic? The historical basis of determinism and the image of classical physics. The European Physical Journal H, 46(1), 8. https://doi.org/10.1140/epjh/s13129-021-00012-x
18. Ellis, G., & Silk, J. (2014). Scientific method: Defend the integrity of physics. Nature, 516(7531), 321–323. https://doi.org/10.1038/516321a
19. Smolin, Lee (2006). The trouble with physics: The rise of string theory, the fall of a science, and what comes next. Houghton Mifflin.
Texto 1 (sobre causalidad y determinismo)
«What of the status of causality and determinism in quantum mechanics? Probably the interest of the layman and the humanist in this book depends most on its answer to this question.
If this answer is to be understood, the reader must pay particular attention to Heisenberg's description of (a) the aforementioned definition of state by recourse to the concept of probability and (b) the Schrodinger time-equation. The reader must also make sure, and this is the most difficult task of all, that the meaning of the words "causality" and "determinism" in his mind when he asks the above question is identical with the meaning these words have in Heisenberg's mind when he specifies the answer. Otherwise, Heisenberg will be answering a different question from the one the reader is asking and a complete misunderstanding upon the reader's part will occur.
The situation is further complicated by the fact that modern physics permits the concept of causality to have two different, scientifically precise meanings, the one stronger than the other, and there is no agreement among physicists about which one of these two meanings the word "causality" is to be used to designate. Hence, some physicists and philosophers of science use the word to designate the stronger of the two meanings. There is evidence, at times at least, that this is Professor Heisenberg*s usage in this book. Other physicists and philosophers, including the writer of this Introduction, use the word "causality" to designate the weaker of the two meanings and the word "determinism" to designate the stronger meaning. When the former usage is followed, the words "causality" and "determinism" become synonymous. When the second usage is followed, every deterministic system is a causal system, but not every causal system is deterministic.»
- Northrop, "Introduction ", en W. Heisenberg (2000, orig. 1958). Physics and Philosophy: The Revolution in Modern Science. Londres, Inglaterra: Penguin Classics, pp. 10-11.
Texto 2 (sobre determinismo)
«What of determinism? Again, there is no agreed-upon convention among physicists and philosophers of science about how this word is to be used. It is in accord with the common-sense usage to identify it with the strongest possible causality. Let us, then, use the word "determinism" to denote only the stronger type of mechanical causation. Then I believe the careful reader of this book will get the following answer to his question: In Newtonian, Einsteinian and quantum mechanics, mechanical, rather than teleological, causality holds. This is why quantum physics is called quantum mechanics, rather than quantum teleologies. But, whereas causality in Newton's and Einstein's physics is of the stronger type and, hence, both mechanical and deterministic, in quantum mechanics it is of the weaker causal type and, hence, mechanical but not deterministic. From the latter fact it follows that if anywhere in this book Heisenberg uses the words "mechanical causality" in their stronger, deterministic meaning and the question be asked "Does mechanical causation in this stronger meaning hold in quantum mechanics?" then the answer has to be "No".
The situation is even more complicated, as the reader will find, than even these introductory distinctions between the different types of causation indicate. It is to be hoped, however, that this focusing of attention upon these different meanings will enable the reader to find his way through this exceptionally important book more easily than would otherwise be the case.
These distinctions should suffice, also, to enable one to grasp the tremendous philosophical significance of the introduction of the weaker type of mechanical causation into modern physics, which has occurred in quantum mechanics. Its significance consists in reconciling the concept of objective, and in this sense ontological, potentiality of Aristotelian physics with the concept of mechanical causation of modern physics.»
- Northrop, "Introduction ", en W. Heisenberg (2000, orig. 1958). Physics and Philosophy: The Revolution in Modern Science. Londres, Inglaterra: Penguin Classics, pp. 15-16.
Texto 3 (sobre determinismo estadístico)
«Statistical indeterminism — Having provided two examples of the way in which scientific results were somewhat zanily imported into the free will debate, I now pass to a longer-lived example that is far closer to the evolution of probability. There was a confused idea in circulation in the 1930s that quantum indeterminacy would provide room for free will. Statistical determinism is the exact opposite: when the laws of the world turn statistical, the elbow room for free will is diminished, if not eliminated.
The idea of law-like regularities in the ratios of birth and death is an old one, widely known after the publication, for example, of John Graunt's 1662 analysis of the London Bills of Mortality. What of regularities in the moral domain, where we appear concerned with the choices freely made by individuals? The eighteenth-century French economists were sure that there must be economic laws as rigid as Newton's celestial mechanics. It was increasingly understood that this must have something to do with probability, and it was foreseen that stable empirical frequencies would be essential to any study of law in the moral sciences. This became the popular wisdom of the intelligentsia. Thus by 1790 Madame de Stael noted the stability of divorce rates in certain Swiss cantons and inferred that these indicate laws in the moral realm.36 Yet any such reflections are patchy until there are systematic published data. Only in the 1820s did Paris and the department of Seine begin to publish statistics for the hospitals, suicides, crimes and so forth. In 1825 the French department of justice began its judicial statistics, counting and classifying kinds of crime and rates of conviction. Then began an avalanche of printed numbers. Before then, only Scandinavia had any systematic tabulations of social facts, and although the data collected by Lutheran pastors have proven a godsend for twentieth century historians of demography, their potential was hardly realized at the time. But after the 1820s Belgium, England and Wales, France, Holland, Scotland and the Italian and German states arose in a frenzy of counting and publishing numbers about the moral order: crime, suicide, marriage, divorce, prostitution. [p. 468]
One of the most important books of the 1850s was Henry Thomas Buckle's History of Civilization in England [London, 1857], intended as a mighty introduction to the history of civilization which he never lived to complete. (...) I cannot excel the 11th edition of the Encyclopedia Brittanica in summarizing one of the three chief theses in its entry on Buckle:'While the theological doctrine of predestination is a barren hypothesis beyond the province of knowledge, and the metaphysical doctrine of free will rests on an erroneous belief in the infallibility of consciousness, it is proved by science, and especially by statistics, that human actions are governed by laws as fixed and regular as those which rule the physical world.'» [p. 471]
- Hacking, (1983). Nineteenth Century Cracks in the Concept of Determinism. Journal of the History of Ideas, 44, 455: 468, 471.
Esquema (Kialo) con ejemplos a favor y en contra del determinismo genético:
Tesis de partida: "Los nuevos desarrollos en biología molecular han invalidado los enfoques deterministas de la relación entre genotipo y fenotipo."
→ https://www.kialo-edu.com/p/a8929d33-081b-4c9a-9798-1303028e71dd/147036
→ Véanse en el aptdo. Glosario y en el esquema.
Recursos externos para revisar nociones básicas de filosofía:
- Glossary of philosophy (2025). Wikipedia.
- Philosophy Terms. (2019).
- Audi, R. (2015). The Cambridge Dictionary of Philosophy. Cambridge University Press eBooks.
- Kemerling, G. (2011). Philosophical Dictionary.
- Weltman, D. (s. f.) Philosophy Glossary.
La institucionalización de la investigación y el conocimiento científico es un fenómeno resultante de la gestión, regulación y protocolización de sus actividades dentro de estructuras organizativas específicas como las universidades, los laboratorios de investigación y los organismos gubernamentales, en colaboración frecuente con instancias privadas. Este proceso ha contribuido positivamente al avance del conocimiento humano y ha permitido abordar problemas complejos con el nivel adecuado de recursos técnicos y humanos; pero no ocurre sin algunas contrapartidas indeseables en el desarrollo de la ciencia, en los incentivos y cultura de trabajo asociada, y en la consolidación de perfiles profesionales hiperespecializados, a menudo enfrentados en esquemas asimétricos de competición permanente. Sus ventajas, no obstante, han sido múltiples:
La institucionalización ha permitido una expansión sin precedentes del conocimiento científico, facilitando la especialización, la profundización en el estudio de problemas complejos y la emergencia de campos disciplinares específicos. En cuanto actividad institucionalizada, la investigación científica genera un sistema de roles y normas útiles para promover el desarrollo acumulativo y sistemático de conocimiento. Esta estructura ha permitido el florecimiento de disciplinas especializadas, con instalaciones y equipamiento costoso adaptado a sus necesidades, promoviendo una mayor precisión, orientación a resultados y profundidad en la investigación científica.1
La concentración del conocimiento científico en instituciones de cierto perfil ha supuesto para muchos actores cualificados obstáculos en el acceso, participación, y distribución equitativa de las oportunidades y financiación para generar conocimiento. La concentración de recursos humanos y científicos en ciertas instalaciones e instituciones tiene, entre otras ventajas, la ubicación de equipamiento costoso, recursos de explotación o mantenimiento asociado y personal altamente especializado en un solo lugar, aprovechando sinergias y talento para un amplio rango de tareas y procedimientos. Esto puede favorecer la colaboración y el intercambio de experiencias necesario para acelerar la obtención de resultados y el empleo de enfoques o técnicas de vanguardia en la investigación, reduciendo el coste del mantenimiento de las instalaciones o compartiéndolo entre varios grupos de investigación. Se favorece también la creación de nodos y sectores de actividad especializada, más competitivos y aptos para garantizar la transferencia de conocimientos al entorno social.
Entre sus inconvenientes es preciso considerar los obstáculos para la generación de conocimiento abierto, cuando solo un grupo reducido de organizaciones y países tiene acceso preferente o exclusivo a los recursos, instalaciones y resultados obtenidos. No es descartable que esta dinámica derive en posiciones de monopolio del saber en ciertas áreas, y en falta de transparencia sobre procedimientos o técnicas dominados por unas pocas instituciones líderes, con capacidad para establecer altos costes en los procesos de transferencia y aplicar de forma abusiva el sistema de patentes para proteger sus innovaciones.2, 3
La concentración de talento y tecnología tiene sus ventajas e inconvenientes, aunque no para todos los actores por igual. Moverse fuera de las redes dominantes de generación y transferencia de conocimiento conlleva pérdida de oportunidades de innovación, en procesos que pueden acusar el impacto de esquemas de liderazgo y cambios en el contexto social determinantes para la atracción de talento vinculado a los programas de I+D. Estos inconvenientes no cuestionan ciertos esquemas de concentración de recursos; solo refuerzan la importancia de operar con ecosistemas diversos, que incorporen nodos de excelencia bien conectados globalmente con otros centros de conocimiento, para contrarrestar la hegemonía de unas pocas instituciones académicas y la marginación de conocimientos generados en otros países (o exclusión en la toma de decisiones).3, 4
La institucionalización de la investigación científica se asocia con un aumento en la calidad y el rigor científico como resultado de la estandarización de metodologías y prácticas de investigación. Esta dinámica refuerza las garantías de fiabilidad y reproducibilidad de los resultados. Las instituciones con larga trayectoria de dedicación a la investigación generalmente consiguen articular mecanismos robustos para evaluar la calidad de los trabajos de investigación antes de que sean publicados o financiados, excluyendo un alto porcentaje de estudios de baja calidad o con resultados poco relevantes. Además, consolidan programas de formación y capacitación de investigadores inspirados en buenas prácticas de investigación, con impacto a largo plazo en la cultura de trabajo y en la mejora de la infraestructura de soporte (laboratorios, equipos y fuentes estables de financiación), lo que permite al colectivo de investigadores implicarse en estudios de mayor complejidad.
La perspectiva etnográfica sobre "la vida en el laboratorio" que adoptaron autores como Bruno Latour y Steve Woolgar suscitó hace unas décadas cierto interés sobre cómo se construyen los hechos científicos.5 Es obvio que la mera observación empírica no produce hechos científicos (al menos, no sin manipular ciertas herramientas y materiales según protocolos y criterios establecidos). La cantidad y calidad del trabajo que precede a la identificación de un dominio de problemas relevante para el estudio detallado de alguno de sus componentes queda normalmente fuera de foco en la perspectiva antropológica sobre lo que se hace en los laboratorios, puesto que la existencia de estos responde a elementos, estudios y necesidades de naturaleza teórica o práctica que resultan inexplicables desde enfoques centrados en la dinámica interna del laboratorio. La complejidad de los procesos sociales e interpretativos que lleva al establecimiento de nuevos hechos científicos o consolida modelos y enfoques teóricos como instancias de conocimiento bien establecido se muestra en toda la red de nodos de actividad y comunicación formal e informal de la comunidad científica, no solo en determinadas instalaciones de vanguardia o entre grupos con liderazgo científico internacionalmente reconocido.
Los enfoques etnográficos de las prácticas científicas pueden ser útiles para precisar cómo cierto tipo de interacciones en determinadas instituciones pueden dar cabida a decisiones subjetivas, negociaciones, intereses y contingencias históricas susceptibles de condicionar la producción de conocimiento con factores extra-epistémicos (obtención de recursos, rivalidad entre grupos, reputación, intereses de la industria camuflados en el caudal de publicaciones científicas, pertenencia a escuelas ideológicas o grupos de poder, etc.).6, 7
Sin embargo, la perspectiva sociológica tiene la contrapartida de reducir a la irrelevancia el componente intelectual y los esfuerzos de clarificación epistémica subyacentes a la investigación científica, sin los cuales la actividad de laboratorio difícilmente podría diferenciarse de la que se realiza en cualquier sector de actividad industrial, o en un gabinete de militantes durante el periodo electoral. La ingenuidad sobre el carácter aséptico y neutral de las fuentes de financiación de la investigación científica desapareció durante el periodo de entreguerras y el desarrollo posterior de la big science. Una visión internalista y aséptica de la ciencia, cuyos resultados se explican únicamente desde la lógica, el método científico y los criterios epistémicos aplicados, ignora el peso que tienen otros condicionantes sociales, culturales y materiales en la producción de conocimiento. Aspectos que, de forma dramática, pudieron constatarse con el hundimiento de la financiación pública para investigación en el periodo de la Gran Recesión o durante la carrera para desarrollar vacunas eficaces contra la pandemia de COVID-19.8
Por lo tanto, cuando se trata de resolver problemas complejos para satisfacer necesidades sociales apremiantes, importan sobre todo los elementos de evidencia científica, consistencia teórica y capacidad tecnológica que pueden aportarse con expectativas razonables de no quedar empantanados en el juego de intereses, modas, opiniones y preferencias ideológicas de los actores concernidos. A diferencia de lo que ocurre en el debate público, la comunidad experta tiene un largo historial de adoptar posiciones de consenso sobre temas y problemas de extraordinaria complejidad (en salud pública, protección del medio natural y la calidad del aire, en programas de erradicación del hambre, prevención de desastres naturales, etc.), por razones ligadas fundamentalmente a la lógica del conocimiento y apoyada en datos y criterios robustos de interpretación de los escenarios de riesgo (visión internalista).9, 10, 11
La estandarización de enfoques, so pretexto de mejorar el rigor y la calidad de la investigación, puede inducir dinámicas de homogeneización susceptibles de ahuyentar a investigadores con talento creativo y marginar a grupos dispuestos a explorar metodologías alternativas en dominios de problemas disputados. El efecto de la estandarización metodológica en ciencias sociales puede alimentar una falsa impresión de objetividad, sobre resultados que bajo otros enfoques resultarían simplificadores, reduccionistas o irrelevantes, cuando no claros ejemplos de colonización cultural.12
El cuasimonopolio que ejercen de facto ciertas empresas que controlan las grandes plataformas de bases de datos de publicaciones científicas (incluyendo una gran opacidad sobre los algoritmos de indexación, estimación de impacto, métricas y recomendaciones sesgadas en la búsqueda de resultados) genera un contexto favorable a prácticas abusivas y extractivas, con un impacto a gran escala en la calidad de los resultados de investigación y en la promoción vertiginosa de ciertos perfiles profesionales, grupos editoriales y campos disciplinares.13, 14, 15
La dependencia de la investigación científica más costosa de fuentes de financiación institucional ha generado preocupaciones justificadas sobre la influencia de intereses políticos y económicos en la dirección y objetivos de los programas científicos. La influencia del lobby farmacéutico en la literatura biomédica, por ejemplo, es un fenómeno bien constatado, con un alto porcentaje de publicaciones inyectadas en el flujo de trabajos y resultados de investigación supervisado por expertos.6
En otros ámbitos de conocimiento, el papel de actores privados como financiadores sería impensable si existiera la más remota posibilidad de que los resultados resultaran de algún modo incómodos o contrarios a sus intereses.16 Para contrarrestar eventuales sesgos de entidades privadas, las fuentes de financiación gubernamentales pueden aportar un mayor espacio de independencia y creatividad; pero, en contextos de escasez o con esquemas de liderazgo fuertemente ideologizados, también los canales públicos pueden manipularse en función de prioridades efímeras y en detrimento de la investigación de calidad, guiada por la curiosidad científica.
El lucrativo mercado de las publicaciones científicas indexadas en bases de datos de unas pocas empresas privadas ha generado un floreciente mercado de productos culturales —la Nueva Economía del Conocimiento— en las que las empresas que más beneficio obtienen son las que menos han contribuido al trabajo investigador de base, a la financiación de los medios necesarios para la obtención de resultados, a la evaluación de los mismos y a la formación del personal altamente especializado que los produce. Su papel consiste en servir de intermediarios con ánimo de lucro en la difusión, absorbiendo porcentajes crecientes del presupuesto destinado a la I+D por las instituciones y grupos dedicados a la investigación.17
Sea al inicio, en medio o al final de la cadena de producción y difusión, la presencia de actores privados con ánimo de lucro termina contaminando los objetivos y prioridades de la investigación desarrollada en contexto académico. El conflicto de intereses en las instituciones científicas no es solo una cuestión de ética personal, circunscrita a la esfera de las decisiones individuales de quienes se dedican a la investigación. Es un problema de cultura y sesgo institucional, que genera estructuras estables de producción de ignorancia (privatizando resultados y hallazgos que deberían ser públicos cuanto antes lo permitan las metodologías y protocolos de investigación, en lugar de ser puestos bajo plataformas de pago).18
Cuestión aparte, aunque por efecto de una dinámica similar de incentivos institucionales, sería la proliferación de casos de científicos cuya trayectoria de publicaciones e impacto de estas aumenta exponencialmente como resultado de vinculaciones simultáneas con instituciones investigadoras en Arabia Saudí, China u otros países (cobrando por adelantado cantidades significativas, naturalmente). O mediante la participación en congresos y otros eventos que incluyen la garantía de publicar los propios trabajos en ciertas revistas, con el respaldo de empresas y laboratorios que aseguran el posicionamiento de los papers correspondientes.19, 20, 21
La institucionalización de la ciencia ha facilitado la transferencia de conocimiento y tecnología desde la investigación básica hasta su aplicación práctica, integrando en un mismo esquema de relaciones a universidades, consorcios industriales y organismos estatales. La complejidad de los procesos de innovación presiona en favor de estructuras cada vez más complejas capaces de competir en el mercado global de la I+D civil y militar. Las expectativas de retorno de beneficios explican las grandes cantidades que destinan los inversores especializados a costear la investigación biomédica innovadora, buscando por ejemplo sinergias entre investigadores con acceso a pacientes en el contexto de actividad hospitalaria y personal especializado en laboratorios de diversa naturaleza.
El tipo de intermediarios inevitables en los procesos de transferencia condiciona, por supuesto, la autonomía de las instituciones y grupos dedicados a la investigación científica, incluyendo sus prioridades, intereses comerciales y agenda política. Pero la explotación comercial de los resultados de las investigaciones desarrolladas en las universidades y laboratorios públicos con financiación estatal se ha potenciado con el surgimiento de spin-offs y start-ups (es decir, empresas constituidas en el interior de las propias universidades, con volumen y capacidad de impacto económico a escala regional). La importancia de estos mecanismos de transferencia no excluye el análisis crítico de sus ciclos y condiciones de actividad, puesto que el número de las que subsisten más allá del periodo inicial de subvenciones y apoyo financiero público es ciertamente reducido, con el sector de la biotecnología y la fabricación industrial como excepción.22, 23, 24, 25
1. Merton, Robert K. (1973). The Sociology of Science: Theoretical and Empirical Investigations. Chicago: University of Chicago Press.
2. de Sousa Santos, B. (2009). Una Epistemología Del Sur: La Reinvención Del Conocimiento y La Emancipación Social. Siglo XXI.
3. Meneses, M. P. y Bidaseca, K. (2018). Epistemologías del Sur. Centro De Estudios Sociais, Universidade De Coimbra. Clacso. https://biblioteca.clacso.edu.ar/clacso/se/20181124092336/Epistemologias_del_sur_2018.pdf
4. Bonilla, D. (2019). Geopolítica del Conocimiento y Decolonialidad: ¿Está el eurocentrismo puesto a prueba? El Ágora USB, 19(1), 149–169. https://doi.org/10.21500/16578031.4125
5. Latour, Bruno, y Steve Woolgar (1986). Laboratory Life: The Construction of Scientific Facts. Editado por Jonas Salk. Princeton, NJ: Princeton University Press.
6. Sismondo, S. (2021). Epistemic Corruption, the Pharmaceutical Industry, and the Body of Medical Science. Frontiers in Research Metrics and Analytics, 6. https://doi.org/10.3389/frma.2021.614013
7. Mizumoto, Masaharu, Jonardon Ganeri, y Cliff Goddard, eds. (2022). Ethno-Epistemology: New Directions for Global Epistemology. Londres, Inglaterra: Routledge. Chap. 1, 9.
8. Gobo, G., & Sena, B. (2022). Questioning and Disputing Vaccination Policies. Scientists and Experts in the Italian Public Debate. Bulletin of Science, Technology & Society, 42(1–2), 25–38. https://doi.org/10.1177/02704676221080928
9. Cook, J. et al. (2013). Quantifying the consensus on anthropogenic global warming in the scientific literature. Environmental Research Letters, 8(2), 024024. https://doi.org/10.1088/1748-9326/8/2/024024
10. Cook, J., Oreskes, N. et al. (2016). Consensus on consensus: a synthesis of consensus estimates on human-caused global warming. Environmental Research Letters, 11(4), 048002. https://doi.org/10.1088/1748-9326/11/4/048002
11. Larson, H. J. et al. (2016). The State of Vaccine Confidence 2016: Global Insights Through a 67-Country Survey. EBioMedicine, 12, 295–301. https://doi.org/10.1016/j.ebiom.2016.08.042
12. Holmquist, C., & Sundin, E. (2010). The suicide of the social sciences: causes and effects. Innovation: The European Journal of Social Science Research, 23(1), 13–23. https://doi.org/10.1080/13511611003791141
13. Larivière, V., Haustein, S., & Mongeon, P. (2015). The Oligopoly of Academic Publishers in the Digital Era. PLOS ONE, 10(6), e0127502. https://doi.org/10.1371/journal.pone.0127502
14. McKiernan, E. C. et al. (2019). Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. ELife, 8. https://doi.org/10.7554/eLife.47338
15. Buranyi, Stephen (2017). “Is the staggeringly profitable business of scientific publishing bad for science?” The guardian, el 27 de junio de 2017. https://www.theguardian.com/science/2017/jun/27/profitable-business-scientific-publishing-bad-for-science
16. Mirowski, Philip (2011). Science-mart: Privatizing American science. Londres, Inglaterra: Harvard University Press.
17. Geschuhn, Kai (2018). “Max Planck Society Discontinues Agreement with Elsevier; Stands Firm with Projekt DEAL Negotiations”. Mpg.de. https://www.mpdl.mpg.de/en/505
18. Mirowski, Philip (2011). "The New Production of Ignorance", Chap. 7, in Science-mart: Privatizing American science. Londres, Inglaterra: Harvard University Press, pp. 315-349.
19. Judson, Horace Freeland (2004). The Great Betrayal: Fraud in Science. Boston, MA, Estados Unidos de América: Houghton Mifflin.
20. Barrera, José Carlos Bermejo (2015). La tentación del rey Midas: Para una economía política del conocimiento. Siglo XXI de España Editores.
21. Lorite, Álvaro (15/07/2019). "Papers y más papers: las sombras en la industria de las publicaciones cientificas". https://www.elsaltodiario.com/universidad/papers-y-mas-papers-las-sombras-en-la-industria-de-las-publicaciones-cientificas
22. Etzkowitz, H., & Leydesdorff, L. (2000). The dynamics of innovation: from National Systems and “Mode 2” to a Triple Helix of university–industry–government relations. Research Policy, 29(2), 109–123. https://doi.org/10.1016/S0048-7333(99)00055-4
23. Rodeiro-Pazos, D. et al. (2021). Size and survival: An analysis of the university spin-offs. Technological Forecasting and Social Change, 171, 120953. https://doi.org/10.1016/j.techfore.2021.120953
24. Jelfs, P., & Smith, H. L. (2022). A comparative study of the survival of university spin-off companies (USOs) in the post-industrial UK West Midlands region. Studies in Higher Education, 47(10), 2117–2126. https://doi.org/10.1080/03075079.2022.2122663
25. Prokop, D., Huggins, R., & Bristow, G. (2019). The survival of academic spinoff companies: An empirical study of key determinants. International Small Business Journal: Researching Entrepreneurship, 37(5), 502–535. https://doi.org/10.1177/0266242619833540
Cuasimonopolios de la publicación científica y currículos hipertrofiados
Las malas prácticas ligadas a la investigación y difusión científica consolidan sistemas de incentivos sesgados y conflicto de intereses que desnaturalizan el trabajo investigador y minan la confianza en las instituciones científicas. A continuación de detallan algunos aspectos del fenómeno y diversas fuentes para su análisis.
1. Las universidades y el CSIC acuerdan pagar 170 millones de euros a cuatro editoriales científicas
- Sánchez y D. Sánchez (29/01/2023). "Cuatro editoriales cobran 170 millones en cuatro años a las universidades españolas y el CSIC por leer y publicar artículos científicos." https://www.eldiario.es/sociedad/cuatro-editoriales-cobran-170-millones-cuatro-anos-universidades-espanolas-csic-leer-publicar-articulos-cientificos_1_9882268.html.
2. Un solo investigador firma 176 trabajos en un año
- Ansede (03/06/2023). Un científico que publica un estudio cada dos días muestra el lado más oscuro de la ciencia. https://elpais.com/ciencia/2023-06-03/un-cientifico-que-publica-un-estudio-cada-dos-dias-muestra-el-lado-mas-oscuro-de-la-ciencia.html.
3. Presión por publicar e inflación de papers
- Lorite (15/07/2019). "Papers y más papers: las sombras en la industria de las publicaciones cientificas". https://www.elsaltodiario.com/universidad/papers-y-mas-papers-las-sombras-en-la-industria-de-las-publicaciones-cientificas.
4. Científicos hiperprolíficos
- Ioannidis, Klavans, R., & Boyack, K. W. (2018). Thousands of scientists publish a paper every five days. Nature, 561(7722), 167–169. https://doi.org/10.1038/d41586-018-06185-8.
- Salomone (2/2/2019). Científicos que publican un estudio cada cinco días: ¿son realmente sus autores? https://www.agenciasinc.es/Reportajes/Cientificos-que-publican-un-estudio-cada-cinco-dias-son-realmente-sus-autores.
5. El cuasimonopolio de Elsevier
- Villarreal (21/02/2018). Elsevier paralizó una ley clave para proteger su millonario monopolio en España. https://www.elconfidencial.com/tecnologia/ciencia/2018-02-21/editoriales-elsevier-open-access-desactiva_1524848/.
6. Reacción contra las prácticas de Elservier
"The Cost of Knowledge", http://thecostofknowledge.com/index.php.
Manifiesto: "The Cost of Knowledge", https://gowers.files.wordpress.com/2012/02/elsevierstatementfinal.pdf.
"The Cost of Knowledge", en https://en.wikipedia.org/wiki/The_Cost_of_Knowledge.7. El reverso de la excelencia en la investigación
Jon Rueda (15.05.2024). La “generación Q” y las sombras de la excelencia en la investigación. www.elsaltodiario.com. https://www.elsaltodiario.com/el-rumor-de-las-multitudes/generacion-q-sombras-excelencia-investigacion.
La epistemología contemporánea se ha desarrollado en estrecha conexión con problemas, conceptos y enfoques desarrollados en diversos ámbitos de la ciencia. Por mencionar solo algunos ejemplos:
La visión sistémica de la vida: En las tres últimas décadas se ha reforzado la concepción sistémica de la vida, con mayor énfasis en la complejidad, las redes y los patrones de organización. Este enfoque obliga a familiarizarse con conceptos como la autopoiesis, las estructuras disipativas, las redes sociales y la evolución en términos sistémicos. Tiene su aplicación en el análisis de problemas de salud pública y en la gestión de crisis ecológicas o económicas globales.1
Física, naturaleza y espacio-tiempo: La física contemporánea ha sido también un contexto adecuado para explorar cuestiones fundamentales sobre el conocimiento, la realidad y la naturaleza del universo. Teorías como la relatividad y la mecánica cuántica han obligado a revisar los conceptos tradicionales de tiempo, espacio y causalidad, con implicaciones que obligan a replantearse aspectos fundamentales sobre la naturaleza de lo real, la percepción del mundo y el alcance del conocimiento humano.2
Epistemología e intuiciones precríticas sobre el mundo: Las teorías científicas a menudo resultan incompatibles con intuiciones de sentido común sobre el mundo y sus procesos, condicionando los debates sobre justificación, percepción, inducción y naturalización del conocimiento.3
Cosmología y conceptos fundamentales: La cosmología contemporánea obliga a manejarse con nuevos conceptos, distintos de los de la física moderna, como punto de partida para entender la nueva imagen y las dimensiones del universo. Sin ellos no pueden entenderse la naturaleza del espacio-tiempo ni las leyes fundamentales que rigen el cosmos, entre otros muchos aspectos clave para una comprensión informada del universo actual.4
El interés para la epistemología filosófica de los desarrollos teórico-conceptuales en las ciencias de la vida y en todas las ramas de la física, desde la cosmología hasta las que se ocupan del microcosmos y sus leyes, ha enriquecido el contexto interdisciplinar de referencia para ciertos debates y facilitado la incorporación de estudios de caso, elementos conceptuales y nuevas perspectivas sobre los límites del conocimiento humano y el alcance de nuestra comprensión del universo.5
1. Capra, F., & Luisi, P. L. (2014). The Systems View of Life. Cambridge University Press. https://doi.org/10.1017/CBO9780511895555
2. Haroche, Serge, y J-M Raimond (2006). Exploring the Quantum: Atoms, Cavities, and Photons. Londres: Oxford University Press.
3. Carroll, Sean (2014). "Falsifiability. What Scientific Idea Is Ready For Retirement?" https://www.edge.org/response-detail/25322
4. Caler Gallardo, J. L. et al. (2018). "Cosmología y conceptos fundamentales de la física contemporánea". http://hdl.handle.net/10481/51621
5. Machamer, Peter, y Michael Silberstein (2002). The Blackwell Guide to the Philosophy of Science. Hoboken, NJ, Estados Unidos de América: Wiley-Blackwell. Chap. 3, 5, 9.
Texto 1 (Determinismo y aleatoriedad)
«La oposición entre determinismo y aleatoriedad ha sido rebatida ya dos veces. El estado atractor simple, que garantiza la posibilidad de prever de forma determinista el estado futuro de un sistema puede, como hemos explicado (pp. 161-167), ser interpretado como la resultante de comportamientos microscópicos representados ellos mismos como esencialmente aleatorios. Sin embargo, a la inversa, una descripción macroscópica en términos de ecuaciones diferenciales, que parezca encarnar el determinismo causal, ya que relaciona la variación del sistema en un momento dado con el estado del sistema en este momento, genera aquí un comportamiento observable de tipo aleatorio. Por consiguiente, a partir de ahora nuestras descripciones del mundo se organizarán en torno a los temas de estabilidad e inestabilidad y no a la oposición entre azar y necesidad.»
- Prigogine, I. Stengers (1979). La nueva alianza: metamorfosis de la ciencia. Alianza. Prefacio, p. 16.
Texto 2 (Irreversibilidad y organización)
«Hace ya cincuenta años, desde la aparición de la mecánica cuántica, la idea de la simplicidad de lo microscópico se había vuelto insostenible. Sabíamos que sólo teníamos acceso a los átomos y a las moléculas utilizando como intermediarios nuestros instrumentos, que son macroscópicos, y que nuestras teorías al respecto están determinadas intrínsecamente por dicha mediación. Sin embargo, en el contexto de la mecánica cuántica, dicho conocimiento era inexistente. Esto ha dejado de ser verdad hoy día. Hemos descubierto que la irreversibilidad juega un papel esencial en la naturaleza y se encuentra en el origen de muchos procesos de organización espontánea. La ciencia de los procesos irreversibles ha rehabilitado en el seno de la física la idea de una naturaleza creadora de estructuras activas y proliferantes. Por otra parte, ahora sabemos que tanto en la dinámica clásica o en lo que concierne al movimiento planetario, ha muerto el mítico diablillo omnisciente al que se suponía capaz de adivinar el pasado y el futuro a partir de una descripción instantánea. Nos encontramos en un mundo indiscutiblemente aleatorio, en un mundo en el que la reversibilidad y el determinismo son casos particulares y en el que la irreversibilidad y la indeterminación microscópicas son la regla.»
- Prigogine, I. Stengers (1979). La nueva alianza: metamorfosis de la ciencia. Alianza. Introducción, p. 38.
En la filosofía presocrática, physis (Φύσις) designa tanto el origen como el desarrollo de cualquier cosa o proceso. En el período sofista, el concepto de physis —aquello que tiene su razón de ser en sí mismo— se contrapone al de nomos —lo que es fruto de un acuerdo o convención—. Para Aristóteles, la physis es la causa inmanente de todo cambio, del reposo y del movimiento (Física, 192b 13 y ss.); la esencia de los seres que poseen en sí mismos el principio de su movimiento. Distingue así las cosas que son por physis, de las que son por technē (τέχνη), es decir, artificiales, derivadas de la actividad humana. Lo natural se rige por un principio inmanente de cambio ligado a su esencia (teleología); lo artificial es un mero artefacto sin actividad intrínseca.1
El modelo teleológico o finalista se mantuvo vigente como forma válida de explicación científica no cuestionada hasta el siglo XVII. Su abandono progresivo no se produce con el advenimiento de la ciencia moderna y el auge del sistema físico newtoniano, centrado en causas eficientes de tipo mecánico. De hecho, sobrevive hasta bien entrado el siglo XIX, cuando la biología evolucionista de Charles Darwin aporta conceptos, desarrollos teóricos y algunos elementos de evidencia empírica que hacen plausible la adaptación de las especies sin referencia a un plan preconcebido.2
Incluso ya en la segunda mitad del siglo XX, autores como Morton Beckner expresaban su incomodidad con el auge de los enfoques mecanicistas que consideraban la biología una extrapolación compleja de la física y la química, en un contexto de continuo avance de los enfoques reduccionistas. Por ello dedica en su obra The Biological Way of Thought (1959) un espacio considerable a los herederos modernos del vitalismo, los "biólogos organísmicos", para quienes "el todo es mayor que la suma de las partes". Su posición de fondo reflejaba la convicción ampliamente extendida de que la biología era una disciplina única y autónoma, que pese a depender de los datos fisicoquímicos requería sus propios modelos explicativos. Entre estos, asigna un lugar destacado a las explicaciones genéticas, historicistas y teleológicas (en campos como la taxonomía, la evolución y la teoría de la selección y la genética, para resolver problemas de clasificación, p. ej.), sin las cuales no veía posible aproximarse a la "verdad" biológica.3
A fines del siglo XIX, no obstante, el naturalismo y el método hipotético-deductivo habían consolidado el modelo newtoniano de causación eficiente como el único plenamente compatible con la actitud científica, relegando el finalismo al campo de la filosofía o la teología.4
Como llamativa excepción quedaría el ámbito de la cosmología, con obras como The Anthropic Cosmological Principle (de John Barrow y Frank J. Tipler, en 1986) que mantenían el supuesto de una configuración del universo no por azar, sino por diseño, tras un análisis de los pasos improbables necesarios para la aparición de vida inteligente.5, 6
La epistemología filosófica ha de tener en cuenta la peculiaridad de los ámbitos disciplinares en los que ciertos modelos se mantienen vigentes por largos periodos de tiempo, pese a su descarte en dominios muy activos de problemas donde la necesidad de refinamiento y evolución de las metodologías de trabajo no deja espacio para concesiones al historicismo. El paradigma explicativo mecanicista y antiteleológico en las ciencias naturales no estaba exento de debates y matices; pero quedó definitivamente consolidado a comienzos del siglo XIX, tras el programa de refundación de la termodinámica sobre bases probabilísticas y sin fines predeterminados que impulsó Boltzmann.7, 8, 9
El modelo mecanicista ha sido el marco explicativo dominante en la ciencia occidental desde el siglo XVII. Según este modelo, el universo funciona como una máquina, donde todos sus estados son causados por eventos anteriores. La naturaleza se rige por leyes deterministas, que permiten predecir el comportamiento futuro de un sistema si sus condiciones iniciales son bien conocidas.10, 11
El mecanicismo se asocia con ciertos principios básicos sobre la naturaleza y el conocimiento científico:
Entre los éxitos del paradigma mecanicista cabe destacar la explicación del movimiento de los planetas (la ley de la gravitación universal de Newton —dos cuerpos se atraen con una fuerza proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que los separa— permite explicar y predecir el movimiento de los planetas, las mareas, las órbitas de los satélites y muchos otros fenómenos gravitatorios) y su contribución a las bases de la termodinámica (su primer principio es la ley de conservación de la energía —según la cual la energía no se crea ni se destruye, sino que solo se transforma de una forma a otra— y permite explicar y predecir el comportamiento de los sistemas físicos, químicos y biológicos, así como la relación entre el trabajo, el calor y la potencia; otro campo de aplicación sería la teoría cinética de los gases —que describe el comportamiento de los gases como el resultado del movimiento aleatorio y colisiones de sus moléculas— y permite explicar y predecir las propiedades termodinámicas de los gases, como la presión, la temperatura, el volumen y la entropía).12, 13, 14, 15
El modelo mecanicista produjo resultados notables aplicado a la teoría de la evolución por selección natural de Darwin, la cual describe el origen y la diversificación de las especies como el efecto de la variación genética y la adaptación al medio ambiente, y permite explicar y predecir la distribución, la morfología, la fisiología, el comportamiento y la historia de los seres vivos. Darwin aportó explicaciones convincentes del origen y la diversificación de las especies mediante las leyes del movimiento, la materia y la fuerza, aplicadas a las poblaciones de organismos que compiten por los recursos limitados, en una perspectiva claramente materialista, empírica y matemática de la naturaleza.16
Sin embargo, la teoría darwiniana de la evolución no puede esgrimirse como un aval incondicional para el modelo mecanicista, puesto que incluye elementos que refuerzan una comprensión no estática, uniforme y predecible de la naturaleza, sino más bien dinámica, diversa y de una complejidad difícilmente predecible. Con la introducción del concepto de variabilidad Darwin enfatiza que los organismos no son entidades fijas e inmutables, sino que cambian y se adaptan al medio ambiente. Y el concepto de selección natural implica que los organismos no son el resultado de un diseño o un propósito, sino de un proceso de supervivencia y reproducción específico, con continuidades y discontinuidades. Autoorganización, complejidad y emergencia son aspectos que exceden la comprensión de los organismos como máquinas que responden mecánicamente a causas materiales próximas, y que explican también la necesidad de combinar genética mendeliana —donde los procesos de mutación al azar son decisivos como fuente de variabilidad— y selección natural en un marco más general (la síntesis evolutiva).17, 18, 19
Las ciencias sociales no quedaron fuera del influjo del modelo mecanicista. El surgimiento de la sociología como ciencia orientada a explicar los procesos complejos que subyacen a la estructura de la sociedad humana se produce a mediados del siglo XIX, en un contexto de profundos cambios sociales, económicos y políticos ligados a la Revolución Industrial —que transformó las estructuras sociales tradicionales, originando nuevas clases sociales, problemas específicos del entorno urbano y desigualdades—, la Revolución Francesa —que cuestionó de raíz el orden social establecido— y el auge del positivismo —bajo el supuesto de que era posible el estudio científico de los fenómenos sociales utilizando métodos de observación y análisis similares a los empleados en las ciencias naturales—. Con el tiempo, la sociología ha ido ampliando sus herramientas metodológicas y modelos teóricos, desde enfoques más cercanos al positivismo (Auguste Comte, Karl Marx) y el darwinismo social (Herbert Spencer) hasta la sociología académica de enfoque interdisciplinar (Émile Durkheim) y los estudios antipositivistas centrados en la economía y la administración (Max Weber).20, 21, 22
En la biología y la sociología actual se utilizan metodologías cualitativas y cuantitativas (en biología de la conservación; o en el estudio de prácticas agrícolas y el papel del conocimiento tradicional sobre plantas y fauna local, p. ej.) así como estudios longitudinales para observar cambios que ocurren a lo largo de muchas generaciones. Ciertos inconvenientes (sesgo subjetivo y dificultad para generalizar los resultados con metodologías cualitativas, p. ej.) pueden resultar aceptables cuando se persigue identificar patrones y tendencias en los datos no numéricos. Aunque la perspectiva sociológica reconoce el papel de la subjetividad, la interpretación y la agencia humana en la configuración dinámica de lo social, persigue también aplicar metodologías y herramientas de utilidad prospectiva, con las que ciertos escenarios y tendencias resultan predecibles en aspectos esenciales.
Sin las restricciones impuestas por visiones ligadas a creencias religiosas o metafísicas de la historia humana, las metodologías compatibles con aspectos centrales del modelo mecanicista (funcionalismo, estructuralismo, teoría del conflicto, análisis de redes, etc.) han tenido una influencia notable en filosofía de la ciencia, en la ética de la investigación y en la noción de progreso científico, reforzando el valor del análisis del contexto donde la investigación se produce, además de la observación y la experimentación para la formulación de teorías consistentes basadas en patrones y conjuntos de datos.23, 24
Los desarrollos de la física desde finales del siglo XIX, especialmente a través de la teoría de la relatividad, la mecánica cuántica, y la teoría del caos, han desafiado y enriquecido la epistemología, ofreciendo nuevas perspectivas sobre conceptos fundamentales como el tiempo, el espacio, la causalidad y la probabilidad.
Las contribuciones de Albert Einstein en 1905 a la teoría de la relatividad transformaron radicalmente la concepción del espacio y el tiempo, demostrando que estas no son entidades absolutas sino relativas al observador. En la teoría de la relatividad especial —aplicable en el caso particular en el que la curvatura del espacio-tiempo producida por acción de la gravedad se puede ignorar—, Einstein, Lorentz y Minkowski, entre otros, unificaron los conceptos de espacio y tiempo, proponiendo el modelo tetradimensional —donde tres dimensiones corresponden al espacio (ancho, largo, profundidad) y una al tiempo—. El espacio-tiempo se curva en presencia de masa y energía, y esta curvatura es lo que experimentamos como gravedad. Aplicado al sistema Tierra, esta curva el espacio-tiempo a su alrededor, y esa curvatura mantiene a la Luna en órbita.
La unificación del espacio y el tiempo en un mismo continuo transformó la comprensión del universo y las leyes de la física, posibilitando la predicción de nuevos fenómenos —la dilatación del tiempo en un campo gravitatorio fuerte, p. ej., donde el tiempo transcurre más lentamente— y la contracción del espacio —con velocidades cercanas a la de la luz, los objetos parecen más cortos en la dirección del movimiento—. El carácter revolucionario de la relatividad especial relegó la noción newtoniana de tiempo absoluto e introdujo conceptos como la invariabilidad en la velocidad de la luz, la dilatación del tiempo, la contracción de la longitud y la equivalencia entre masa y energía.
El descubrimiento tuvo implicaciones epistemológicas notables, puesto que cuestionaba la creencia en una realidad objetiva independiente del acto y los instrumentos de observación, y enfatizaba el papel de la interrelación entre el observador y lo observado como factor configurador de nuestra percepción de la realidad y de la imagen general del universo. Sin embargo, la idea de que al medir se inicia un proceso indeterminable a priori (azar), con distintas probabilidades de medir distintos resultados, resultó controvertida para el propio Einstein y otros colegas, incluidos filósofos y epistemólogos.
Entre las aportaciones de la mecánica cuántica (formulada por Planck, Heisenberg y Schrödinger) cabe destacar el principio de incertidumbre formulado por Heisenberg en 1927, según el cual no pueden conocerse con precisión determinados pares de magnitudes físicas observables y complementarias (es imposible determinar simultáneamente la posición y la velocidad de una partícula con precisión absoluta, por ejemplo). Entre otras implicaciones, resulta incompatible con la idea de determinismo absoluto (una medida de la posición perturbaría al momento lineal o viceversa, lo que introduce un límite fundamental para obtener mediciones precisas) y refuerza la comprensión del universo como un sistema cuyos eventos en el nivel cuántico responden a esquemas intrínsecamente probabilísticos (aunque no por ello menos deterministas).26
La interpretación de Copenhague del problema de la medida es la interpretación tradicional de la mecánica cuántica (atribuida a Niels Bohr y al grupo de físicos con los que colaboraba en Copenhague, hacia 1927, y reflejada en la mayoría de los manuales), asume el principio de incertidumbre y el principio de complementariedad de las descripciones ondulatoria y corpuscular —según el cual las descripciones ondulatoria y corpuscular de la materia y la energía son dos aspectos complementarios de la misma realidad física—.27
Debe contrastarse con la interpretación estadística, según la cual un estado cuántico describe una regularidad estadística, siendo explicables los diferentes resultados de la medida de un evento observable por factores estocásticos o fluctuaciones debidas al entorno (e inobservables). La electrodinámica estadística, por ejemplo, se utiliza para estudiar cómo las interacciones entre partículas cargadas y campos electromagnéticos influyen en el comportamiento colectivo de sistemas macroscópicos, considerando aspectos como la distribución de energía, la temperatura y las propiedades termodinámicas. Permite analizar fenómenos emergentes y propiedades colectivas que surgen de la interacción entre electrones y campos electromagnéticos. La electrodinámica cuántica (QED), que describe la interacción entre radiación (fotones) y fermiones cargados (como electrones), es fundamental para comprender fenómenos cuánticos a nivel subatómico, incluido el comportamiento de los electrones en presencia de campos electromagnéticos. La QED permite explicar fenómenos como la emisión y absorción de fotones por parte de los electrones, así como la influencia del campo electromagnético en sus propiedades. Ha sido verificada experimentalmente con gran precisión en una amplia gama de fenómenos y resulta esencial para comprender la estructura de los átomos, las moléculas y la materia en general.27, 28
Las aportaciones de matemáticos y teóricos como Edward Lorenz y Benoît Mandelbrot dieron plausibilidad a la teoría del caos. Lorenz destacó el interés de ciertos sistemas caóticos, muy sensibles a las condiciones iniciales, y proporcionó conceptos como el de atractor para explicar su dinámica. Mandelbrot introdujo el concepto de fractal —un patrón geométrico irregular que se repite a diferentes escalas—, demostrando las propiedades matemáticas únicas de los fractales que se encuentran en la naturaleza y en los sistemas caóticos.29
Tales contribuciones han sido decisivas para comprender la complejidad inherente a todo intento de predecir con precisión el comportamiento a largo plazo incluso de sistemas fuertemente deterministas, con gran influencia en los debates epistemológicos sobre la naturaleza de la realidad accesible al conocimiento y la importancia de la probabilidad y la incertidumbre en nuestra comprensión del mundo. Si la explicación causal de fenómenos en sistemas complejos como la meteorología supone un desafío extraordinario, las limitaciones epistémicas son incluso mayores en otros contextos de gran complejidad como los sistemas sociales.30
Conviene recordar que ciertos elementos de la teoría de la relatividad y la mecánica cuántica se aducen de manera recurrente para justificar puntos de vista pseudocientíficos o discursos sin base teórica sobre la irrelevancia de los criterios de demarcación. La naturaleza conceptualmente compleja y contraintuitiva de algunas ideas y conceptos en tales dominios los hace susceptibles de malinterpretaciones y simplificaciones excesivas, abonando el tipo de confusión que legitima a partidarios de la pseudociencia y las pseudoterapias a reivindicar puntos de vista teóricos carentes de soporte empírico, o incompatibles con conocimiento teórico bien establecido. No debe menospreciarse su efecto en el debate público. Las dificultades de comprensión de temas complejos y con graves implicaciones para la economía personal o la seguridad de un país se agravan cuando se tergiversan aspectos esenciales para adaptarlos a narrativas de conveniencia, aunque científicamente infundadas.31, 32, 33, 34
La sociología ha tenido una influencia constatable en la epistemología y la filosofía de la ciencia, gracias a contribuciones específicas desde la sociología del conocimiento científico y a los estudios sobre ciencia, tecnología y sociedad (CTS). Estas áreas han contribuido a explicar cómo los factores sociales y culturales influyen en la práctica científica, en la selección de temas de investigación, en la consolidación de programas de estudio y capacitación profesional y en la aceptación de teorías científicas.
El modelo sociológico enfatiza el papel de las estructuras sociales, las instituciones y las interacciones sociales en la producción, distribución y validación del conocimiento, dejando fuera del análisis los componentes racionalistas típicos de la visión internalista de la ciencia. En sociología del conocimiento importa el contexto social ligado a la producción de saberes, que condiciona o moldea las creencias, valores y perspectivas individuales de quienes investigan y producen resultados científicos.
Entre otras implicaciones para la epistemología, proporciona elementos para una perspectiva crítica y contextualizada sobre cómo evoluciona el tratamiento de ciertos problemas en ciencia, las preferencias metodológicas entre colectivos de diferentes escuelas y los modos de validar el conocimiento entre diversas culturas científicas y entornos institucionales o profesionales involucrados en la investigación.
La consecuencia más radical de este modelo atañe a las dificultades para manejar nociones como la de verdad o conocimiento válido, puesto que son producto de interacciones sociales y negociaciones dentro de comunidades específicas (y la científica no sería una excepción). Si bien no resulta incompatible con prácticas bien establecidas y protocolos consensuados para validar el conocimiento en diferentes campos, este enfoque ha supuesto una reevaluación de la objetividad científica.
Entre las obras más influyentes es obligado mencionar La estructura de las revoluciones científicas, de Thomas S. Kuhn (1962), en la cual se cuestiona la noción de progreso lineal en ciencia y se proponen los conceptos de "paradigma" científico —conjunto de compromisos compartidos por una comunidad científica, que incluyen teorías, métodos, problemas y soluciones, en función de los cuales se definen lo que es la ciencia normal— y "cambio de paradigma" —una reestructuración radical del conocimiento científico, favorecida por la acumulación de anomalías no explicadas desde el paradigma vigente—. Los cambios de paradigma son susceptibles de análisis histórico o sociológico, para explicar los factores que contribuyen a transformar dominios de conocimiento donde se originan problemas que desafían los enfoques convencionales. Kuhn argumenta que la ciencia no avanza mediante una acumulación lineal de conocimientos, producto de un trabajo metódico en fase de ciencia normal, sino a través de revoluciones científicas desencadenadas en periodos de crisis, por la acumulación de anomalías dentro del paradigma dominante.35
El paradigma determina lo que cuenta como un problema o una solución legítimos, así como los métodos y los criterios para evaluarlos. La ciencia normal es la actividad de resolver problemas —teóricos o experimentales— gobernada por las reglas dentro de un paradigma. Cuando un paradigma no proporciona los medios adecuados para resolver los problemas que se plantean desde dentro, se inicia un proceso de búsqueda de alternativas hasta que es sustituido por otro incompatible con él (a esto lo llama inconmensurabilidad: el viejo paradigma y su alternativa no se pueden comparar objetivamente ni medir por un criterio común, puesto que implican visiones del mundo diferentes e incompatibles, que determinan lo que se considera real, relevante y racional). Un nuevo paradigma gana aceptación generalmente como resultado de logros explicativos excepcionales, o porque proporciona nuevos modos de investigar un aspecto de la naturaleza que interesa a la mayor parte de la comunidad científica. El cambio de paradigma cambia la visión del mundo, la percepción e interpretación de los fenómenos naturales, como ocurrió con la cosmología copernicana y con la aceptación del enfoque evolutivo en biología.36, 37
En respuesta a sus críticos, Kuhn matizó aspectos clave de su interpretación inicial sobre paradigmas y revoluciones científicas en La tensión esencial (1977), donde aclara que los cambios de paradigma no implican que teorías inconmensurables puedan ser igualmente válidas (relativismo). Su propósito era mostrar que la ciencia progresa en una tensión permanente entre tradición e innovación, entre consenso sobre reglas y metodologías y disenso, donde la imaginación, la creatividad y el inconformismo son aspectos importantes para la resolución de rompecabezas habituales en la fase normal de la investigación científica.
Otro representante destacado del modelo sociológico es Bruno Latour, quien comparte con Thomas Kuhn la idea de que la ciencia no se rige tanto por criterios de racionalidad como por negociaciones entre las redes de actores que definen lo que es científico y lo que no. En este proceso intervienen factores no solo cognitivos (valores, intereses, creencias tradicionales, instituciones, prácticas e instrumentos o artefactos, entre otros) ligados al contexto histórico y cultural en el que se desarrolla la investigación científica. Sus trabajos (Ciencia en acción, de 1987; y La vida en el laboratorio, con Steve Woolgar, de 1979) refuerzan una comprensión tanto social como técnica de los "hechos" científicos, minando la perspectiva objetivista de la ciencia y el papel exclusivo de ciertos actores en los descubrimientos científicos.38, 39, 40
Pero su contrapartida ha sido la relativización de la noción de verdad en la ciencia y de cualquier esquema rígido de correspondencia entre el lenguaje y la realidad (realismo directo o ingenuo). Actores negacionistas del cambio climático y grupos de escépticos sobre la evidencia histórica del holocausto han instrumentalizado con éxito diversos componentes del modelo sociológico de la ciencia, intentando reducirla a una actividad discursiva más, cuyas construcciones son tan provisionales y negociables como las producidas en cualquier otro dominio de la cultura o la política.41, 42
El marco relativista kuhniano y su noción controvertida de inconmensurabilidad ha servido de aval a planteamientos refractarios a cualquier esquema de evaluación racional comparativa. En el debate público han adquirido visibilidad puntos de vista pseudocientíficos o abiertamente irracionales, que se presentan en igualdad de condiciones y tan determinados socialmente —es decir, avalados sin más por sus compromisos ideológicos, morales o religiosos— como los planteamientos de base científico-técnica rigurosa que proporcionan expertos cualificados o las posiciones de consenso expresadas por asociaciones e instituciones científicas del máximo nivel.43
Por lo tanto, el modelo sociológico ha mostrado la complejidad de los procesos y actores que intervienen en la investigación científica, pero a costa de desdibujar la importancia del conocimiento experto y los criterios de demarcación entre pseudociencia y el tipo de prácticas, metodologías y protocolos de trabajo compatibles con la consolidación de conocimiento riguroso y el desarrollo de tecnologías eficaces y seguras.30, 44, 45, 46
El modelo unificador en epistemología de la ciencia es una propuesta que busca integrar las diferentes disciplinas del conocimiento humano, desde las ciencias naturales hasta las humanidades, mediante la búsqueda de principios y problemas comunes, además de conexiones lógicas y metodológicas. El objetivo es reconciliar y sintetizar la pluralidad de perspectivas y tradiciones epistemológicas (antirreduccionismo) para superar la fragmentación y la especialización del saber, mejorando los canales y espacios de colaboración interdisciplinar en el estudio y abordaje de problemas complejos. Desde este enfoque se reconoce que no existe una única forma correcta de entender la naturaleza de la ciencia y el conocimiento científico, por lo que resulta más productivo considerar una variedad de enfoques complementarios (al servicio de una comprensión más amplia y profunda de la realidad). La ciencia es considerada una actividad humana compleja, que involucra aspectos sociales, culturales e históricos y cuyo producto —el conocimiento científico— es provisional, sujeto a cambios y revisiones constantes. Precisamente por ello la diversidad de métodos y enfoques de la investigación científica es una fortaleza, no una debilidad.
El biólogo y naturalista estadounidense Edward O. Wilson propuso en su libro Consilience: The Unity of Knowledge (1998) un programa unificador (consiliente) cuyo objetivo era integrar diferentes disciplinas y enfoques para abordar cuestiones fundamentales sobre el conocimiento, el medioambiente, la naturaleza humana, la sociedad y la cultura. Wilson intentaba articular una visión holística con aportaciones de la biología, la psicología, la sociología y otras ciencias para comprender de manera más completa cómo se adquiere y se justifica el conocimiento y, sobre todo, cómo se pone al servicio de los grandes desafíos que condicionan el futuro de la humanidad y su coexistencia con otras especies en el planeta Tierra.47
Su enfoque busca superar las divisiones tradicionales entre las disciplinas académicas y promover una perspectiva interdisciplinar que permita abordar los problemas epistemológicos desde múltiples ángulos, integrando tanto aspectos biológicos como sociales en la comprensión del conocimiento humano. La visión unificadora de Wilson incluía, entre otros objetivos, enriquecer el estudio del conocimiento al considerar su relación con la evolución, el medio ambiente, la cultura y la sociedad en un marco integrado y coherente, superando barreras entre la cultura científica, las humanidades, las artes y las ciencias sociales, que parecían insalvables en las últimas décadas del siglo XX.48
Wilson no consideró problemático asumir que la ciencia es el método más eficaz y fiable para organizar el pensamiento humano; pero sostenía que puede aplicarse a cualquier campo de estudio, incluyendo la ética, la estética, la religión y la política. Síntesis, consiliencia o unidad del saber no serían el producto de un enfoque anarquista del conocimiento como el propuesto por Paul Feyerabend en su obra Contra el método (1975), sino el resultado de utilizar las mejores herramientas, aportaciones teóricas y metodologías que, desde la Ilustración, han contribuido al crecimiento exponencial del saber científico, aumentando la autonomía del ser humano y proporcionándole un conocimiento sin precedentes sobre los orígenes del Homo sapiens y su interdependencia con el resto de seres vivos.49
Otro autor que, de forma peculiar, ha contribuido al modelo unificador ha sido el filósofo y físico argentino Mario Bunge. En su obra La ciencia, su método y su filosofía (1960) propone una visión sistemática y realista de la ciencia, basada en el materialismo científico —sostiene que la realidad existe independientemente de la mente humana, y puede ser conocida mediante la observación y la experimentación— y el racionalismo crítico —la ciencia se rige por la lógica y la evidencia, y está sujeta a revisión y corrección permanente—. Bunge reivindica aspectos ligados a la naturaleza de la investigación científica según la describe Robert K. Merton en Social Theory and Social Structure (1957), afirmando que la ciencia es una actividad racional, objetiva y social, que se basa en la observación, la experimentación, la formulación de hipótesis y la disposición a ponerlas a prueba, articulando explicaciones que apelan a leyes (matemáticamente formulables) y teorías.50
Según Merton, la investigación científica tiene rasgos peculiares que la distinguen de todas las demás actividades humanas. Se guía por la coherencia lógica y la confirmación empírica, pero también por aspectos institucionales —el ethos de la ciencia: universalismo (sus afirmaciones y métodos son impersonales y objetivos); comunismo (sus miembros comparten datos, teorías y métodos); desinterés (busca la verdad por la verdad); y escepticismo organizado (revisa los supuestos y resultados de la investigación a la luz de la lógica y de evidencia experimental). Bunge asume grosso modo esta caracterización, integrando cuatro niveles de la tarea científica (formal, factual, tecnológico y filosófico) y procurando establecer la conexión entre las ciencias (y de estas con la filosofía) mediante el uso de conceptos, métodos y valores comunes.50
Para Bunge, la principal amenaza al ethos de la ciencia surge de lo que denomina novísima sociología de la ciencia, representada por Thomas S. Kuhn, Paul K. Feyerabend, Bruno Latour y Steve Woolgar (destaca en particular la obra de estos últimos: Laboratory Life: The Social Construction of Scientific Facts, de 1979; y la actividad de la Science Studies Unit en la Universidad de Edimburgo). Se trata de un movimiento surgido a mediados de la década de 1960 como parte de la rebelión generalizada contra la ciencia y la técnica al servicio de intereses bélicos y del dominio de las élites político-financieras, con notable influencia en contexto académico gracias a corrientes filosóficas anticientíficas como la fenomenología, el existencialismo y la hermenéutica.51, 52
Aunque la posición de Bunge ha sido objeto de numerosas críticas (simplificadora de los problemas, dogmática, acríticamente positivista, insensible al pluralismo cultural, entre otras), su defensa frente a los críticos ha sido siempre robusta, informada y bien argumentada, lo que le ha consolidado como uno de los epistemólogos y filósofos más infuyentes del siglo XX. No duda en reconocer que casi todos los científicos admiten, explícita o tácitamente, que las teorías y sus constituyentes son construidos; pero enfatiza que sólo los subjetivistas sostienen que también los hechos mismos son construidos (e inadvertidamente avalan así múltiples propuestas pseudocientíficas y tratamientos fraudulentos). Su propuesta tiene interés para prácticamente cualquier campo disciplinar: el constructivismo gnoseológico es correcto; pero el ontológico es falso (puesto que si los hechos y las teorías fuesen lo mismo, no podríamos utilizar ningún hecho para poner a prueba las teorías, y ninguna teoría serviría para guiar la búsqueda nuevos hechos).51, 53, 56
Suele incluirse entre los modelos unificadores (por contraste con los modelos reduccionistas y positivistas) la teoría general de sistemas (TGS) desarrollada por el biólogo y filósofo austríaco Ludwig von Bertalanffy, junto con otros pensadores en la década de 1950. En lo esencial, la TGS busca comprender los fenómenos complejos como totalidades organizadas e integradas, en lugar de reducirlos a sus componentes individuales. El foco de estudio serán las interrelaciones y la interdependencia entre las partes de un sistema, así como la emergencia de propiedades y comportamientos que no pueden explicarse completamente por las partes individuales (lo que se asocia con el concepto de autopoiesis, popularizado por autores como Francisco Varela y Humberto Maturana para explicar la organización de los sistemas vivos como redes cerradas de autoproducción de sus componentes).52, 54, 55
Von Bertalanffy estaba convencido de que los principios sistémicos pueden aplicarse a diversas disciplinas, desde la biología hasta las ciencias sociales. Diversas versiones de su teoría han tenido impacto en economía, biología, psicología, filosofía de la ciencia (Ervin Laszlo, 1932-2022), física cuántica (Fritjof Capra), termodinámica (Ilya Prigogine, 1917-2003) y sociología (Edgar Morin).
1. "Physis", Enciclopedia Herder. https://encyclopaedia.herdereditorial.com/wiki/Physis
2. Mayr, Ernst (1988). Toward a New Philosophy of Biology: Observations of an Evolutionist. Londres, Inglaterra: Harvard University Press.
3. Beckner, Morton (1959). The Biological Way of Thought. Columbia University Press. Chap. 1, 3, 7, 8 y 9.
4. Hall, A. R. (1952). The scientific revolution 1500-1800: The formation of the modern scientific attitude. Beacon Press.
5. Barrow, John D., y Frank J. Tipler (1988). The Anthropic Cosmological Principle. Londres, Inglaterra: Oxford University Press.
6. Silk, J. (1986). Teleological Cosmology: The Anthropic Cosmological Principle. John D. Barrow and Frank J. Tipler. Clarendon (Oxford University Press), New York. Science, 232(4753), 1036–1037. https://doi.org/10.1126/science.232.4753.1036
7. Boltzmann, L. (1877). Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung resp. den Sätzen über das Wärmegleichgewicht. Wiener Berichte, 76, 373–435. Reprinted in F. Hasenöhrl (ed.), Wissenschaftliche Abhandlungen, Leipzig: J. A. Barth 1909, vol. 1902, pp. 1164–223.
8. Bricmont, J. (2001). Bayes, Boltzmann, and Bohm: probabilities in physics. In Bricmont, J., Ghirardi, G., & Dürr, D. et al. (Eds.), Chance in Physics Foundations and Perspectives (Lecture Notes in Physics). Berlin: Springer.
9. Uffink, J. (2006) Compendium of the Foundations of Classical Statistical Physics. 44-45. http://philsci-archive.pitt.edu/2691/1/UffinkFinal.pdf.
10. Koyré, A. (1965). Newtonian Studies. Chapman & Hall.
11. Monod, J. (1971). Chance and necessity. Knopf.
12. Cardwell, D.S.L. (1971). From Watt to Clausius: The Rise of Thermodynamics in the Early Industrial Age. London: Heinemann.
13. Guillen, M. (1999). Five Equations That Changed the World. New York: Abacus.
14. Hiebert, E.N. (1981). Historical Roots of the Principle of Conservation of Energy. Madison, Wis.: Ayer Co Pub.
15. Kuhn, T.S. (1957) "Energy conservation as an example of simultaneous discovery", in M. Clagett (ed.) Critical Problems in the History of Science pp.321–56.
16. Darwin, Charles (2008, orig. 1859. El origen de las especies. Madrid: Alianza Editorial, 2008.
17. Mayr, Ernst (1985). The growth of biological thought: Diversity, evolution, and inheritance. Londres: Belknap Press.
18. Nissen, Lowell (1997). Teleological language in the life sciences. Lanham, MD: Rowman & Littlefield.
19. Futuyma, Douglas (2009). Evolution. 2a ed. Sunderland, MA: Sinauer Associates.
20. Durkheim, Émile. Las reglas del método sociológico. Akal Editor (Ramón Akal González), Col. Manifiesto/Serie Sociología 71, Madrid, 1978.
21. Morrison, Ken (2006) (2nd ed.) "Marx, Durkheim, Weber", Sage, pp. 1–7.
22. Giddens, Anthony, y Philip W. Sutton (2022). Sociología. Alianza Editorial.
23. Ritzer, George (1991). Classic Theory in Sociology. Nueva York, NY, Estados Unidos de América: McGraw-Hill.
24. Turner, Jonathan H. (1978). The Structure of Sociological Theory. Dorsey Press.
25. Latour, Bruno, y Steve Woolgar (1986). Laboratory Life: The Construction of Scientific Facts. Editado por Jonas Salk. Princeton, NJ: Princeton University Press.
26. Dupré, J. (1993). The disorder of things: Metaphysical foundations of the disunity of science. Harvard University Press.
27. Charis, Anastopoulos. (2008). Particle or Wave: The Evolution of the Concept of Matter in Modern Physics.
28. Penrose, Roger (2007). The road to reality: a complete guide to the laws of the universe. Nueva York: Vintage Books.
29. Prigogine, I., & Stengers, I. (1984). Order out of chaos: Man's new dialogue with nature. Bantam books.
30. Martins, H. (2005). Time and theory in sociology. In Social theory today (pp. 181-220). Polity.
31. Wazeck, Milena (2009) Einsteins Gegner. Die öffentliche Kontroverse um die Relativitätstheorie in den 1920er Jahren. Frankfurt: Campus.
32. Hansson, S. O. (2017). Science denial as a form of pseudoscience. Studies in History and Philosophy of Science Part A, 63, 39–47. https://doi.org/10.1016/j.shpsa.2017.05.002
33. Mahner, M. (2007). "Demarcating Science from Non-Science." In S. Kuipers (Ed.), Handbook of the Philosophy of Science (pp. 515–575). North-Holland. https://doi.org/10.1016/B978-044451548-3/50011-2
34. Ruiz de Elvira, A. (25/02/2024). ¿Y si la realidad no existiese y fuera una creación de la mente? https://theconversation.com/y-si-la-realidad-no-existiese-y-fuera-una-creacion-de-la-mente-220861
35. Kuhn, Thomas S. (1996, orig. 1962). The Structure of Scientific Revolutions. 3rd ed. Chicago: University of Chicago Press, 1996.
36. Kuhn, Thomas S. (1969). "Posdata", en La estructura de las revoluciones científicas (Editorial FCE, México D.F, 1962).
37. Kuhn, Thomas S. (1982). La tensión esencial. Estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia. Madrid: Fondo de Cultura Económica.
38. Fuller, Steve (1988). La sociología del conocimiento científico.
39. Fuller, S. (2003). La ciencia de la ciudadanía: más allá de la necesidad de expertos. Isegoría, (28), 33–53. https://doi.org/10.3989/isegoria.2003.i28.505.
40. Nelkin, Dorothy (1987). Selling Science: How the press covers science and technology (1987). W.H., Freeman Press.
41. Kofman, Ava (Oct. 25, 2018). Bruno Latour, the Post-Truth Philosopher, Mounts a Defense of Science. https://www.nytimes.com/2018/10/25/magazine/bruno-latour-post-truth-philosopher-science.html
42. Stamenkovic, Philippe (2020). The contradictions and dangers of Bruno Latour's conception of climate science. Disputatio. Philosophical Research Bulletin Vol. 9, No. 13, Jun. 2020, pp. 1-34.
43. Hilgartner, S. (1997). The Sokal Affair in Context. Science, Technology, & Human Values, 22(4), 506–522. https://doi.org/10.1177/016224399702200404
44. Oreskes, Naomi (2021). Why Trust Science? Editado por Stephen Macedo. Princeton, NJ, Estados Unidos de América: Princeton University Press.
45. Levit, G. S., & Hossfeld, U. (2022). Ernst Mayr’s Critique of Thomas Kuhn. Epistemology & Philosophy of Science, 59(4), 163–180. https://doi.org/10.5840/eps202259463
46. Goldman, A. I. (1999). Knowledge in a Social World. Oxford University PressOxford. https://doi.org/10.1093/0198238207.001.0001
47. Wilson, E. O. (2016). Half-earth: Our planet’s fight for life. Nueva York: Liveright Publishing Corporation.
48. Snow, Charles P. (1963). "The Two Cultures: A Second Look." In The Two Cultures (pp. 53–100). Cambridge University Press. https://doi.org/10.1017/CBO9781139196949.006
49. Wilson, E. O. (1999). Consilience: la unidad del conocimiento. Galaxia Gutenberg (p. 434).
50. Bunge, Mario A. (1995). Ciencia, Su Metodo y Su Filosofia. Sudamericana ("Introducción", pp. 151-154).
51. Bunge, Mario A. (2015). Crítica de la nueva sociología de la ciencia. Editorial Laetoli.
52. Bunge, Mario A. (2004). Emergencia y convergencia: novedad cualitativa y unidad del conocimiento. Gedisa.
53. Bunge, Mario A. (2002). Crisis y reconstrucción de la filosofía. Gedisa (caps. 7 y 8).
54. Bertalanffy, L. Von. (1996). Teoria General de Los Sistemas. Fondo de Cultura Economica.
55. Varela, Francisco J., Maturana, Humberto R., & Uribe, R. (1974). Autopoiesis: the organization of living systems, its characterization and a model. Biosystems 5: 187–196.
56. Baggott, Jim. (2013). Farewell to reality: How modern physics has betrayed the search for scientific truth. Pegasus Books.
Texto 1: Consilience
La clave de la unificación es la consiliencia. Prefiero esta palabra a «coherencia», porque su rareza ha conservado su precisión, mientras que coherencia tiene varios significados posibles, uno de los cuales es consiliencia. William Whewell, en su síntesis Historia de las ciencias inductivas, de 1840, fue el primero en hablar de consiliencia, literalmente un 'saltar juntos' del conocimiento mediante la conexión de sucesos y de teorías basadas en hechos de varias disciplinas para crear un terreno común de explicación. Whewell decía: «La consiliencia de las inducciones tiene lugar cuando una inducción obtenida a partir de una clase de hechos coincide con otra inducción obtenida a partir de otra clase distinta. Dicha consiliencia es una prueba de la verdad de la teoría en la que se presenta».
La única manera de establecer o de refutar la consiliencia es mediante métodos desarrollados en las ciencias naturales; y me apresuro a decir que no se trata de un esfuerzo liderado por científicos, ni congelado en la abstracción matemática, sino más bien de un esfuerzo fiel a los hábitos de pensamiento que han funcionado tan bien en la exploración del universo material.
La creencia en la posibilidad de consiliencia más allá de la ciencia y a través de las grandes ramas del saber no es todavía ciencia. Es una visión metafísica del mundo, y precisamente una visión minoritaria, que comparten sólo unos pocos científicos y filósofos. No puede probarse mediante la lógica a partir de principios primeros ni basarse en ningún conjunto definido de pruebas empíricas, por lo menos no por ninguno que se haya concebido todavía. Su mejor apoyo no es otro que una extrapolación del éxito pasado y consistente de las ciencias naturales. Su prueba más segura será su efectividad en las ciencias sociales y en las humanidades. El mayor atractivo de la consiliencia está en la perspectiva de aventura intelectual y, aunque sólo tenga un éxito modesto, en el valor de comprender la condición humana con un mayor grado de certeza.
- Wilson, (1999, orig.1998). Consilience: la unidad del conocimiento. Galaxia Gutenberg (Cap. 2, "Las grandes ramas del saber", pp. 15-16).
Texto 2: Oscurantismo y especialización
Así es que llegamos a la inteligencia ciega. La inteligencia ciega destruye los conjuntos y las totalidades, aísla todos sus objetos de sus ambientes. No puede concebir el lazo inseparable entre el observador y la cosa observada. Las realidades clave son desintegradas. Pasan entre los hiatos que separan a las disciplinas. Las disciplinas de las ciencias humanas no necesitan más de la noción de hombre. Y los ciegos pedantes concluyen que la existencia del hombre es sólo ilusoria. Mientras los medios producen la cretinización vulgar, la Universidad produce la cretinización de alto nivel. La metodología dominante produce oscurantismo porque no hay más asociación entre los elementos disjuntos del saber y, por lo tanto, tampoco posibilidad de engranarlos y de reflexionar sobre ellos.
Nos aproximamos a una mutación sin precedentes en el conocimiento: éste está, cada vez menos, hecho para reflexionar sobre él mismo y para ser discutido por los espíritus humanos, cada vez más hecho para ser engranado en las memorias informacionales y manipulado por potencias anónimas, empezando por los jefes de Estado. Esta nueva, masiva y prodigiosa ignorancia es ignorada, ella misma, por los sabios. Estos, que no controlan, en la práctica, las consecuencias de ·sus descubrimientos, ni siquiera controlan intelectualmente el sentido y la naturaleza de su investigación. Los problemas humanos quedan librados, no solamente a este oscurantismo científico que produce especialistas ignaros, sino también a doctrinas abstrusas que pretenden controlar la cientificidad (al estilo del marxismo althuseriano, del econocratismo liberal), a ideas clave tanto más pobres cuanto que pretenden abrir todas las puertas (el deseo, la mimesis, el desorden, etc.), como si la verdad estuviera encerrada en una caja fuerte de la que bastara poseer la llave, y el ensayismo no verificado se reparte el terreno con el cientificismo estrecho.
- Morin (1995). Introduccion al pensamiento complejo. Gedisa Editorial (Cap. 1, "La inteligencia ciega", pp. 30-31).
Las contribuciones en física teórica y aplicada del último siglo han tenido como efecto una reevaluación profunda de cuestiones epistemológicas fundamentales, proporcionando evidencia empírica y modelos teóricos que obligan a refinar supuestos ontológicos y gnoseológicos arraigados en la tradición filosófica (incluyendo conceptos como causalidad y determinismo; o la posibilidad de conocer sin incertidumbre un universo separable del observador).
Diversas aportaciones en cosmología, biología, psicología y matemática de las últimas décadas han forzado interpretaciones más sofisticadas de la epistemología, para dar cuenta de la naturaleza probabilística, relacional y contextual del conocimiento, y para adaptarse a la evolución de otros ámbitos disciplinares con los que comparte el interés por analizar cierto tipo de problemas y sus ramificaciones. En conjunto, subrayan la importancia de adaptar metodologías y marcos teóricos para dar cuenta de la naturaleza dinámica y compleja del mundo físico (y del no menos complejo sistema social). Algunos conceptos influidos por el desarrollo de la investigación en los ámbitos mencionados han sido:
Orden: En la ciencia contemporánea, el concepto de orden se refiere a la organización y estructura que se observa en la naturaleza y en procesos o sistemas complejos. Implica no tanto rigidez, sino más bien una disposición armoniosa y predecible de elementos que interactúan de manera coherente. Se relaciona con la emergencia de patrones y regularidades en sistemas dinámicos, sean naturales o artificiales, y puede ser observado o inferido a partir de conjuntos de datos o de cierto tipo de evidencias.
Azar: Desde una perspectiva científica, el azar se entiende como un concepto matemático que describe eventos impredecibles o aleatorios. Aunque en apariencia caótico e impredecible, el azar puede ser modelado y comprendido a través de la teoría de probabilidades. En el ámbito científico, el azar se refiere a la falta de determinismo absoluto en ciertos fenómenos o procesos. El azar puede ser objetivo o subjetivo, y puede ser medido o estimado a partir de datos o evidencia.
Caos: En contexto científico, el caos se refiere a un estado complejo y dinámico en el que pequeñas variaciones en las condiciones iniciales pueden tener efectos significativos y difíciles de predecir en el futuro. A pesar de su aparente desorden, los sistemas caóticos siguen reglas deterministas subyacentes. El estudio del caos ha revelado patrones sorprendentes en sistemas aparentemente caóticos, como bifurcaciones, atractores atípicos o reglas de autoorganización que gobiernan el comportamiento de un sistema. El caos puede ser determinista o estocástico. Este último se produce por la influencia de factores externos o internos que introducen ruido o incertidumbre, y es frecuente en fenómenos o procesos estudiados en disciplinas como física, biología, economía y meteorología. Tanto el caos determinista como el estocástico pueden ser analizados a partir de datos o simulados computacionalmente. La alta irregularidad y aperiodicidad de los sistemas cáoticos no lineales, y su alta dependencia de las condiciones iniciales, dificulta la predicción a largo plazo. No obstante, permite simulaciones precisas y predicciones a corto plazo. En la investigación científica contemporánea se valora el análisis de patrones y regularidades detectables en los registros aparentemente caóticos de sistemas complejos, previamente considerados impredecibles.
Necesidad: En contexto científico, la necesidad se relaciona con la idea de causalidad y determinismo. Se refiere a la noción de que los eventos y fenómenos tienen causas específicas que los determinan, siguiendo leyes naturales predecibles. La necesidad implica una conexión causal entre las condiciones iniciales y los resultados observados en un sistema dado.
Predicción: Anticipación, estimación, proyección o inferencia de lo que se espera que ocurra en un sistema. Implica la existencia de modelos, hipótesis, teorías y métodos que permiten conocer o controlar el comportamiento de un sistema o proceso. La predicción puede ser determinista o probabilística, y puede ser verificada o contrastada a partir de datos o experimentos diseñados para proporcionar la evidencia requerida.
Explicación: La explicación científica es una forma de dar cuenta de un fenómeno natural o social a partir de una teoría que lo describe y lo predice. Una explicación científica debe ser coherente, lógica, verificable (susceptible de ser puesta a prueba), apta para responder a la pregunta de por qué o cómo ocurre el fenómeno que interesa explicar. Se trata de una noción básica en la epistemología filosófica, importante para evaluar la calidad y el alcance del conocimiento científico. Interesan, en particular, los criterios, las condiciones, las formas y los tipos de explicación científica, así como sus implicaciones ontológicas, metodológicas y prácticas. Tiene interés específico como herramienta de contraste frente otros tipos de explicaciones en dominios no científicos (estético, religioso, mítico, etc.).
Emergencia: Propiedades, características o comportamientos nuevos e imprevistos en un sistema complejo, que no pueden ser explicados o deducidos a partir de las propiedades, características o comportamientos de sus componentes individuales. La emergencia implica la existencia de niveles de organización, de interacciones no lineales, de retroalimentación o de autoorganización que determinan el comportamiento del sistema como un todo. La emergencia puede ser débil o fuerte, y puede ser estudiada o simulada a partir de conjuntos de datos procesados con determinados algoritmos.
- Prigogine, Ilya & Stengers, I. (1979). La nueva alianza: metamorfosis de la ciencia. Alianza.
- Prigogine, I. (1977). The End of Certainty: Time, Chaos, and the New Laws of Nature. New York: Free Press.
- Poincaré, H. (1908). Science et méthode. Flammarion.
- Monod, J. (1970). Le hasard et la nécessité. Seuil.
- Laplace, P.S. (1814). Essai philosophique sur les probabilités. Courcier. http://eudml.org/doc/203193.
- Koyré, A. (1973). Études galiléennes. Hermann.
- Boltzmann, L. (1896). Entropie und Wahrscheinlichkeit. Barth.
- Boltzmann, L. (1877). Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung resp. den Sätzen über das Wärmegleichgewicht. Wiener Berichte, 76, 373–435. Reprinted in F. Hasenöhrl (ed.), Wissenschaftliche Abhandlungen, Leipzig: J. A. Barth 1909, vol. 1902, pp. 1164–223.
- Mach, E. (1872). History and Root of the Principles of the Conservation of Energy. Open Court Pub. Co., Illinois.
- Holland, J. (1998). Emergence. From chaos to order. New York: Basics Books.
- Mainzer, Klaus (2007). Thinking in Complexity: The Computional Dynamics of Matter, Mind, and Mankind. 5a ed. Berlín: Springer.
El estudio de las propiedades y fenómenos complejos que surgen de la interacción de múltiples componentes en sistemas organizados ha sido objeto de discusión en epistemología de la ciencia durante las dos últimas décadas, si bien el desarrollo de sus fundamentos matemáticos ha sido notable en el último siglo, con aplicaciones en ámbitos como la termodinámica irreversible, la meteorología, la dinámica ecológica y la dinámica social y económica. Se trata de un dominio de problemas con claras implicaciones epistémicas, puesto que induce cambios conceptuales, metodológicos y de principios que repercuten en la interpretación de aspectos estructurales en disciplinas consolidadas (biología del desarrollo, psicología, sociología) y ha contribuido a la creación de otras muy especializadas (ciencias del clima, biología sintética y de sistemas, autoensamblaje y reparación de materiales, robótica social, etc.).1, 2
La investigación en sistemas complejos se asocia también con nuevas oportunidades de innovación tecnológica. No debe de extrañar que figure como objeto de estudio de múltiples disciplinas (física, química, biología, ciencia de los materiales, ciencias de la computación, etc.) fácilmente conectables con procesos de transferencia y resultados patentables, aunque ni la definición de sistemas complejos ni la taxonomía de los mismos puedan considerarse satisfactoriamente establecidas. Es pertinente, pues, la cuestión que plantean Ladyman et al. (2013): ¿existe un solo fenómeno natural llamado complejidad, que se encuentra en una variedad de sistemas físicos (incluidos los vivos), y que puede ser objeto de una sola teoría científica, o los diferentes ejemplos de sistemas complejos son complejos en formas que a veces no tienen nada en común? 3
Entre los aspectos que asocian en su trabajo con la caracterización de sistemas complejos incluyen:
- Una estructura con variaciones
- Evolución muy sensible a condiciones iniciales y perturbaciones
- Sistema difícil de entender y verificar por su diseño o función (número de componentes, anidamiento y estructuras de datos)
- Capacidad de autoorganizarse en agregados que generan patrones y almacenan información
- Muestran patrones formados en procesos no lineales y en sistemas abiertos
- Presentan múltiples interacciones entre muchos componentes diferentes
- Sistemas con múltiples elementos que reaccionan o se adaptan a patrones resultantes de la acción individual
- Sistemas intrincados, rara vez completamente deterministas, con comportamiento no lineal o caótico, compatibles con resultados inesperados (fenómenos o propiedades emergentes)
- Sistemas resultantes de la ruptura de la causalidad
Tras su revisión de la literatura añaden los siguientes:
No linealidad: Un sistema es lineal si se pueden sumar dos soluciones cualesquiera a las ecuaciones que lo describen y obtener otra, y multiplicar cualquier solución por cualquier factor y obtener otra. La no linealidad significa que este principio de superposición no se aplica. No obstante, los autores señalan que hay estructuras que involucran matrices lineales que describen redes que son una parte sustancial de lo que estudian las ciencias de la complejidad; y hay sistemas complejos sujetos a la teoría de juegos y a la dinámica cuántica, todos los cuales están sujetos a la dinámica lineal. No todo sistema caótico es complejo (por lo general, son deterministas), como tampoco lo es cualquier sistema descrito con modelos no lineales.3
Retroalimentación: Es una condición necesaria importante para los sistemas dinámicos complejos. Una parte de un sistema recibe retroalimentación cuando la forma en que elementos contiguos interactúan con él en un momento posterior depende de cómo interactúa con ellos en un momento anterior (el ejemplo típico son los cambios de rumbo en las bandadas de pájaros). La clave está en el tamaño del grupo, para originar alguna propiedad de orden superior (como la construcción de puentes o estructuras complejas entre hormigas que individualmente no saben lo que están haciendo).
Orden espontáneo: Comportamiento ordenado de un sistema que surge de la suma de un número muy grande de interacciones descoordinadas entre sus elementos. Este resultado se asocia con nociones como simetría, organización, periodicidad, determinismo y patrón, por lo que su interpretación se presta a confusión. Más aún si el orden se considera resultado del contenido de información de los estados y de algún mecanismo de procesamiento de la información.
Robustez y ausencia de control centralizado: El orden en los sistemas complejos es robusto porque, al estar distribuido —no producido centralmente— es estable bajo las perturbaciones a las que está expuesto el sistema (viento en el caso de las bandadas de pájaros; daño en algunos individuos en el caso de las termitas; corrección de errores mediante alguna forma de redundancia en sistemas informáticos o de procesamiento de información). La robustez se asocia con la estructura del clima de la Tierra porque, dentro de ciertos márgenes, sus regularidades y periodicidades son relativamente estables —a partir de los fenómenos básicos (velocidad del viento, temperatura, presión y humedad) en una dinámica no lineal subyacente—. La corrección de errores es crucial en sistemas complejos como las células.
Emergencia: La emergencia es una noción que se presta a interpretaciones confusas e incompatibles entre sí, con largo recorrido en filosofía de la ciencia. Se suele aducir contra las limitaciones del reduccionismo. Pero, en su acepción más fuerte, se refiere a objetos, propiedades o procesos que exhiben algún tipo de "causalidad descendente" (ejemplificada por la formación de cristales, la organización de las colonias de hormigas y, en general, la forma en que los niveles de organización en la naturaleza emergen de la física fundamental y de las partes físicas de sistemas más complejos). La noción de emergencia es puramente epistemológica, y puede ser fuerte o débil dependiendo de si la no reducción es por principio, meramente práctica u ontológica. Aunque la emergencia sea necesario (en todos los sentidos epistemológicos) para los sistemas complejos, no es suficiente (un gas ideal exhibe un orden emergente pero no es un sistema complejo).3
Organización jerárquica: Los sistemas complejos suelen incluir muchos niveles de organización formando una jerarquía de sistema y subsistema, donde la emergencia se produce porque el orden que surge de las interacciones entre las partes en un nivel inferior es robusto (dentro de ciertas condiciones, como las requeridas para que las interacciones entre nuestras neuronas generen un orden emergente de cognición, en un rango de temperatura de funcionamiento que no supere en más de 5 grados celsius la temperatura normal). Aparte del cerebro o las células, los ecosistemas y todo el sistema de vida en la Tierra generan propiedades emergentes desde una variedad de niveles de estructura y propiedades que interactúan con el nivel superior e inferior, exhibiendo regularidades similares a leyes (naturaleza causal) y varios tipos de simetría, orden y comportamiento periódico.
Numerosidad: La organización jerárquica y demás características emergentes señaladas no aparecen a menos que el sistema conste de un gran número de partes, y solo cuando están involucradas en muchas interacciones.3
Los fenómenos de emergencia y autoorganización son ubicuos (se dan en múltiples tipos de sistemas complejos) y son objeto de estudio en muchas disciplinas científicas, aparte de interesar a la epistemología filosófica. La comprensión de estos fenómenos es crucial para entender el comportamiento de sistemas complejos y desarrollar nuevos materiales y tecnologías:
Física
Química
Biología
Ciencia de los materiales
Los desarrollos teóricos y prácticos (tecnologías avanzadas de observación, análisis y producción) se han producido a pesar de las corrientes de interpretación sobre determinadas propiedades de los sistemas complejos y de los distintos enfoques (probabilístico, informacional, algorítmico, determinista) y de las dificultades para "medir" la complejidad. Ladyman et al. consideran que la complejidad estadística es la medida que mejor capta la noción cualitativa del orden producido por los sistemas complejos3, puesto que no hay un sistema complejo que sea estático —todo sistema complejo están en un proceso continuo de mantenimiento de su complejidad—, por lo que la aleatoriedad y el orden están estrechamente ligados a la complejidad.4, 5, 6
1. Hooker, C. (2011). Introduction to Philosophy of Complex Systems. In Philosophy of Complex Systems (pp. 841–909). https://doi.org/10.1016/B978-0-444-52076-0.50027-4. Introd. y aptdo. 2 (pp. 35-42) y 4 (pp. 53-55).
2. Hooker, Cliff (ed.) (2011). Philosophy of Complex Systems (Handbook of the Philosophy of Science, vol. 10). North Holland.
3. Ladyman, J., Lambert, J., & Wiesner, K. (2013). What is a complex system? European Journal for Philosophy of Science, 3(1), 33–67. https://doi.org/10.1007/s13194-012-0056-8.
4. Morin, E., & Belanger, J. L. R. (1992). Método: Hacia un estudio de la humanidad: La naturaleza de la naturaleza: 001. Peter Lang Pub Inc.
5. Wackerbauer, R. et al. (1994). Una clasificación comparativa de las medidas de complejidad. Caos, solitones y fractales, 4(1), 133–173.
6. Shalizi, C. R., Shalizi, K. L., & Haslinger, R. (2004). Cuantificar la autoorganización con predictores óptimos. Physical Review Letters, 93(11), 118701.
La idea de que el todo es más que la suma de las partes implica que la organización de los componentes de un sistema da lugar a propiedades y relaciones emergentes, que no se pueden reducir ni deducir de las propiedades y relaciones de los componentes individuales. Superconductividad y magnetismo son ejemplos de fenómenos emergentes, observables en sistemas macroscópicos, que no pueden ser comprendidos o deducidos a partir del análisis de los elementos (átomos, electrones) implicados en el nivel microscópico.
La existencia de seres vivos complejos no es deducible del conocimiento de la secuencia de bases de nucleótidos en la molécula de ADN. Dicha secuencia contiene la información genética fundamental para el desarrollo y funcionamiento de los organismos vivos; pero por sí sola no es suficiente para deducir o predecir la existencia de seres vivos complejos porque el genoma solo es una parte de la información necesaria para el desarrollo de los seres vivos —existen muchos otros factores y procesos involucrados, como la regulación génica, las interacciones epigenéticas, el ambiente celular y las redes de señalización molecular—.
La relación entre el genotipo (secuencia de ADN) y el fenotipo (características observables) es compleja y no lineal —bajo la influencia del ambiente y los procesos de desarrollo, un mismo genotipo puede dar lugar a fenotipos diferentes—, por lo que además de la información genética es necesario considerar elementos como la organización estructural y funcional de las células, tejidos, órganos y sistemas biológicos para explicar la complejidad observada en los seres vivos (en un proceso de reconfiguración durante millones de años de evolución, bajo la acción de los mecanismos de selección natural).1, 2
Aunque el ADN sea el soporte fundamental de información biológica, su secuencia por sí sola no es suficiente para deducir o predecir la existencia de seres vivos complejos. Se requiere una comprensión más profunda de la biología molecular, el desarrollo embrionario, la evolución y la interacción de múltiples factores y procesos biológicos para poder explicar y predecir la complejidad de los organismos vivos. Entre otros conceptos, algunos autores han señalado la importancia de la causalidad y retroalimentación (positiva o negativa) recíproca, incorporada con éxito en modelos matemáticos para simular procesos como la dinámica ecoevolutiva, la selección sexual y las carreras armamentísticas coevolutivas.1, 3, 4
Otros autores señalan la importancia de desligar causalidad genética de cualquier noción de intencionalidad, puesto que esta última se desliza sutilmente con la noción de "programa genético" (y los genes no son los únicos elementos que actúan como portadores de información; tampoco como desencadenantes u organizadores del proceso de desarrollo). Aunque la noción de programa se emplea comúnmente asociada con algún agente que utiliza el sistema correspondiente para algún propósito específico —en este sentido aplica Samir Okasha un enfoque agencial a los organismos evolucionados—, en sistemas biológicos complejos el programa es solo un componente causal más, entre otros. No todas las instrucciones del programa genético sirven a un propósito específico (muchas son neutras, o carecen de significación biológica aparente) ni tienen un autor que las programe —por más que los genes y sus productos tengan funciones biológicas específicas moldeadas por la evolución, resultantes de un proceso que sigue pasos definidos y produce resultados predecibles bajo ciertas condiciones—. El hecho de que ciertos procesos de selección natural puedan modelarse y reproducirse en laboratorio facilita que la selección natural se pueda describir como un algoritmo, pero entendido en su sentido estricto en ciencias de la computación: un conjunto de reglas o procedimientos para resolver un problema o realizar una tarea, sin asociación alguna con intencionalidad o diseño consciente, para evitar el sesgo antropocéntrico en la interpretación.8
Como mucho, cabe asumir una relación de asimetría causal entre genes y proteínas, dado que los genes determinan la secuencia lineal de las proteínas, pero no viceversa. Se puede hablar también de asimetría causal entre el ADN y el ARN (básicamente, el contenido de lo que Francis Crick denominó dogma central de la biología molecular, para explicar el flujo de información biológicamente relevante). Esta asimetría causal es inherente al mecanismo de la expresión génica.5
En el ámbito de la economía, Jeffrey Goldstein (1999) aportó una definición de emergencia entendida como el surgimiento de estructuras, patrones y propiedades novedosas y coherentes durante el proceso de autoorganización en sistemas complejos, conceptualizable en el nivel macro.6
Su análisis del problema en las organizaciones y sistemas económicos le permitió comprobar lo poco desarrollado que estaba el campo de investigación y las dificultades para considerar los fenómenos o propiedades emergentes algo más que "constructos epistémicos". El científico de sistemas Peter Corning (2002) intentó precisar la definición de Goldstein con más detalle, señalando diversos aspectos e implicaciones de las características comunes sugeridas por Goldstein, como la novedad radical (ciertas características no habían sido observadas previamente en los sistemas); la coherencia o correlación (totalidades integradas que tienden a mantener cierto sentido de identidad a lo largo del tiempo, relacionando componentes de distintos niveles); un nivel global o macro (alguna propiedad que solo se observa con perspectiva de "totalidad"); producto de un proceso dinámico (evoluciona con la aparición de nuevos atractores y bifurcaciones); y ostensivo (se pueden simular o percibir).7
Entre otros matices extraidos de la discusión con Goldstein, Corning (2002: 22) señala que la emergencia tiene que ver sobre todo con conceptos y percepciones —cuando un observador reconoce un patrón—, pero puede ocurrir aunque ningún observador logre detectarla. Pone como ejemplo la transición de fase cuando el agua hierve y se convierte en vapor (un fenómeno en el dominio macro que surge de cambios en el dominio micro), por un proceso de cambios en la estructura profunda, sobre una potencialidad preexistente. En el caso del agua, el cambio de estado es predecible; pero los sistemas complejos no suelen tener propiedades lógicas de las que deducir la evolución de sus componentes. La inconsistencia entre estos aspectos dificulta considerar la noción de emergencia como algo más que un recurso descriptivo (lo que responde más bien a la intuición inicial de Goldstein).
Vistas las dificultades, Corning sugiere (pp. 23-24) definir los fenómenos emergentes como un "subconjunto" del vasto (y cada vez mayor) universo de interacciones cooperativas que producen efectos sinérgicos de diversos tipos, tanto en la naturaleza como en las sociedades humanas. Pero maneja otros ejemplos como el juego de ajedrez, las leyes de la biología y la dinámica de las poblaciones en la biosfera, a partir de los cuales deduce que los efectos sinérgicos del conjunto (con una clara división del trabajo en los componentes subyacentes) son la verdadera causa de la evolución de la complejidad en la naturaleza.7
1. Svensson, E. I. (2018). On Reciprocal Causation in the Evolutionary Process. Evolutionary Biology, 45(1), 1–14. https://doi.org/10.1007/s11692-017-9431-x.
2. Moreno, A., & Ruiz-Mirazo, K. (2011). The Informational Nature of Biological Causality. In Information and Living Systems (pp. 157–176). The MIT Press. https://doi.org/10.7551/mitpress/9780262201742.003.0007.
3. Mayr E, Provine WB. (1998). La síntesis evolutiva. Perspectivas sobre la unificación de la biología. Cambridge: Harvard Univ. Press.
4. Schoener, T. W. (2011). The Newest Synthesis: Understanding the Interplay of Evolutionary and Ecological Dynamics. Science, 331(6016), 426–429. https://doi.org/10.1126/science.1193954.
5. Weber, Marcel (2005). Genes, Causation and Intentionality. History and Philosophy of the Life Sciences 27 (3/4):399-411.
6. Goldstein, J.A. (2000). Emergence as a Construct: History and Issues. https://journal.emergentpublications.com/Article/49564b2c-44f6-4763-89bc-5166c818341f/academic.
7. Corning, P. A. (2002). The re‐emergence of “emergence”: A venerable concept in search of a theory. Complexity, 7(6), 18–30. https://doi.org/10.1002/cplx.10043.
8. Okasha, S. (2018). Agents and Goals in Evolution. Oxford University Press. Ch. 1-2, 6, 8.
Si se lograra superar el desafío computacional que supone explicar lo que ocurre en el nivel celular —con millones de moléculas en interacción—, persiste el problema de que las estructuras y procesos del nivel superior no son visibles en el nivel molecular (es decir, genes y proteínas no revelan lo que hacen o pueden hacer en las funciones de nivel superior). En consecuencia, es preciso manejar una noción más sofisticada, como la de causalidad multinivel (ascendente y descendente). La selección natural operaría en niveles superiores de organización (individual, poblacional); y los ciclos de reproducción a partir de individuos con cierto genotipo determinan las condiciones iniciales —en el nivel molecular— para cada iteración, junto con modulaciones sensibles al entorno a través de la regulación epigenética.1, 2, 3
A continuación se mencionan diversos autores que han tenido una influencia significativa en la epistemología de la biología a partir de sus estudios sobre los sistemas complejos. Aportaron nuevas perspectivas, marcos conceptuales y enfoques metodológicos para comprender la complejidad inherente a los sistemas vivos, posibilitando una visión más integradora de los fenómenos biológicos y de la emergencia de propiedades en distintos niveles de organización. Su trabajo ha tenido repercusiones en otras disciplinas científicas, no solo en la biología.
Tabla 1: Autores destacados en epistemología de la biología
| Autor | Fechas | Ideas básicas |
|---|---|---|
| Stuart Kauffman | 1939- | - Teoría de la autoorganización y la complejidad en sistemas biológicos. - Concepto de "paisajes de fitness" y su papel en la evolución y adaptación de los organismos. - Estudio de las redes genéticas booleanas y su relación con la regulación génica y la emergencia de propiedades en los seres vivos. |
| Humberto Maturana Francisco Varela |
1928-2021 1946-2001 |
- Teoría de la autopoiesis: los seres vivos como sistemas que se autoproducen y automantienen. - Concepto de acoplamiento estructural: la interacción entre un sistema vivo y su entorno. - La cognición como un fenómeno emergente de la organización autopoiética de los seres vivos. |
| Lynn Margulis | 1938-2011 | - Teoría de la endosimbiosis seriada: el origen de las células eucariotas a partir de la simbiosis de organismos procariotas. - La evolución como un proceso de integración y cooperación entre organismos, además de la competencia. - El papel de las interacciones microbianas en la emergencia de nuevas propiedades y funciones en los sistemas vivos. |
| Ilya Prigogine | 1917-2003 | - Teoría de las estructuras disipativas: sistemas abiertos que mantienen su organización a través del flujo constante de energía y materia. - El papel de la irreversibilidad y la flecha del tiempo en la emergencia de orden y complejidad en los sistemas vivos. - Estudio de las transiciones de fase y los puntos de bifurcación en la evolución de los sistemas complejos. |
| Brian Goodwin | 1931-2009 | - Crítica al adaptacionismo y énfasis en las constricciones del desarrollo y la autoorganización en la evolución. - Estudio de los campos morfogenéticos y su papel en la generación de formas y patrones en los seres vivos. - Investigación sobre la dinámica no lineal y la teoría de catástrofes aplicadas a los sistemas biológicos. |
| Stephen Wolfram | 1959- | - Investigación sobre autómatas celulares y su capacidad para generar patrones complejos a partir de reglas simples. - Principio de equivalencia computacional: todos los procesos, incluidos los seres vivos, pueden ser vistos como computaciones. - Estudio de los sistemas de reescritura y su aplicación en la modelización de procesos biológicos y la emergencia de propiedades. |
| Stuart West-Eberhard | 1941- | - Teoría de la plasticidad fenotípica y su importancia en la evolución y la adaptación de los organismos. - Estudio de cómo las interacciones entre genotipo, ambiente y desarrollo generan nuevos fenotipos y propiedades emergentes. - Análisis de la evolución de la socialidad y la comunicación en animales desde una perspectiva de sistemas complejos. |
| Robert Ulanowicz | 1943- | - Desarrollo de la teoría de la ascendencia: una medida de la organización y la complejidad en ecosistemas. - Estudio de las redes tróficas y los flujos de energía en ecosistemas desde una perspectiva de sistemas complejos. - Investigación sobre la emergencia de propiedades y la resiliencia en sistemas ecológicos. |
| Scott Turner | 1951- | - Estudio de la fisiología de los sistemas biológicos desde una perspectiva de autoorganización y emergencia. - Investigación sobre la construcción de nichos y cómo los organismos modifican su entorno para generar nuevas propiedades y funciones. - Análisis de la termorregulación y la ventilación en termiteros como ejemplos de propiedades emergentes en sistemas biológicos. - Crítica al neodarwinismo y propuesta de una visión de la vida centrada en la autoorganización y la teleología intrínseca de los organismos. |
1. Kauffman, Stuart A. (1993). The Origins of Order: Self-Organization and Selection in Evolution. New York: Oxford University Press.
2. Kauffman, Stuart A. (1995). At Home in the Universe: The Search for the Laws of Self-Organization and Complexity. New York: Oxford University Press.
3. Maturana, Humberto R., and Francisco J. Varela (1980). Autopoiesis and Cognition: The Realization of the Living. Dordrecht, D. Reidel.
4. Varela, Francisco J., Evan Thompson, and Eleanor Rosch (1991). The Embodied Mind: Cognitive Science and Human Experience. Cambridge, MA: MIT Press.
5. Margulis, Lynn (1993). Symbiosis in Cell Evolution: Microbial Communities in the Archean and Proterozoic Eons. 2nd ed. New York: W.H. Freeman.
6. Margulis, Lynn, and Dorion Sagan (1986). Microcosmos: Four Billion Years of Microbial Evolution. Berkeley: University of California Press.
7. Prigogine, Ilya, and Isabelle Stengers (1984). Order Out of Chaos: Man's New Dialogue with Nature. New York: Bantam Books.
8. Wolfram, Stephen (2002). A New Kind of Science. Champaign, IL: Wolfram Media.
9. Goodwin, Brian C. (1994). How the Leopard Changed Its Spots: The Evolution of Complexity. New York: Charles Scribner's Sons.
10. West-Eberhard, Mary Jane (2003). Developmental Plasticity and Evolution. New York: Oxford University Press.
11. Ulanowicz, Robert E. (1997). Ecology, the Ascendent Perspective. New York: Columbia University Press.
12. Turner, J. Scott (2000). The Extended Organism: The Physiology of Animal-Built Structures. Cambridge, MA: Harvard University Press.
13. Turner, J. Scott (2017). Purpose and Desire: What Makes Something "Alive" and Why Modern Darwinism Has Failed to Explain It. New York: HarperOne.
Conciencia es sinónimo de percatarse de la existencia interna y externa, es decir, tener experiencia consciente de uno mismo y del mundo. Pero la evolución histórica del concepto ha sido compleja, con acepciones diferentes según autores y escuelas: sinónimo de mente y pensamiento en Descartes; manifestada en grados, según Leibniz, quien diferenciaba entre conciencia y autoconciencia; como conciencia fenoménica ligada a un yo ubicado espacio-temporalmente, en lugar de mera sucesión de ideas asociadas (I. Kant); como efecto del procesamiento de información y modelado de procesos mentales internos, según H. Gardiner (1985); entre otras. Esta pluralidad conceptual no implica divergencia referencial.4, 5
La conciencia no se reduce a la introspección (pensamiento privado, "flujo" metafórico de contenidos, imaginación, volición). Incluye cualquier tipo de cognición, experiencia, sentimiento o percepción. Y puede incorporar ciertos elementos de metaconciencia (conciencia de la conciencia o autoconciencia), como puede comprobarse en las siguientes contribuciones destacadas (en parte complementarias):
Tabla 2: Autores destacados en el estudio de la experiencia y la cognición
| Autor | Periodo | Descripción/Definición |
|---|---|---|
| René Descartes | Siglo XVII | Consideró la conciencia como el fundamento de la certeza personal y del conocimiento, centrando su postulado "Cogito, ergo sum" (Pienso, luego existo) en la capacidad de pensar como prueba de la existencia. La conciencia es la característica definitoria de la mente, que es una sustancia no física diferente del cuerpo físico. |
| John Locke | Siglo XVII | Definió la conciencia como "la percepción de lo que pasa en la propia mente", vinculándola estrechamente con la reflexión personal (capacidad de reflexionar sobre nuestros propios pensamientos y experiencias) y la identidad. |
| Immanuel Kant | Siglo XVIII | Se ocupó de la autoconciencia y la experiencia subjetiva, argumentando que el conocimiento empieza con la experiencia pero no todo deriva de ellas, dados los componentes estructuradores que aporta el intelecto. La conciencia es la capacidad de la mente para unificar las percepciones en una experiencia coherente y autoconsciente. |
| Arthur Schopenhauer | 1788-1860 | La conciencia es la representación intuitiva del mundo como fenómeno, en contraposición a la voluntad inconsciente que es la esencia última de la realidad. |
| William James | Siglo XIX | Describió la conciencia como un flujo continuo, una corriente de pensamiento en la que el yo es tanto sujeto como objeto. |
| Edmund Husserl | 1859-1938 | La conciencia es la fuente de todo significado y conocimiento. La fenomenología estudia la estructura esencial de la experiencia consciente. |
| Sigmund Freud | Finales del siglo XIX - principios del siglo XX | Propuso una visión de la conciencia como la parte de la mente de la cual somos directamente conscientes, distinguiéndola de procesos inconscientes que también afectan el comportamiento. |
| Bertrand Russell | 1872-1970 | La conciencia es un aspecto de la materia, una propiedad emergente de ciertos sistemas físicos complejos. |
| Thomas Nagel | 1937- | La conciencia es el "hecho incógnito" que plantea el problema de cómo es experimentar algo desde un punto de vista subjetivo. |
| David Chalmers | 1966- | La conciencia remite a un "problema difícil de explicar": ¿cómo surgen las experiencias subjetivas a partir de procesos físicos? Considera que la experiencia consciente es irreductible, similar a otros conceptos físicos como el tiempo, la masa y el espacio (necesarios para comprender aspectos esenciales del mundo físico y la cosmología). Sostiene que la conciencia no puede entenderse simplemente como la suma de componentes físicos más simples, por lo que su enfoque resulta incompatible con cualquier intento de reducir la conciencia a procesos puramente físicos o neuronales. Destaca el papel de la experiencia subjetiva (o “cualidad fenoménica” interna de la experiencia consciente que nos permite sentir y experimentar el mundo. |
| John Searle | 1932- | Argumenta a favor de la distinción entre la conciencia fenomenológica, caracterizada por la cualidad subjetiva de las experiencias, y los procesos cerebrales, enfatizando la importancia de la "intencionalidad" y la experiencia subjetiva. |
| Daniel Dennett | 1942- | La conciencia es un "teatro cartesiano" en el cerebro, una ilusión generada por los procesos cerebrales inconscientes. Propone un enfoque funcionalista, sugiriendo que la conciencia puede ser entendida en términos de modelos computacionales y procesos cerebrales, destacando el papel de la narrativa y la autointerpretación. |
| Michael Tomasello | 1950- | Psicólogo del desarrollo y primatólogo, es conocido por su trabajo sobre la cognición social y la evolución de la comunicación humana. Aporta una perspectiva evolutiva y sociocultural al estudio de la conciencia, enfatizando la importancia de la cognición y la intencionalidad compartidas. Propone que aspectos clave de la conciencia humana, como la capacidad para entender a otros como agentes intencionales con sus propios estados mentales, se desarrollan a través de la interacción social y cooperativa. La habilidad para “leer la mente”, o imaginar las emociones y pensamientos de otros y entender que pueden ser distintos de los propios (teoría de la mente) está presente en los grandes simios, cuervos o loros, aunque menos desarrollada que en los humanos. |
| Antonio Damasio | 1944- | Destaca la importancia de las emociones y los sentimientos en la conciencia. Propone que la conciencia surge a partir de la capacidad del cerebro para mapear el cuerpo y sus interacciones con el ambiente, enfatizando el rol de la "marcación somática" en la toma de decisiones y la experiencia consciente. |
| Michael Gazzaniga | 1939- | Conocido por su trabajo en los pacientes de cerebro dividido, sugiere que la conciencia emerge de la interacción de módulos cerebrales especializados. Introduce el concepto del "intérprete" en el hemisferio izquierdo, que busca crear narrativas coherentes a partir de las acciones y pensamientos fragmentados, ilustrando cómo la conciencia puede ser una construcción post-hoc de la actividad cerebral. |
René Descartes:
https://plato.stanford.edu/entries/descartes/
https://www.iep.utm.edu/descarte/
John Locke:
https://plato.stanford.edu/entries/locke/
https://www.iep.utm.edu/locke/
Immanuel Kant:
https://plato.stanford.edu/entries/kant/
https://www.iep.utm.edu/kant-mi/
Arthur Schopenhauer:
https://plato.stanford.edu/entries/schopenhauer/
https://www.iep.utm.edu/schopanha/
William James:
https://plato.stanford.edu/entries/william-james/
https://www.iep.utm.edu/james-o/
Edmund Husserl:
https://plato.stanford.edu/entries/husserl/
https://www.iep.utm.edu/husserl/
Bertrand Russell:
https://plato.stanford.edu/entries/russell/
https://www.iep.utm.edu/russellb/
Thomas Nagel:
https://plato.stanford.edu/entries/nagel-thomas/
https://www.iep.utm.edu/nagel-to/
David Chalmers:
https://plato.stanford.edu/entries/consciousness/
https://consc.net/papers/facing.pdf
Daniel Dennett:
https://plato.stanford.edu/entries/consciousness-intentionality/
https://www.iep.utm.edu/dennett/
Antonio Damasio:
https://www.scientificamerican.com/article/descartes-error-emotion-reason-and-human-brain/
https://www.khanacademy.org/partner-content/wi-phi/wi-phi-mind/mind-consciousness/v/antonio-damasio-on-consciousness
Michael Gazzaniga:
Gazzaniga, Michael S. (2009). Human: The Science Behind What Makes Us Unique (1st ed.). New York: Harper Perennial.
Gazzaniga, Michael S. (2018). The Consciousness Instinct: Unraveling the Mystery of How the Brain Makes the Mind (1st ed.). New York, NY: Farrar, Straus and Giroux.
https://www.psychologicalscience.org/observer/michael-gazzaniga-on-his-career-and-the-origins-of-cognitive-neuroscience.
https://ngcbh.cumc.columbia.edu/mstp/pdfs/Gazzaniga_split_brain.pdf.
Michael Tomasello:
Tomasello, M (1999) The Cultural Origins of Human Cognition. Harvard University Press.
https://www.eva.mpg.de/psycho/staff/tomas/index.html
https://www.npr.org/transcripts/476965366
https://www.youtube.com/watch?v=PY3sA-az2Sg
La comprensión de la sociedad como un sistema complejo con propiedades o fenómenos emergentes ha sido abordada por diversos autores en el último siglo. Comparten el interés por conocer cómo los elementos individuales de una sociedad interactúan para producir estructuras, normas y dinámicas que no son inmediatamente aparentes desde la simple suma de sus partes. La matriz que sigue resume las contribuciones de Talcott Parsons, Maurice Godelier, Peter L. Berger, Thomas Luckmann y Gerhard Lenski a este campo de estudio. Las obras incluidas como Fuentes asociadas (tabla) sirven de base fundamental para el estudio de las sociedades como sistemas complejos y los procesos a través de los cuales las sociedades se organizan, evolucionan y se adaptan para responder a diversos desafíos en condiciones cambiantes que repercuten sobre la dinámica social, económica y cultural. En conjunto, facilitan una comprensión básica de los fenómenos emergentes que caracterizan la complejidad de los sistemas sociales.
Tabla 3: Autores destacados en el análisis de los sistemas sociales y la construcción del conocimiento
| Autor | Fechas | Ideas Básicas |
|---|---|---|
| Talcott Parsons | 1902-1979 | Desarrolló la teoría de la acción social y el sistema social, proponiendo que la sociedad se compone de sistemas interrelacionados que funcionan juntos para mantener un equilibrio. Su modelo AGIL (Adaptación, Logro de metas, Integración, Latencia) destaca cómo las partes de la sociedad contribuyen a su estabilidad y funcionamiento. Según su teoría sistémica, el sistema cultural lo engloba todo —regula las orientaciones de los demás subsistemas—; el sistema social incluye los medios y las condiciones para satisfacer las necesidades de los actores involucrados, cuyas decisiones individuales son decisivas para la dinámica del conjunto. |
| Maurice Godelier | 1934-Presente | Aporta al estudio de las estructuras económicas y simbólicas en las sociedades, especialmente en contextos antropológicos. Godelier argumenta que los sistemas económicos no pueden comprenderse plenamente sin considerar su entrelazamiento con las dimensiones simbólicas y sociales que los rodean. Consideraba que en las sociedades primitivas las relaciones de parentesco funcionan como relaciones de producción, relaciones políticas y esquema ideológico. Interpretó el parentesco a la vez como infraestructura y superestructura. |
| Peter L. Berger | 1929-2017 | Junto con Thomas Luckmann, introdujo la teoría de la construcción social de la realidad, sugiriendo que la sociedad es producto de un proceso constante de construcción y reconstrucción por parte de sus miembros. Este enfoque destaca el papel de la interacción social y la comunicación en la formación de las estructuras sociales. La realidad no es un hecho objetivo dado, sino que se crea y mantiene por medio de prácticas sociales compartidas —proceso de institucionalización, mediante el cual adquieren una existencia propia y generan realidades emergentes para transmitir las prácticas tipificadas a las nuevas generaciones—. Las instituciones se legitiman mediante la construcción de sistemas de conocimiento y significados compartidos. Los individuos son producto de la sociedad, pero también son capaces de modificar y transformar las estructuras sociales a través de sus acciones e interpretaciones, contribuyendo así a una pluralidad de "esferas de realidad (es decir, ámbitos sociales como la religión, la ciencia, el arte, etc.), con sus propias lógicas y fuentes de conocimiento. |
| Thomas Luckmann | 1927-2016 | Coautor con Peter L. Berger del concepto de construcción social de la realidad. Luckmann estudió cómo el conocimiento y la comunicación contribuyen a la construcción de la realidad social, subrayando la importancia de los procesos de socialización en la formación de la identidad individual y colectiva. Sostuvo que todo el conocimiento, incluyendo el conocimiento más básico del sentido común aplicable en la realidad cotidiana, se deriva y es mantenido por interacciones sociales. |
| Gerhard Lenski | 1924-2015 | Propuso la teoría ecológico-evolutiva de la sociedad, que analiza el desarrollo de las sociedades humanas a través de su interacción con el entorno. Lenski destaca cómo la tecnología y la información influyen en la estructura social y cultural, y cómo estos elementos determinan las diferencias en el desarrollo social y económico de las sociedades. Lenski considera que la evolución de la información cultural es una extensión de la evolución de la información genética, y que las características de las sociedades humanas son el producto de la interacción de influencias genéticas y culturales. |
- Parsons, Talcott (1951). The Social System. New York: Free Press.
- Godelier, Maurice (1986). The Mental and the Material: Thought Economy and Society. Verso Books.
- Godelier, Maurice (2011). The Metamorphoses of Kinship. Translated by Nora Scott. London: Verso.
- Berger, Peter L., y Thomas Luckmann (1966). The Social Construction of Reality: A Treatise in the Sociology of Knowledge. Anchor Books. (Trad.: La construcción social de la realidad. Trad. de Silvia Zuleta. Amorrortu editores.
- Lenski, Gerhard (1966). Power and Privilege: A Theory of Social Stratification. University of North Carolina Press.
- Lenski, Gerhard (2005). Ecological-Evolutionary Theory: Principles and Applications. Paradigm Publishers.
1. Martínez, M. (2013). Causalidad y la Síntesis extendida: nuevos marcos conceptuales para la biología del siglo XXI. Revista de Filosofia Aurora, 25(36): pp. 134-147. https://doi.org/10.7213/revistadefilosofiaaurora.7768.
2. Casanueva, M. y Martínez, M. (2014). Marcos causales y síntesis teóricas en biología. Acta Scientiae 16(2): 330-344.
3. Newman, S. A. (2007). Evolution in Four Dimensions: Genetic, Epigenetic, Behavioral and Symbolic Variation in the History of Life. Eva Jablonka and Marion Lamb. Integrative and Comparative Biology, 47(6), 901–903. https://doi.org/10.1093/icb/icm099.
4. Van Gulick, Robert (2022). "Consciousness", The Stanford Encyclopedia of Philosophy (Winter 2022 Edition), Edward N. Zalta & Uri Nodelman (eds.). https://plato.stanford.edu/archives/win2022/entries/consciousness/.
5. Gardner, H. (1985). The Mind's New Science. New York: Basic Books.
6. Aggarwal, R., & Anderies, J. (2023). Understanding how governance emerges in social-ecological systems: insights from archetype analysis. Ecology and Society, 28(2), art2. https://doi.org/10.5751/ES-14061-280202.
La obra del naturalista inglés Charles Darwin constituye un hito singular en la historia de la ciencia contemporánea, con aportaciones originales que cubren un extenso periodo de trabajo metódico y revolucionaron la comprensión del mundo natural. Su temprano interés por la naturaleza y la historia natural facilitó que se enrolara en una expedición a bordo del HMS Beagle, entre 1831 y 1836, lo que le proporcionó la oportunidad de observar y recolectar especímenes de una gran variedad de plantas y animales, cuyo estudio detenido fue la base para el desarrollo de sus ideas sobre la evolución.1
Esto no significa que algunas ideas centrales de Darwin carecieran por completo de precedentes, como cabría deducir de textos como el de Desmond y Moore (Darwin, 1991). El contexto histórico y científico de la época estuvo marcado por avances importantes en geología, paleontología y anatomía comparada, y las ideas de otros naturalistas como Jean-Baptiste Lamarck y Alfred Russel Wallace tuvieron una influencia clara en el desarrollo del pensamiento evolutivo de Darwin.2, 3
Darwin conocía de primera mano el curso de los debates científicos sobre el surgimiento de los vertebrados, los orígenes de los principales tipos de animales vivos y el surgimiento y extinción de grupos como los dinosaurios, lo que explica la riqueza de detalles en sus estudios originales y el interés por integrar perspectivas resultantes de interacciones complejas entre especialistas de diversos campos de la ciencia. En particular, consideró prioritario articular el relato definitivo de la morfología evolutiva y sus relaciones con la paleontología y la biogeografía, lo que supuso en la práctica un ambicioso programa interdisciplinar orientado inicialmente más a la reconstrucción del pasado que a dilucidar los mecanismos de cambio evolutivo.3
Sin embargo, la capacidad de Charles Darwin para comunicar sus ideas en un lenguaje asequible y llegar a un público amplio —lo que explica en parte el éxito y difusión temprana de sus ideas— atrajo a numerosos actores que propagaron interpretaciones sesgadas y metáforas "socialmente cargadas", utilizadas acríticamente por algunos de sus seguidores para describir la historia de la vida. Como explica Bowler (cap. 9: The Metaphors of Evolutions), este uso menos riguroso contribuyó a la extrapolación de ciertos aspectos del evolucionismo moderno y los conceptos darwinianos fuera del contexto que Darwin tenía como refencia cuando, en 1859, publicó su obra clave, El origen de las especies por medio de la selección natural, en la que presentó su teoría de la evolución por selección natural. Pese a la controversia que sus ideas generaron, se convirtió en una obra imprescindible de la biología moderna.4, 5, 6
Aunque con antelación a la publicación de sus obras se cuestionaban las ideas previas sobre la inmutabilidad de las especies, tiene pleno sentido considerar revolucionarias —paradigmáticas, si se prefiere el término— las contribuciones de Charles Darwin, puesto que transformaron de manera radical e irreversible la manera de entender la diversidad y la historia de la vida en la Tierra. Darwin no solo proporcionó una teoría coherente y basada en la evidencia para explicar la diversidad de la vida —su idea de que las especies cambian con el tiempo a través de la selección natural ha proporcionado un marco unificador para entender la diversidad biológica—, sino que el enfoque evolutivo articulado por Darwin ha sido fundamental para el desarrollo de la biología moderna y de otras muchas disciplinas afines, con influencia decisiva en campos tan diversos como la genética, la ecología, la biología del desarrollo y la paleontología. Su teoría de la evolución proporcionó un marco explicativo para comprender las dinámicas de adaptación y de especiación, mejorando la comprensión de los procesos históricos que han moldeado la biota del planeta.7
La metodología de trabajo de Charles Darwin explica el alcance que daba a sus propias interpretaciones, sin importarle gran cosa cuán arraigadas estaban en la tradición las creencias que consideraba incompatibles con los nuevos descubrimientos. La idea —popularizada por René Descartes— de que los animales eran simplemente máquinas impulsadas por el instinto, por lo que solo la humanidad era capaz de razonar y desarrollar procesos mentales avanzados, fue contrarrestada por Darwin con numerosos ejemplos referidos a distintas especies, cuyos detalles no encajaban a menos que se aceptara que los animales poseían una cognición más elevada de lo que hasta entonces se suponía. Darwin estableció una tradición científica aún vigente, según la cual las diferencias en la capacidad mental de los seres humanos y otros animales no eran tan marcadas como durante siglos se había creído, lo que hace plausible un enfoque explicativo de la evolución de la mente humana que converge con su estrategia para explicar la evolución del cuerpo humano. Así, para cualquier carácter dado, cabe suponer que los humanos son lo suficientemente parecidos a los animales, o los animales lo suficientemente parecidos a los humanos, como para admitir la hipótesis de una cadena de formas intermedias forjadas por seleccion natural.8
Darwin dio muestras de esforzarse por aplicar de modo consistente sus criterios metodológicos en la investigación de casos y en la interpretación de la evidencia obtenida, consolidando una actitud científica en el estudio de los problemas esenciales de la biología de su tiempo que cabe considerar más sofisticada y arriesgada que la de colegas contemporáneos como Herbert Spencer (al que atribuía un abordaje deductivo de los problemas infructuoso científicamente) o Alfred Wallace (quien, de manera independiente, articuló una idea similar de evolución por procesos de selección natural). Wallace, por ejemplo, no aceptaba que ciertos rasgos complejos en la especie humana —el lenguaje, el intelecto, la música, el arte y la moral, entre otros— pudieran explicarse únicamente por la selección natural; consideró que debían de haber sido el resultado de la intervención de un creador divino.8, 9, 10
La importancia del darwinismo trasciende el ámbito de la biología, si se tiene en cuenta cómo ha influido en campos tan diversos como la medicina, la psicología, la antropología, la epistemología filosófica y la filosofía moral. El legado de Darwin sigue vigente en la actualidad, y su teoría continúa siendo el fundamento de la biología evolutiva moderna y un antecedente ineludible en el encuadre metodológico de nuevas líneas de investigación en biología, genética, psicología cognitiva y disciplinas afines.6, 11, 12, 13, 14, 15, 16
1. Darwin, C. (1839). Journal of researches into the geology and natural history of the various countries visited by H.M.S. Beagle, under the command of Captain Fitzroy, R.N., from 1832 to 1836. Henry Colburn. https://darwin-online.org.uk/converted/pdf/1878_Researches_F33.pdf.
2. Desmond, A. & James Moore (1991). Darwin, London, Michael Joseph Ltd.
3. Bowler, P. J. (1998). Life’s splendid drama: Evolutionary Biology and the Reconstruction of Life’s Ancestry, 1860-1940. University of Chicago Press. https://archive.org/details/lifessplendiddra0000bowl_s9a4/page/n3/mode/2up. Chap. 1-2, 7-8.
4. El título completo de la primera edición (On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life) fue acortado en su sexta edición de 1872 (On the Origin of Species, John Murray, Londres). https://en.wikisource.org/wiki/On_the_Origin_of_Species_(1859).
5. Mayr, E. (1982). The Growth of Biological Thought: Diversity, Evolution, and Inheritance. Harvard University Press.
6. Ruse, M. (1999). The Darwinian Revolution: Science Red in Tooth and Claw. University of Chicago Press.
7. Futuyma, D. (2013). Evolution. Sinauer.
8. Laland, K. N. (2017). Darwin’s unfinished symphony: How culture made the human mind. Princeton University Press. Ch. 1.
9. Wallace, A. R. (1869). “The Limits of Natural Selection as Applied to Man (S165: 1869/1870)”. http://people.wku.edu/charles.smith/wallace/S165.htm.
10. Ayala, F. J. (2009). Darwin and the scientific method. Proceedings Of The National Academy Of Sciences Of The United States Of America, 106(supplement_1), 10033-10039. https://www.pnas.org/doi/full/10.1073/pnas.0901404106#sec-1.
11. Browne, J. (2002). Charles Darwin: The power of place. AlfredA. Knopf, New Yoork.
12. Buskes, C. (2009). La herencia de Darwin: La evolución en nuestra visión del mundo. Herder, Barcelona.
13. Quammen, D. (2019). The Tangled tree: A Radical New History of Life. Simon & Schuster.
14. Losos, J. B. (2017). Improbable destinies: Fate, Chance, and the Future of Evolution. Penguin.
15. Laland, K. N. (2017). Darwin’s Unfinished Symphony: How Culture Made the Human Mind. Princeton University Press.
16. Laland, K. N. et al. (2015). The extended evolutionary synthesis: its structure, assumptions and predictions. Proceedings - Royal Society. Biological Sciences/Proceedings - Royal Society. Biological Sciences, 282(1813), 20151019. https://doi.org/10.1098/rspb.2015.1019.
17. Eldredge N (2004) Darwin. Discovering the Tree of Life (Norton, New York).
La selección natural es el mecanismo central de la teoría de la evolución propuesta por Darwin. Se define como el proceso por el cual los organismos mejor adaptados a su entorno tienen más probabilidades de sobrevivir y reproducirse, transmitiendo sus características hereditarias a las siguientes generaciones. Este proceso conduce a cambios en las poblaciones a lo largo del tiempo, favoreciendo la adaptación de los organismos a su ambiente.1
La selección natural actúa sobre la variación existente en las poblaciones. Los individuos con características que les confieren una ventaja adaptativa en un ambiente determinado tendrán más éxito reproductivo, mientras que aquellos con características menos favorables tendrán menor descendencia. Con el tiempo, las características ventajosas se harán más comunes en la población.2
El concepto de selección natural proporcionó a Darwin un anclaje metodológico sólido; pero su aplicación exitosa le llevó un tiempo considerable: dos décadas de aclaraciones adicionales, revisión de muestras y acumulación de nuevos casos, con posterioridad a sus anotaciones en los cuadernos de trabajo elaborados durante la expedición en el HMS Beagle, en la que se enroló con ideas creacionistas. La idea de selección natural terminó siendo su principal herramienta de trabajo:
«Para Darwin, la selección natural se convirtió en "una teoría con la que trabajar". No cejó en sus observaciones y experimentos para poner a prueba la teoría y resolver presuntas objeciones. Estos estudios se plasmaron en innumerables artículos y volúmenes dedicados a los percebes (fósiles y vivos), las orquídeas y su fecundación por insectos, las plantas insectívoras y trepadoras, las lombrices de tierra y mucho más.»
- Ayala (2009). Darwin and the scientific method. Proceedings Of The National Academy Of Sciences Of The United States Of America, 106(supplement_1): 10038 (trad. propia).
«Lo que Darwin entendía por 'una teoría con la que trabajar' era nada menos que la selección natural y el intento de derivar —como 'predicciones'— las consecuencias esperadas de la selección natural en acción durante largos periodos de tiempo. A partir de la selección natural, Darwin intentó derivar esos mismos patrones básicos que había visto en el mundo natural.»
- Eldredge (2004) Darwin. Discovering the Tree of Life. Norton, New York, p. 54 (trad. propia; cita incompleta en Ayala, 2009).
En la versión basada en las obras de Charles Darwin, la selección natural es el proceso por el cual los organismos con características más ventajosas para su entorno tienen una mayor probabilidad de sobrevivir y reproducirse, transmitiendo dichas características a su descendencia. A lo largo de muchas generaciones, este proceso puede llevar a la adaptación de las poblaciones a sus entornos y al surgimiento de nuevas especies. Los elementos clave en la definición de Darwin son: variación —existe una variación natural en las características de los individuos dentro de una población—; herencia —algunas de estas variaciones son heredables y se transmiten de los progenitores a sus descendientes—; lucha por la existencia —los organismos producen más descendencia de la que puede sobrevivir hasta la edad reproductiva, lo que lleva a una competencia por ciertos recursos limitados—; éxito reproductivo diferencial —los individuos con características más ventajosas para un entorno particular tienen más probabilidades de sobrevivir, reproducirse y transmitir sus características a su descendencia—; adaptación —como resultado de la selección natural, las poblaciones se adaptan gradualmente a sus entornos a lo largo del tiempo—.1, 3, 4
La versión que incorpora nuevos resultados de la investigación interdisciplinar posterior a Darwin (genética mendialiana y diversos desarrollos teóricos hasta finales del siglo XX) obliga a redefinir el concepto de selección natural como el proceso por el cual las frecuencias de alelos (variantes de genes) dentro de una población cambian de una generación a la siguiente, debido a las diferencias en el éxito reproductivo de los individuos que portan esos alelos. Incorpora estos elementos adicionales:
Estas aclaraciones sobre la evolución del concepto de selección natural no son puramente terminológicas, sino el resultado de desarrollos metodológicos, teóricos y conceptuales que abarcan un extenso periodo de investigación, con una acumulación de casos e hipótesis de trabajo que han facilitado el desarrollo de modelos interpretativos cada vez más sofisticados, para dar cuenta de los avances en genética, biología molecular y otras disciplinas.5, 6
Los principios básicos articulados por Darwin siguen siendo fundamentales para comprender cómo funciona la evolución, no obstante. Y la selección natural sigue siendo la única explicación científica viable para la adaptación y la diversidad de la vida en la Tierra. En determinados entornos se ha podido comprobar y poner a prueba el algoritmo evolutivo:
1. Darwin, C. (1859). On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. John Murray, London. https://www.loc.gov/resource/rbctos.2017gen17473/?sp=1&st=grid.
2. Endler, J. A. (1986). Natural Selection in the Wild. Princeton University Press.
3. Darwin, C. (1871). The Descent of Man, and Selection in Relation to Sex (1st edición), Londres: John Murray.
4. Eldredge, N. (1995). Reinventing Darwin: The Great Evolutionary Debate. Weidenfeld & Nicolson. Ch. 2.
5. Dobzhansky, T. (1982). Genetics and the Origin of Species. Columbia University Press.
6. Hertler, S. C., Figueredo, A. J., & Peñaherrera-Aguirre, M. (2020). Multilevel selection: Theoretical Foundations, Historical Examples, and Empirical Evidence. Palgrave Macmillan.
7. Kettlewell, H. B. D. (1955). Selection experiments on industrial melanism in the Lepidoptera. Heredity, 9(3), 323-342. https://doi.org/10.1038/hdy.1955.36.
8. Cook, L. M., Grant, B. S., Saccheri, I. J., & Mallet, J. (2012). Selective bird predation on the peppered moth: the last experiment of Michael Majerus. Biology Letters, 8(4), 609-612. https://doi.org/10.1098/rsbl.2011.1136.
9. Lázár, V. et al. (2014). Genome-wide analysis captures the determinants of the antibiotic cross-resistance interaction network. Nature Communications, 5(1). https://doi.org/10.1038/ncomms5352.
10. Evolution (Wikipedia): "A visual demonstration of rapid antibiotic resistance evolution by E. coli growing across a plate with increasing concentrations of trimethoprim". https://upload.wikimedia.org/wikipedia/commons/transcoded/7/7a/Kishony_lab-The_Evolution_of_Bacteria_on_a_Mega-Plate.webm/Kishony_lab-The_Evolution_of_Bacteria_on_a_Mega-Plate.webm.720p.vp9.webm.
11. Grant, P. R., & Grant, B. R. (2002). Unpredictable Evolution in a 30-Year Study of Darwin’s Finches. Science, 296(5568), 707-711. https://doi.org/10.1126/science.1070315.
Selección direccional, estabilizadora y disruptiva
En el modelo de selección natural, los tipos de selección —direccional, estabilizadora y disruptiva— describen diferentes formas en que las fuerzas selectivas pueden actuar sobre las poblaciones, afectando a la distribución de rasgos fenotípicos:
1. Selección Direccional
La selección direccional favorece a un fenotipo extremo sobre otros, provocando un cambio en la media de la distribución de los rasgos fenotípicos en una población.Ejemplo: Si en una población de pájaros el tamaño del pico está relacionado con la disponibilidad de semillas grandes, y las semillas grandes se vuelven más abundantes, los individuos con picos más grandes tendrán una ventaja selectiva. Con el tiempo, la población tenderá a tener picos más grandes en promedio.
Implicaciones:
- Produce un cambio en la media del rasgo.
- Reduce la variación genética al favorecer un extremo del espectro fenotípico.
- Puede llevar a cambios rápidos en poblaciones en respuesta a cambios ambientales.
2. Selección Estabilizadora
La selección estabilizadora favorece a los fenotipos intermedios sobre los extremos, manteniendo la media del rasgo en la población y reduciendo la variabilidad fenotípica.Ejemplo: En una población de humanos, los bebés con peso al nacer muy bajo o muy alto tienen mayores tasas de mortalidad, mientras que los bebés con peso intermedio tienen mayores tasas de supervivencia. Este tipo de selección mantiene la mayoría de los nacimientos en un rango de peso saludable.
Implicaciones:
- Mantiene la media del rasgo estable en el tiempo.
- Disminuye la variabilidad genética al eliminar los extremos fenotípicos.
- Favorece la adaptación a un entorno estable.
3. Selección Disruptiva
La selección disruptiva favorece a los fenotipos extremos sobre los intermedios, creando una distribución bimodal y aumentando la variabilidad fenotípica en la población.Ejemplo: En un ambiente donde tanto las semillas pequeñas como las grandes están disponibles, pero las semillas de tamaño medio son raras, los pájaros con picos muy pequeños o muy grandes tendrán una ventaja sobre los pájaros con picos de tamaño intermedio. Con el tiempo, la población podría dividirse en dos subgrupos con picos pequeños y grandes.
Implicaciones:
- Aumenta la variabilidad fenotípica.
- Puede llevar a la formación de nuevas especies si las diferencias entre los grupos extremos se incrementan.
- Favorece la diversificación en entornos heterogéneos.
Referencias
- Futuyma, D. J., & Kirkpatrick, M. (2017). Evolution (4th ed.). Sunderland, MA: Sinauer Associates. Ch. 20, pp. 141-142.
- Bell, G. (2015). The Evolution of Life. Oxford University Press. Ch. 12-14.
- Burke, N. W., & Bonduriansky, R. (2017). Sexual Conflict, Facultative Asexuality, and the True Paradox of Sex. Trends In Ecology & Evolution, 32(9), 646-652. https://doi.org/10.1016/j.tree.2017.06.002.
La reproducción sexual mantiene la diversificación continua de las especies
«La reproducción sexual, característica definitoria de las especies multicelulares, implica la mezcla aleatoria en la descendencia de los alelos genéticos derivados de diferentes organismos parentales. La mezcla de genes mediante reproducción sexual garantiza que ningún organismo multicelular transmitirá sexualmente su genotipo de ADN exacto a la siguiente generación. No importa cuán grande sea la aptitud darwiniana de uno de los padres, el bebé nunca heredará ese genotipo adecuado solo: un nuevo bebé siempre hereda una mezcla aleatoria de la mitad de los alelos de cada uno de sus padres. La reproducción sexual asegura que la aptitud genética no sea transmisible intacta de una generación a la siguiente. Al reorganizar constantemente los genomas, la reproducción sexual frustra el avance de la perfección darwiniana, como se supone que resulta del éxito reproductivo de los individuos más aptos [...]. El problema sigue abierto[...]:
”Por qué la reproducción sexual está tan extendida a pesar de sus costos sustanciales es uno de los problemas sin resolver más importantes de la biología evolutiva. Debido a que el sexo está asociado con numerosos costos a corto plazo que los organismos asexuales evitan en su mayoría, la teoría predice que los linajes asexuales o partenogenéticos deberían competir y superar en número a los linajes sexuales, en igualdad de condiciones. Sin embargo, paradójicamente, el sexo es el modo de reproducción dominante en muchos linajes de eucariotas complejos.” [Burke & Bonduriansky (2017): 646. Trad. propia]
La comunidad aún no se ha puesto de acuerdo sobre un mecanismo compatible con la lucha por la supervivencia del más apto y el debate continúa [...]. Sin embargo, el sexo, desde la perspectiva de la adaptación, no es un problema para la evolución, sino una solución.
La reproducción sexual evita el óptimo, al tiempo que crea innovación continua; nos atrevemos a decir que la respuesta óptima a la entropía es evitar un óptimo único. [...] En cualquier caso, la diversificación está programáticamente vinculada a la renovación de los miembros de una especie mediante la reproducción sexual. La descendencia de un individuo automáticamente diversifica las especies en cada generación. En pocas palabras, los sistemas vivos no están limitados por un único genotipo de especie “óptimo”; están programados para evitar un óptimo único; diversos arreglos retardan la destrucción por entropía. La diversificación continua es obviamente beneficiosa, pero no es un resultado obvio de un mecanismo de supervivencia del más fuerte.»
- Cohen & Marron, A. (2020). The evolution of universal adaptations of life is driven by universal properties of matter: energy, entropy, and interaction. F1000Research, 9, 626. https://doi.org/10.12688/f1000research.24447.3 (trad. propia).
Charles Darwin consideró la "variación" como un hecho fundamental de la naturaleza, la base sobre la que opera la selección natural. Su concepto de variación hereditaria —las diferencias innatas entre formas de vida que se transmiten de padres a hijos, dentro de una especie— tenía como base la observación (On the origin of species..., pp. 20-21, 109, 127): pudo comprobar en múltiples casos que los individuos dentro de una misma población presentan diferencias en sus características físicas, fisiológicas y de comportamiento —incluyendo la aparición de enfermedades tardías—, aunque desconocía los mecanismos que la generaban.1
Por lo tanto, la versión darwiniana de la variación es el resultado de:
Precisar el concepto de variación genética como resultado de las mutaciones, como resultado de procesos de recombinación genética y la deriva génica, no fue posible hasta finales del siglo XIX, gracias a las aportaciones en 1865 de Gregor Mendel (que Darwin no llegó a conocer) y de August Weismann, quien observó que eran necesarias dos divisiones celulares para transformar una célula diploide en cuatro células haploides para mantener el número de cromosomas en la especie.2, 3
Las aportaciones de Mendel no fueron valoradas hasta comienzos del siglo XX, cuando otros investigadores —Hugo de Vries, Carl Correns, Erich von Tschermak y William Bateson— dedujeron de manera independiente las leyes de Mendel y Bateson comenzó a referirse a la nueva ciencia como "genética", introduciendo el concepto de "alelo", que facilitó aplicar las leyes de Mendel a la Zoología. Otros aspectos del concepto de variación se fueron precisando según avanzaba la investigación interdisciplinar en el siglo XX, con las contribuciones de genetistas clásicos como Thomas Hunt Morgan (quien observó el sobrecruzamiento en la meiosis de la mosca de la fruta, proporcionando en 1911 la primera interpretación correcta sobre la meiosis) y, sobre todo, con las aportaciones de la biología molecular.4, 5
Desde que James Watson y Francis Crick descifraron la estructura de la molécula de ADN, las mutaciones se describen como cambios en la secuencia de ADN que pueden producir cambios en las características de los organismos. Pueden ser neutras, perjudiciales o beneficiosas. La recombinación genética, que ocurre durante la reproducción sexual (meiosis), genera nuevas combinaciones de alelos, aumentando la variabilidad genética de la descendencia. Solo las mutaciones génicas lo son en sentido estricto; pero pueden ocurrir en el nivel cromosómico (inversiones, deleciones, duplicaciones, translocaciones) o en el genómico (aumento o disminución del número de cromosomas). La deriva genética se refiere a cambios aleatorios en las frecuencias alélicas de una población, especialmente en poblaciones pequeñas.4
La variación es esencial para la evolución: proporciona el material sobre el que actúa la selección natural y, sin variación, no habría diferencias en la aptitud de los individuos (ni evolución por selección natural). El concepto de mutación incluye dos aspectos: (1) el proceso que produce un gen o un conjunto cromosómico que difiere del tipo silvestre; (2) el gen o cromosoma resultante de dicho proceso.
A la probabilidad de que una copia de un alelo cambie a otra forma alélica en una generación se le denomina tasa de mutación (μ), que puede incrementarse con la acción de ciertos agentes químicos o exponiendo las muestras a radiación. La tasa de mutación difiere entre especies: si se conoce la tasa de mutación y el número de nucleótidos en los que dos secuencias difieren, se puede calcular cuánto tiempo transcurrió desde que la divergencia en las secuencias se produjo.6
La alta variación dentro de las poblaciones es el resultado combinado de mutaciones, recombinación genética, deriva genética y plasticidad fenotípica. Este último aspecto es importante, dado que el ambiente puede influir en la expresión de los genes, de manera que un mismo genotipo puede dar lugar a diferentes fenotipos —características físicas, fisiológicas o de comportamiento observables entre individuos— en función de las condiciones ambientales. Una mayor variación dentro de las poblaciones incrementa su capacidad para adaptarse a entornos cambiantes y favorece el surgimiento de nuevas especies.7, 8, 9
1. Darwin, C. (1859). On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. John Murray, London.
2. Coyne, J. (2009). Evolution's challenge to genetics. Nature 457, 382–383. https://doi.org/10.1038/457382a.
3. Wills, C. (2007). Principles of Population Genetics, 4th edition. Journal Of Heredity, 98(4), 382. https://doi.org/10.1093/jhered/esm035.
4. Futuyma, D., & Kirkpatrick, M. (2017). Evolution (4th ed.). Sinauer Associates. Chap. 4, pp. 79-98. Genetic drift in pp. 177-197.
5. Watson, J. D., & Crick, F. H. C. (1953). Molecular Structure of Nucleic Acids: A Structure for Deoxyribose Nucleic Acid. Nature, 171(4356), 737-738. https://doi.org/10.1038/171737a0.
6. Griffiths, A. J. F., Doebley, J., Peichel, C., & Wassarman, D. A. (2020). Introduction to Genetic Analysis - Twelfth Edition. W. H. Freeman and Company (p. 621).
7. Sætre, G., & Ravinet, M. (2019). Evolutionary genetics: Concepts, Analysis, and Practice. Oxford University Press, USA. Ch. 10.1.4.
8. Donohue, K. (2013). Development in the wild: Phenotypic plasticity. En Annual Plant Reviews Volume 45 (pp. 321–355). Wiley. https://doi.org/10.1002/9781118305881.ch10.
9. Ridley, M. (2003). Evolution. Wiley-Blackwell. Ch. 4, 9.
Contribuciones de la biología molecular a la precisión del concepto de variación genética
Identificación de la base molecular de la herencia
- Descubrimiento de la estructura del ADN (Watson & Crick, 1953)
- Comprensión del código genético y su universalidad
Mecanismos de variación genética
- Mutaciones puntuales: sustituciones, inserciones, deleciones
- Recombinación genética
- Transposición de elementos genéticos móviles
Técnicas de secuenciación del ADN
- Método de Sanger y posteriores avances en secuenciación de nueva generación
- Posibilidad de comparar genomas completos entre individuos y especies
Epigenética
- Modificaciones químicas del ADN y las histonas que afectan la expresión génica
- Herencia transgeneracional de marcas epigenéticas
Genómica comparativa
- Identificación de regiones conservadas y variables entre especies
- Comprensión de la evolución de familias génicas
Variación estructural del genoma
- Detección de variaciones en el número de copias (CNVs)
- Identificación de inversiones, translocaciones y otros reordenamientos cromosómicos
Regulación génica
- Descubrimiento de elementos reguladores (promotores, enhancers, silenciadores)
- Variación en regiones no codificantes que afectan la expresión génica
Genética de poblaciones molecular
- Uso de marcadores moleculares para estudiar la variación dentro y entre poblaciones
- Estimación de tasas de mutación y flujo génico
Plasticidad fenotípica
- Comprensión de cómo un mismo genotipo puede producir diferentes fenotipos en respuesta al ambiente
Interacciones gen-ambiente
- Estudio de cómo factores ambientales pueden influir en la expresión génica y el fenotipo
Referencias
Alberts, B., Heald, R., Johnson, A., Morgan, D., Raff, M., Roberts, K., & Walter, P. (2022). Molecular biology of the cell (seventh edition). WW Norton.
Griffiths, A. J. F., Doebley, J., Peichel, C., & Wassarman, D. A. (2020). Introduction to Genetic Analysis - Twelfth Edition. W. H. Freeman and Company.
Hartl, D. L., & Clark, A. G. (2007). Principles of Population Genetics (4th ed.). Sinauer Associates.
Watson, J. D., & Crick, F. H. C. (1953). Molecular structure of nucleic acids: A structure for deoxyribose nucleic acid. Nature, 171(4356), 737-738.
Mutaciones inducidas que alteran rasgos conductuales complejos
Mutation turns absent father fish into doting dads
Males of the cichlid fish species Astatotilapia burtoni won’t win any awards for parenting. Once they fertilize a female’s eggs, they disappear, leaving her to raise and protect their kids by keeping them in her mouth for weeks, a strategy known as mouthbrooding. At least, the vast majority of them do. So when postdoc Cheng-Yu Li saw a male with eggs in his mouth, he was floored. “I didn’t know if I was having hallucinations or imagining things,” he said in a statement.
Further investigation revealed he wasn’t: A mutation can turn these ‘deadbeat dad’ fish into perfect parents, he and his colleagues discovered.
Genetic analyses revealed that mutations in a gene called or113a —which encodes the receptor for a pheromone produced by fertile female fish— altered the males’ fatherly activities. When mutated, males suddenly took on the burden of mouthbrooding. The researchers believe that the pheromone acts as an off signal for a neural circuit involved in nurturing behavior: When the receptor is damaged by a mutation, the males can’t smell the pheromone, and therefore, don’t switch off their fatherly instincts.
“I’ve been working with these fish for more than a decade and I'd never seen that in my entire life,” says senior author Scott Juntti.
Nota de prensa (1.08.2024)
Abstract
«...utilizamos la transcriptómica de células individuales y la edición de genes CRISPR en un modelo de pez cíclido para identificar y probar los roles de los genes clave involucrados en la detección olfativa de señales reproductivas.
[...] En conjunto, estos resultados muestran que los distintos mecanismos de señalización feromonal impulsan los comportamientos reproductivos en todos los taxones. Además, estos hallazgos indican que un solo receptor de feromonas ha adquirido un nuevo papel en la regulación del comportamiento, impulsando la evitación del cuidado paternal entre los peces cíclidos haplochrominos. Por último, un comportamiento parental sexualmente dimórfico, derivado de la evolución, está controlado por circuitos centrales presentes en ambos sexos, mientras que las señales olfativas controlan este comportamiento de una manera específica para cada sexo.» (Trad. automática)
- Li et al. (2024). A pheromone receptor in cichlid fish mediates attraction to females but inhibits male parental care. Current Biology. https://doi.org/10.1016/j.cub.2024.07.029.
Mutaciones que multiplican el riesgo de cáncer
La mutación del gen BRCA1 es mucho más prevalente en la población de etnia gitana
«La madre de Mari Carmen, vecina esta última de 46 años del barrio de Sant Roc de Badalona, falleció de cáncer de mama. Sus dos tías también tuvieron esta enfermedad. "Nos dijeron que posiblemente era una cuestión genética. En 2012 me hice una prueba genética y di positivo en la mutación del gen BRCA1", cuenta Mari Carmen. En 2021, le detectaron a ella un tumor en la mama y, conocedora de su realidad, decidió extirparse ambas. Porque poseer la mutación de este gen es prácticamente una sentencia a sufrir cáncer de mama: las mujeres que lo poseen tienen, a lo largo de toda su vida, hasta un 80% de posibilidades de desarrollar el tumor y hasta un 40% de tener cáncer de ovarios. También afecta a los hombres, aunque en menor proporción: ellos tienen hasta un 6% de posibilidades de sufrir cáncer de mama y un 20% de cáncer de próstata.
El Institut Català d'Oncologia (ICO) dispone de datos que apuntan que la mutación del gen BRCA1 es mucho más prevalente en la población de etnia gitana, como Mari Carmen, que en la población general. El ICO inició en 2022 un proyecto en el barrio de Sant Roc de Badalona, donde viven unas 14.000 personas la mayoría de las cuales son gitanas, para comprobar si se confirmaba o no la hipótesis de lo que en los últimos años había visto su Unitat de Consell Genètic: que la mutación de este gen, altamente asociado con el cáncer de mama, era más frecuente en la población gitana que en los 'payos'.
La prevalencia en la población general es inferior al 0,1%. Hasta ahora se sabía que esta mutación era mucho más común, por ejemplo, en la comunidad judía asquenazí: tienen un 1% de posibilidades de poseerla. La actriz Angelina Jolie, de ascendencia judía, decidió someterse hace 11 años a una doble mastectomía al saberse conocedora de la mutación del gen BRCA1 y de las elevadas posibilidades que tenía de desarrollar cáncer de mama.
"En 2022, pusimos en marcha estos cribados genéticos en la comunidad gitana, de la mano del CAP Sant Roc, partiendo de la idea de que existía una potencialidad para prevenir la enfermedad", señala Ares Solanes, asesora genética de la Unitat de Consell Genètic del ICO. El equipo investigador se ha propuesto cribar (la prueba consiste en un raspado bucal; si sale positiva, se hace un análisis de sangre) a 400 personas. Dos años después, han logrado hacerles estas pruebas a 274 personas de etnia gitana y han visto que un total de 10, es decir, un 3,7% de las personas cribadas, dieron positivo en la mutación del gen BRCA1.
"Es muchísimo, un porcentaje muy superior al que hay en la población general o entre los judíos", señala Solanes. Aunque el proyecto aún no ha acabado, pues faltan 126 personas por cribar, los investigadores creen que los resultados preliminares son lo suficientemente reveladores y contundentes como para tener en cuenta esta realidad. "Podemos estar ante un cambio de paradigma", asegura Solanes. Estas pruebas están llamadas a convertirse en una herramienta de diagnóstico precoz en esta comunidad.
¿Por qué esta mayor incidencia?
El nombre BRCA proviene de las dos primeras letras de 'breast cancer', que en inglés significa cáncer de mama. Hay dos tipos de genes BRCA, el BRCA1 y el BRCA2, y ambos inhiben los tumores malignos. Sin embargo, cuando mutan, no lo hacen como deberían y, por tanto, las personas con mutaciones en estos genes corren un mayor riesgo de presentar cáncer. Como explica Solanes, la mutación del gen BRCA1 existe en la población general, pero es más prevalente en "algunas poblaciones". Los judíos asquenazís, por ejemplo, que "no acostumbran a tener descendencia con personas de fuera de la comunidad". También algunas comunidades de Sudamérica. Y ahora, como está analizando el ICO, también las personas de etnia gitana.
Así, esta mayor incidencia de esta mutación genética va ligada a la "historia geográfica" de la propia comunidad. "El que la población gitana tenga esta mutación de manera más recurrente viene del hecho histórico de que proceden de la India. Hace mil años que empezaron a salir del país, hicieron un viaje por Europa hasta llegar hace 600 años a España", explica Solanes. Por España se repartieron y, aunque su historia está marcada por el nomadismo, lo cierto es que esta población se volvió más sedentaria una vez llegó al país.
"El hecho de que en la India fueran muchísimos y que después un pequeño grupo se moviera y se reprodujera en otras áreas geográficas formó un efecto genético llamado 'cuello de botella'. Es decir, de una población grande, una pequeña parte se vuelve a reproducir y alguna característica suya [como en este caso la mutación del gen BRCA1] se vuelve más frecuente, pese a que al principio no lo era", añade esta asesora genética.
El reto de atraer a las pacientes
Estos cribados genéticos realizados por el ICO en la comunidad gitana no hubieran sido posibles sin el trabajo del centro de atención primaria (CAP) Sant Roc de Badalona. El reto era "bajar" la actividad del gran hospital oncológico de Catalunya, que trata el 60% de todos los casos de cáncer en adultos y que aporta todo el conocimiento genético, al centro de salud, que aporta el conocimiento social. Los sanitarios de la primaria de este CAP, tan arraigado en Sant Roc, son quienes atraen a las pacientes a estos cribados. "Ha sido un reto total y absoluto", reconoce Judith Isach, enfermera asistencial de este CAP. "La palabra 'cáncer' no se puede pronunciar porque piensan que es una manera de atraer la enfermedad", explica Isach.
Ella hace de intermediaria entre las pacientes que atiende y la consulta de consejo genética montada por el ICO en este CAP que cada miércoles abre sus puertas libremente para toda persona que quiera entrar. Muchas veces es la propia Isach, persona de confianza para la comunidad, la que acompaña a la paciente a la consulta. Presentan el proyecto bajo el nombre de 'Salud Gitana'. Han hecho vídeos en los que pacientes como Mari Carmen, de la comunidad, invitan a otras personas a hacerse las pruebas. Y también montan 'stands' informativos en mercadillos del barrio. Porque el objetivo de estos cribados es asentarse entre la comunidad gitana. "Hubo una generación que moría de esta enfermedad. Nosotras queremos o que no la tengan o que se les haga un diagnóstico precoz para que sobrevivan", concluyen Isach y Solanes.»
- Pérez (5.07.2024). Una mutación genética multiplica por 37 el riesgo de las mujeres gitanas de sufrir cáncer de mama. El Periódico. https://www.elperiodico.com/es/sanidad/20240705/ico-mujeres-gitanas-mutacion-gen-brca1-riesgo-cancer-mama-104818975.
La herencia es el proceso biológico fundamental por el cual las características de los progenitores se transmiten a la descendencia. Darwin era consciente de la importancia de la herencia en la evolución, pero desconocía los mecanismos subyacentes. Sin embargo, la lectura de diversos tratados sobre la cría de animales domésticos y plantas de interés agrícola le permitió refinar notablemente su comprensión del concepto de herencia (inheritance, en inglés, con matizaciones de especial relevancia en la Introducción y en el cap. 1 de On the Origin of Species, pp. 9-45) y deducir aspectos esenciales a partir de numerosos ejemplos interpretados con gran agudeza, intentando sortear las limitaciones y lagunas de conocimiento que detectaba en los estudios teóricos publicados por otros colegas (mantuvo correspondencia con más de 230 antes de 1859).1
En la concepción darwiniana, la herencia tiene las siguientes características y matices:
Un largo periodo de estudio meticuloso de casos recogidos en tratados de cría de especies domésticas y otros de botánica y zoología proporcionó a Darwin una comprensión sofisticada de la complejidad inherente a los procesos de la herencia y a la constante variación sobre la que operan los procesos de selección natural, cuyo resultado es tanto la preservación de las características de las especies como su modificación gradual a lo largo del tiempo.
Darwin creyó que las características de la descendencia serían una mezcla de las de sus progenitores, una idea que hacía problemática la explicación de por qué persiste la variación en las poblaciones a lo largo del tiempo. En su intento de explicar cómo se transmiten las características hereditarias de los progenitores a la descendencia, Darwin propuso que todas las células del cuerpo emiten diminutas partículas denominadas "gémulas" (del latín gemmula) o "pangenes". Estas partículas portaban la información hereditaria, se acumulaban en las células reproductoras (óvulos y espermatozoides) y se transmitían a la siguiente generación, combinándose y desarrollándose en los órganos y tejidos correspondientes, en un proceso cuya eficacia consideraba superior a la partenogénesis.2, 3
La teoría de la pangénesis fue una hipótesis tentativa en ausencia de una comprensión precisa de los mecanismos genéticos. Pero carecía de evidencia empírica y quedó refutada con el desarrollo de la genética mendeliana. Gregor Mendel, contemporáneo de Darwin, demostró a través de sus experimentos con guisantes de jardín (Pisum sativum) que la herencia se basa en factores discretos (genes) que se segregan y recombinan de manera matemáticamente predecible.3
Mendel observó que ciertos caracteres pueden expresarse de distintas maneras. Los alelos dominantes "determinan" el efecto de un gen, mientras que los alelos recesivos se caracterizan por no tener efecto genético (expresión, en terminología actual) sobre un fenotipo heterocigótico, pero puede lograrse su reaparición en generaciones sucesivas mediante autofecundación. La producción de gametos en un organismo deja solo una copia del gen —seleccionada al azar— en cada gameto (ley de la segregación); y los alelos de dos (o más) genes diferentes se reparten en los gametos de forma independiente el uno del otro (es decir, el alelo de un gen que recibe un gameto no influye en el alelo que recibe de otro gen, lo que se conoce como ley de la distribución independiente). En 1865, Mendel presentó los resultados de sus experimentos con casi 30,000 plantas de guisantes ante los integrantes de la Sociedad de Historia Natural local. Su obra sobre la herencia de caracteres discretos en guisantes se publicó en 1866 en las Actas de la Sociedad de Historia Natural de Brünn; pero permaneció ignorada hasta principios del siglo XX, lo que privó a sus contemporáneos de una explicación mucho más precisa de los mecanismos de la herencia durante varias décadas.4, 5
Hay algunas similitudes en los enfoques metodológicos adoptados por Darwin y Mendel, que tenían como punto de partida observaciones meticulosas y anotaciones de casos relevantes. Pero Gregor Mendel acertó al seleccionar un contexto de experimentación adecuado para su teoría y eligiendo con buen criterio la planta de guisante por sus muchas ventajas como organismo modelo: bajo coste, tiempo de generación corto, elevado índice de descendencia y diversas variedades dentro de la misma especie con caracteres fácilmente identificables (color, forma, rugosidad y tamaño, entre otras). Pisum sativum es una planta autógama; pero Mendel evitó que se autofecundara emasculándola (eliminando las anteras), lo que le permitió cruzar exclusivamente las variedades deseadas, llegando incluso a embolsar las flores para proteger a los híbridos de polen no controlado durante la floración. En paralelo, realizó un experimento control, llevando a cabo cruzamientos mediante autofecundación durante dos generaciones sucesivas para obtener líneas puras para cada carácter.6, 7, 8
Aunque incompleto y en algún aspecto incorrecto a la luz de los conocimientos actuales, el concepto darwiniano de herencia resultó fundamental para el desarrollo de la teoría evolutiva y sentó las bases para la investigación posterior en genética y biología evolutiva, a cuyo desarrollo contribuyeron significativamente sus observaciones e inferencias. Su anclaje en la idea de "descendencia con modificación" permitió a Darwin dilucidar el papel de la herencia en la formación del árbol de la vida. Sobre esta base argumentó que todos los organismos vivos comparten un ancestro común, y las diferencias entre ellos son el resultado de la acumulación de variaciones heredadas a lo largo de innumerables generaciones. Esta idea se mentiene vigente y constituye la base de la investigación filogenética moderna.9, 10
El concepto darwiniano de evolución incluye, entre muchos aspectos relevantes, los que siguen:
Variabilidad: La evolución se basa en la existencia de variaciones entre individuos de una misma especie. Darwin observa que esta variabilidad es omnipresente en la naturaleza y es la materia prima sobre la que actúa la evolución.
Herencia: Las variaciones deben ser heredables para que puedan transmitirse a las siguientes generaciones. La herencia es un mecanismo fundamental para la continuidad y el cambio evolutivo.
Selección natural: Es el principio central de la teoría de Darwin. La naturaleza selecciona las variaciones más favorables, permitiendo que los individuos que las poseen sobrevivan y se reproduzcan con mayor éxito.
Gradualismo: Darwin enfatiza que los cambios evolutivos ocurren de forma gradual a lo largo de muchas generaciones, acumulándose pequeñas modificaciones con el tiempo.
Adaptación: Las especies evolucionan adaptándose a su entorno. Las características que mejoran la supervivencia y reproducción en un ambiente específico tienden a preservarse y propagarse.
Lucha por la existencia: Darwin reconoce que los organismos producen más descendencia de la que puede sobrevivir, lo que lleva a una competencia por los recursos limitados.
Divergencia de caracteres: A medida que las especies evolucionan, tienden a divergir en sus características, ocupando diferentes nichos ecológicos.
Selección sexual: Darwin considera la selección sexual como un mecanismo evolutivo adicional, donde ciertos rasgos evolucionan porque confieren ventajas en la competencia por parejas.
Ancestro común: Darwin sugiere que las especies actuales descienden de ancestros comunes, lo que explica las similitudes entre grupos de organismos.
Extinción: La evolución implica no solo el surgimiento de nuevas especies, sino también la extinción de otras que no logran adaptarse a los cambios ambientales.
Influencia del ambiente: Darwin reconoce que el ambiente juega un papel crucial en la evolución, tanto en la generación de variabilidad como en la selección de características favorables.
Especiación: Aunque no utiliza este término, Darwin describe cómo las poblaciones pueden divergir hasta formar nuevas especies.
Coevolución: Darwin observa que las especies evolucionan en respuesta a los cambios en otras especies con las que interactúan.
Selección artificial como modelo: Darwin utiliza la selección artificial realizada por los criadores como un modelo para comprender la selección natural.
Universalidad del proceso evolutivo: Darwin aplica su teoría a todos los seres vivos, tanto plantas como animales.
Evolución no dirigida: A diferencia de las teorías previas, Darwin no ve la evolución como un proceso dirigido hacia un fin predeterminado.
Importancia del tiempo geológico: Darwin reconoce que la evolución requiere grandes períodos de tiempo para producir cambios significativos.
Complejidad de las interacciones ecológicas: Darwin destaca cómo las relaciones complejas entre organismos influyen en su evolución.
Estos aspectos, en conjunto, forman la base del concepto darwiniano de evolución, que revolucionó la comprensión del mundo natural y sentó las bases de la biología moderna.
1. Darwin, Charles (1859). On the Origin of Species. New York: Appleton And Company. Ch. 1 (pp. 9-45).
2. Darwin, C. (1868). The Variation of Animals and Plants under Domestication (1st edición). London: John Murray.
3. Darwin, C. (1871). The Descent of Man, and Selection in Relation to Sex. London: John Murray.
4. Mendel, J. G. (1866). Versuche über Plflanzenhybriden. Verhandlungen des naturforschenden Vereines in Brünn, Bd. IV für das Jahr, 1865 Abhandlungen:3-47 (http://www.mendelweb.org/MWGerText.html). Trad. ingl.: Druery, C. T. & William Bateson (1901). «Experiments in Plant Hybridization (1865)». J. Royal Horticultural Soc. 26: 1-32. http://www.esp.org/foundations/genetics/classical/gm-65.pdf.
5. Clarke, J. (2022) Mendel’s legacy in modern genetics. PLoS Biol 20(7): e3001760. https://doi.org/10.1371/journal.pbio.3001760.
6. Mackay, T. F. C., Anholt R. R. H. (2022) Gregor Mendel’s legacy in quantitative genetics. PLoS Biol 20(7): e3001692. https://doi.org/10.1371/journal.pbio.3001692.
7. McLysaght, A. (2022) The deceptive simplicity of mendelian genetics. PLoS Biol 20(7): e3001691. https://doi.org/10.1371/journal.pbio.3001691.
8. Matalova, E. (2022) Johann Gregor Mendel: Born to be a scientist? PLoS Biol 20(7): e3001703. https://doi.org/10.1371/journal.pbio.3001703.
9. Huneman, P., & Walsh, D. M. (2017). Challenging the Modern Synthesis: Adaptation, Development, and Inheritance. Oxford University Press.
10. Svensson, E. I. (2017). On Reciprocal Causation in the Evolutionary Process. Evolutionary Biology, 45(1), 1-14. https://doi.org/10.1007/s11692-017-9431-x.
Sobre el concepto darwiniano de herencia (inheritance)
«No breeder doubts how strong is the tendency to inheritance : like produces like is his fundamental belief: doubts have been thrown on this principle by theoretical writers alone. When any deviation of structure often appears, and we see it in the father and child, we cannot tell whether it may not be due to the same cause having acted on both ; but when amongst individuals, apparently exposed to the same conditions, any very rare deviation, due to some extraordinary combination of circumstances, appears in the parent-say, once amongst several million individuals-and it reappears in the child, the mere doctrine of chances almost compels us to attribute its reappearance to inheritance. Every one must have heard of cases of albinism, prickly skin, hairy bodies, &c., appearing in several members of the same family. If strange and rare deviations of structure are truly inherited, lees strange and commoner deviations may be freely admitted to be inheritable. Perhaps the correct way of viewing the whole subject, would be, to look at the inheritance of every character whatever as the rule, and non-inheritance as the anomaly.
The laws governing inheritance are quite unknown ; no one can say why the same peculiarity in different individuals of the same species, and in individuals of different species, is sometimes inherited and sometimes not so ; the child often reverts in certain characters to its grandfather or grandmother or other much more remote ancestor ; why a peculiarity is often transmitted from one sex to both sexes, or to one sex alone, more commonly but not exclusively to the like sex. It is a fact of some little importance to us, that peculiarities appearing in the males of our domestic breeas are often transmitted either exclusively, or in a much greater degree, to males alone. A much more important rule, which I think may be trusted, is that, at whatever period of life peculiarity first appears, it tends to appear in the offspring at a corresponding age, though sometimes earlier. In many cases this could not be otherwise : thus the inherited peculiarities in the homs of cattle could appear only in the offspring when nearly mature; peculiarities in the silkworm are known to appear at the corresponding caterpillar or cocoon stage.
But hereditary diseases and some other facts make me believe that the rule has a wider extension, and that when there is no apparent reason why a peculiarity should appear at any particular age, yet that it does tend to appear in the offspring at the same period at which it :first appeared in the parent. I believe this rule to be of the highest importance in explaining the laws of embryology. These remarks are of course confined to the first appearance of the peculiarity, and not to its primary cause, which may have acted on the ovules or male element ; in nearly the same manner as in the crossed offspring from a short-horned cow by a long-horned bull, the greater length of horn, though appearing late in life, is clearly due to the male element.»
- Darwin (1859). "Variation Under Domestication", In On the Origin of Species. New York: Appleton And Company. Ch. 1, pp. 19-20.
Niveles de regulación y transmisión de información biológica
El concepto moderno de herencia se ha desarrollado gracias a los avances en genética, biología molecular, epigenética y otras disciplinas relacionadas. Este concepto actualizado es mucho más complejo y matizado que el propuesto originalmente por Darwin, e incorpora múltiples niveles de regulación y transmisión de información biológica.
- Base molecular de la herencia: La herencia se basa principalmente en la transmisión de información genética codificada en el ADN. Los genes, segmentos de ADN que codifican proteínas o ARN funcionales, son las unidades fundamentales de la herencia. El código genético, descifrado en la década de 1960, explica cómo la secuencia de nucleótidos en el ADN se traduce en secuencias de aminoácidos en las proteínas.
Sin embargo, la herencia no se limita solo a la transmisión de secuencias de ADN. Los avances en epigenética han revelado que las modificaciones químicas del ADN y las histonas, así como los patrones de compactación de la cromatina, también pueden heredarse y afectar la expresión génica sin alterar la secuencia de ADN subyacente (Allis & Jenuwein, 2016).
- Herencia mendeliana y no mendeliana: La herencia mendeliana, basada en los principios descritos por Gregor Mendel, explica la transmisión de caracteres monogénicos. Sin embargo, muchos rasgos siguen patrones de herencia más complejos:
- Herencia poligénica: Rasgos influenciados por múltiples genes.
- Pleiotropía: Un gen afecta múltiples características.
- Epistasis: Interacciones entre genes que afectan la expresión de rasgos.
- Herencia ligada al sexo: Genes localizados en los cromosomas sexuales.
- Herencia mitocondrial: Transmisión de ADN mitocondrial, generalmente por vía materna.
- Variación genética y mutaciones: Las mutaciones son la fuente última de variación genética. Pueden ser puntuales, inserciones, deleciones, o reordenamientos cromosómicos. Los mecanismos de reparación del ADN y la selección natural actúan sobre estas variaciones, influyendo en su persistencia en las poblaciones.
La recombinación genética durante la meiosis y la reproducción sexual también contribuyen a generar nuevas combinaciones de alelos, aumentando la diversidad genética en las poblaciones (Cutter & Payseur, 2013).
- Regulación génica y expresión: La expresión génica está regulada por una compleja red de interacciones moleculares. Los factores de transcripción, enhancers, silenciadores y otros elementos reguladores controlan cuándo y dónde se expresan los genes. Los mecanismos epigenéticos, como la metilación del ADN y las modificaciones de histonas, también desempeñan un papel crucial en la regulación génica.
La expresión génica puede ser influenciada por factores ambientales (plasticidad fenotípica). Esto explica cómo individuos genéticamente idénticos pueden desarrollar fenotipos diferentes en respuesta a diferentes condiciones ambientales.
- Epigenética y herencia transgeneracional: La epigenética ha ampliado nuestra comprensión de la herencia más allá del ADN. Las modificaciones epigenéticas pueden transmitirse a través de generaciones, lo que permite una forma de herencia de características adquiridas, aunque generalmente de corta duración (Heard & Martienssen, 2014).
Algunos estudios han demostrado que experiencias ambientales, como el estrés o la dieta, pueden inducir cambios epigenéticos heredables que afectan el fenotipo de la descendencia. Este fenómeno se conoce como herencia epigenética transgeneracional.
Herencia cultural y comportamental: En organismos con comportamientos sociales complejos, especialmente en humanos, la herencia cultural juega un papel importante. La transmisión de conocimientos, habilidades y comportamientos a través del aprendizaje social y la imitación puede considerarse una forma de herencia no genética que influye significativamente en el fenotipo y la aptitud de los individuos.
Genómica y herencia: Los avances en tecnologías de secuenciación y análisis genómico han revelado la complejidad del genoma y su relación con la herencia. El proyecto del genoma humano y estudios posteriores han demostrado que:
- Muchas regiones no codificantes del genoma tienen funciones reguladoras importantes.
- Los elementos genéticos móviles, como los transposones, pueden influir en la evolución del genoma.
- Las variaciones en el número de copias de genes pueden afectar significativamente el fenotipo.
Interacciones gen-ambiente: El concepto moderno de herencia reconoce la importancia crucial de las interacciones gen-ambiente en la determinación del fenotipo. Los estudios de asociación del genoma completo (GWAS) han identificado numerosos loci genéticos asociados con rasgos complejos, pero también han revelado que la mayoría de estos rasgos están influenciados por múltiples genes y factores ambientales (Visscher et al., 2017).
Herencia y evolución: La comprensión actualizada de la herencia ha enriquecido nuestra visión de la evolución. La teoría sintética de la evolución, que integra la genética mendeliana con la selección natural darwiniana, se ha expandido para incluir conceptos como la deriva genética, la deriva genética y la evolución molecular. La síntesis evolutiva extendida propone incorporar aspectos como la plasticidad del desarrollo, la construcción de nicho y la herencia epigenética en la comprensión de los procesos evolutivos (Laland et al., 2015).
El concepto actualizado de herencia es mucho más rico y complejo que el propuesto originalmente por Darwin. Integra múltiples niveles de información biológica, desde la secuencia de ADN hasta las modificaciones epigenéticas y las interacciones gen-ambiente. Esta visión más completa de la herencia tiene implicaciones profundas para la comprensión de la biología, la medicina, la psicología del comportamiento y la evolución.
Referencias
- Allis, C., Jenuwein, T. The molecular hallmarks of epigenetic control. Nat Rev Genet 17, 487–500 (2016). https://doi.org/10.1038/nrg.2016.59.
- Cutter, A., Payseur, B. Genomic signatures of selection at linked sites: unifying the disparity among species. Nat Rev Genet 14, 262–274 (2013). https://doi.org/10.1038/nrg3425.
- Heard, E., & Martienssen, R. A. (2014). Transgenerational epigenetic inheritance: myths and mechanisms. Cell, 157(1), 95-109. https://doi.org/10.1016/j.cell.2014.02.045.
- Laland, K. et al. (2015). The extended evolutionary synthesis: its structure, assumptions and predictions. Proceedings of the Royal Society B: Biological Sciences, 282(1813), 20151019. https://doi.org/10.1098/rspb.2015.1019.
- Visscher, P. M. et al. (2017). 10 years of GWAS discovery: biology, function, and translation. The American Journal of Human Genetics, 101(1), 5-22. https://doi.org/10.1016/j.ajhg.2017.06.005.
Las características que permiten a los organismos sobrevivir y reproducirse con éxito en un entorno específico se denominan adaptaciones. En la perspectiva darwiniana, la adaptación es el resultado de la selección natural actuando sobre la variación genética a lo largo de múltiples generaciones. Las adaptaciones pueden ser morfológicas, fisiológicas o comportamentales. Si confieren alguna ventaja en términos de supervivencia y reproducción, tienden a preservarse y acumularse en las poblaciones con el tiempo.1
Las adaptaciones no son perfectas, sino que reflejan compromisos entre diferentes presiones selectivas. Si cambian las condiciones ambientales, las adaptaciones pueden volverse obsoletas o resultar disfuncionales, y eventualmente contribuir a la extinción de las especies si el desajuste se prolonga en el tiempo.2, 3
Son relevantes otros aspectos incluidos en el concepto darwiniano de herencia para entender la adaptación. En particular, la constatación de que nacen más individuos de los que pueden sobrevivir con los recursos disponibles. En su lucha por la existencia, pequeñas variaciones en ciertas características pueden incrementar la probabilidad de que sobrevivan los individuos con variaciones ventajosas (supervivencia diferencial) y llegar a reproducirse. Las adaptaciones complejas evolucionan gradualmente, por lo que se requieren muchas generaciones para que se extiendan en una población (gradualismo).
Darwin tenía constancia de procesos en los que dos o más especies evolucionan en respuesta a las presiones selectivas que ejercen mutuamente, por lo que su noción de adaptación incluía las interacciones ecológicas como fuerzas evolutivas (co-adaptación).4
El origen de las especies incluye varios ejemplos de relaciones complejas entre organismos de distintas especies que podían influir en su evolución mutua. Aunque Darwin menciona la diversidad morfológica de los picos de los pinzones de las Galápagos, cuyas formas y tamaños difieren tras un largo proceso de adaptación a los recursos alimentarios disponibles en las islas, no lo hace con el nivel de detalle que la colaboración posterior con otros investigadores hizo posible. Un caso especialmente interesante se incluye en una obra más tardía (On the various contrivances by which British and foreign orchids are fertilised by insects, and on the good effects of intercrossing, de 1862), en la que analiza la relación entre orquídeas y polinizadores. Aunque no la observó directamente, se interesó por la orquídea de Madagascar (Angraecum sesquipedale), cuya nectario resulta ser extremadamente largo. Predijo la existencia de un polinizador apto para las peculiaridades de esta orquídea. Descubierta décadas después, la polilla esfinge (Xanthopan morganii praedicta) evolucionó desarrollando una probóscide lo bastante larga para alcanzar el néctar.5, 6, 7, 8
Las adaptaciones fisiológicas incluyen mecanismos como la regulación de la temperatura corporal en mamíferos y aves, o la capacidad de las plantas de los desiertos para conservar agua. Las adaptaciones comportamentales, como las estrategias de apareamiento o las tácticas de caza, también pueden ser moldeadas por la selección natural. Conociendo la lentitud y complejidad de las adaptaciones requeridas para sobrevivir en entornos cambiantes por factores climáticos, Darwin llegó a la conclusión de que se sobrevalora con frecuencia el grado de adaptación de las especies al clima en el que viven:
«Podemos deducir esto de nuestra frecuente incapacidad para predecir si una planta importada soportará o no nuestro clima, y del número de plantas y animales traídos de diferentes países que están aquí perfectamente sanos. Tenemos razones para creer que las especies en estado natural están estrechamente limitadas en sus áreas de distribución por la competencia de otros seres orgánicos tanto o más que por la adaptación a climas particulares.»
- Darwin (1859). On the Origin of Species. New York: Appleton And Company, p. 127 (trad. propia).
1. Ridley, M. (2004). Evolution (3rd ed.). Blackwell Science. Part III, pp. 255-291.
2. Barnosky, A., Matzke, N., Tomiya, S. et al. (2011). Has the Earth’s sixth mass extinction already arrived?. Nature 471, 51–57. https://doi.org/10.1038/nature09678.
3. Otto, S. P. (2018). Adaptation, speciation and extinction in the Anthropocene. Proceedings - Royal Society. Biological Sciences/Proceedings - Royal Society. Biological Sciences, 285(1891), 20182047. https://doi.org/10.1098/rspb.2018.2047.
4. Darwin, Charles (1859). On the Origin of Species. New York: Appleton And Company, pp. 11, 101.
5. Darwin, Charles (1877). On the various contrivances by which British and foreign orchids are fertilised by insects, and on the good effects of intercrossing (2nd edición). London: John Murray (Trad. esp.: La fecundación de las orquídeas. Laetoli Editorial, 2007).
6. Darwin, Charles (1859). On the Origin of Species. New York: Appleton And Company, pp. 82, 223, 369.
7. Grant, P. R., & Grant, B. R. (2008). How and why Species Multiply: The Radiation of Darwin’s Finches. Princeton University Press.
El proceso por el cual surgen nuevas especies a partir de poblaciones ancestrales se conoce como especiación. Darwin propuso que la especiación ocurre gradualmente, a través de la continua acumulación de diferencias entre poblaciones aisladas reproductivamente. Consideró que las islas oceánicas y ciertos espacios con barreras naturales eran el entorno privilegiado para estudiar las condiciones en las que surgen nuevas especies.1
Existen varios mecanismos de especiación, pero los más comunes son la especiación alopátrica y la especiación simpátrica. La especiación alopátrica ocurre cuando las poblaciones están separadas geográficamente por barreras físicas, como montañas, ríos o islas. En ausencia de flujo genético, estas poblaciones acumulan diferencias genéticas a lo largo del tiempo, lo que puede conducir a la formación de nuevas especies. Es el proceso de especiación más frecuente: la diversificación de los pinzones de Darwin en las islas Galápagos, donde el aislamiento geográfico ha permitido la evolución de diferentes especies adaptadas a nichos ecológicos específicos, constituye un ejemplo clásico.2
La especiación simpátrica, por otro lado, ocurre cuando nuevas especies surgen dentro de una población sin aislamiento geográfico. Este tipo de especiación puede estar impulsada por la selección natural que favorece la especialización en diferentes recursos o por cambios cromosómicos que reducen el flujo genético entre subpoblaciones. Pero la evolución de dos especies en la misma área geográfica que la especie progenitora es considerada infrecuente. Un ejemplo de especiación simpátrica es la diversificación de los peces cíclidos en los grandes lagos de África Oriental, donde la especialización en diferentes hábitats y recursos alimentarios ha conducido a la formación de numerosas especies endémicas.3, 4
La especiación es un proceso fundamental en la evolución, ya que da lugar a la diversidad de la vida en la Tierra. Las obras de Darwin dejan constancia del importante esfuerzo dedicado a comprender los mecanismos de especiación y los factores o condiciones determinantes del surgimiento de las especies actuales, de la extinción de especies ancestrales y de posibles escenarios evolutivos. Aunque su aproximación al problema estaba limitada por las lagunas de conocimiento de la época —antes de que la genética y la teoría de la herencia se desarrollaran—, su reflexión sobre las implicaciones del aislamiento reproductivo y sus ideas fundamentales acerca de la especiación como un proceso gradual impulsado por la selección natural siguen siendo centrales en la biología evolutiva moderna.5, 6, 7, 8
Tras la recepción de los trabajos de Mendel y, sobre todo, con el desarrollo de la biología molecular, la comprensión del concepto darwiniano de especiación ha mejorado en aspectos esenciales, incorporando conocimiento muy preciso de los mecanismos y evidencias moleculares que apoyan y refinan las ideas originales de Darwin. En particular, se conocen mejor los procesos genéticos que subyacen al aislamiento reproductivo, y cómo las interacciones entre genes pueden causar esterilidad o inviabilidad en los híbridos. Los reordenamientos cromosómicos pueden causar problemas en la meiosis de los híbridos, lo que provoca aislamiento reproductivo. Se trata de un proceso asociado también con cambios genómicos de relevancia funcional en periodos evolutivos relativamente cortos, que incluyen divergencia en la secuencia, la estructura y la ubicación de los genes codificadores de proteínas, así como divergencia en los ADN no codificantes.9, 10, 11
Se ha comprobado que el proceso de especiación resulta mucho más complejo de lo esperado, dado que pocos o muchos cambios genéticos pueden desencadenar dinámicas graduales o repentinas de especiación, cuyos patrones cuesta identificar porque responden a propiedades emergentes y no lineales de la especiación. Esto explica que pequeños cambios en los puntos de inflexión puedan tener grandes efectos en la diferenciación (es decir, cambios de régimen repentinos en otros sistemas celulares, ecológicos y sociales, por analogía con los cambios de estado en otros sistemas complejos bien estudiados). Introducir la idea de puntos de inflexión en este dominio implica aceptar interacciones con "retroalimentación positiva y selección indirecta derivada de asociaciones entre regiones genómicas, biestabilidad debido a los efectos de las condiciones iniciales y la historia evolutiva, y dependencia de la modularidad de los componentes del sistema".12
En la segunda mitad del siglo XX la investigación fue proporcionando datos relevantes sobre las bases moleculares de la adaptación, gracias a la identificación de genes y mutaciones específicas con un papel relevante en diversos tipos de adaptaciones. Los estudios de loci de rasgos cuantitativos (en inglés: Quantitative Trait Loci, abrev. QTL) sirven para cartografiar los genes responsables de diferencias adaptativas entre especies; y las contribuciones de la genómica comparativa han permitido identificar regiones genómicas bajo selección divergente entre especies incipientes. El estudio de las tasas de mutación y evolución a nivel molecular ha proporcionado una escala temporal para la especiación, por lo que se dispone ahora de herramientas que pueden utilizarse como reloj molecular, para calcular con notable precisión cuándo ocurrió la divergencia entre especies. Desde finales de los años noventa, la bioquímica paleomolecular ha pasado de ser una disciplina emergente a consolidarse como campo activo de conocimiento de gran valor interdisciplinar, cuya metodología de trabajo integra aportaciones de la filogenia, la mutagénesis dirigida y el conocimiento de la estructura de las proteínas para profundizar en los condicionantes del proceso adaptativo (reconstruyendo genes antiguos y comparando los fenotipos con las proteínas modernas, por ejemplo). Un conocimiento preciso de cientos de reemplazos de aminoácidos acumulados durante miles de millones de años permite identificar aquellos que resultan cruciales para discriminar entre sustratos alternativos, incluyendo algunos aminoácidos de efecto modesto a nivel molecular pero cuyo reemplazo causa una expansión espectacular en nichos ecológicos específicos.13, 14, 15
Otros aspectos relevantes para el proceso de especiación, resultantes de la investigación reciente en biología molecular, atañen a las tasas de sustitución —diferentes partes del genoma evolucionan a diferentes velocidades— y la identificación de islas genómicas —regiones del genoma que permanecen diferenciadas a pesar del flujo génico—. Los estudios en epigenética han obligado a incorporar una nueva dimensión en la comprensión del proceso de especiación y su plasticidad, puesto que los mecanismos epigenéticos pueden inducir cambios epigenéticos heredables y fijar patrones de regulación génica que explican cómo un mismo genotipo puede producir diferentes fenotipos en diferentes ambientes y contribuir a la diferenciación rápida entre poblaciones.16, 17, 18, 22
El concepto de especiación ha sido uno de los más afectados por la sucesión de resultados y aportaciones interdisciplinares tras la consolidación de la biología molecular como campo aglutinador de conocimientos, avances y metodologías de trabajo que han proporcionado una comprensión más profunda —y mecanicista, en aspectos esenciales— del proceso de especiación, reforzando en gran medida las ideas originales de Darwin y revelando, no obstante, la complejidad y diversidad de los mecanismos y niveles de interacción involucrados.19, 20, 21, 22
1. Darwin, C. (1859). On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. John Murray, pp. 55, 98-103, 1161, 157, 165, 262, 280, 284-286, 294, 299, 349, 352, 388, 418, 428.
2. Coyne, J. A., & Orr, H. A. (2004). Speciation. Sinauer Associates Incorporated.
3. Bush, G. L. (1994). Sympatric speciation in animals: new wine in old bottles. Trends In Ecology & Evolution, 9(8), 285-288. https://doi.org/10.1016/0169-5347(94)90031-0.
4. Seehausen, O. (2006). African cichlid fish: a model system in adaptive radiation research. Proceedings - Royal Society. Biological Sciences, 273(1597), 1987-1998. https://doi.org/10.1098/rspb.2006.3539.
5. Ridley, M. (2004). Evolution (3rd ed.). Blackwell Science. Part III, pp. 347-369.
6. Mallet, J. (2010). Why was Darwin’s view of species rejected by twentieth century biologists? Biology & Philosophy, 25(4), 497-527. https://doi.org/10.1007/s10539-010-9213-7.
7. Reznick, D. N., & Ricklefs, R. E. (2009). Darwin’s bridge between microevolution and macroevolution. Nature, 457(7231), 837-842. https://doi.org/10.1038/nature07894.
8. Haghighatnia, M. et al. (2023). Darwin’s ‘mystery of mysteries’: the role of sexual selection in plant speciation. Biological Reviews/Biological Reviews Of The Cambridge Philosophical Society, 98(6), 1928-1944. https://doi.org/10.1111/brv.12991.
9. Maheshwari, S., & Barbash, D. A. (2011). The Genetics of Hybrid Incompatibilities. Annual Review Of Genetics, 45(1), 331-355. https://doi.org/10.1146/annurev-genet-110410-132514.
10. Dobzhansky, T. (1936). Studies on hybrid sterility. II Localization of sterility factors in Dosophila pseudoobscura hybrids. Genetics, 21(2), 113-135. https://doi.org/10.1093/genetics/21.2.113.
11. Orr, H. A. (1995). The population genetics of speciation: the evolution of hybrid incompatibilities. Genetics, 139(4), 1805-1813. https://doi.org/10.1093/genetics/139.4.1805.
12. Nosil, P., Feder, J. L., Flaxman, S. M., & Gompert, Z. (2017). Tipping points in the dynamics of speciation. Nature Ecology & Evolution, 1(2): pp. 1, 11. https://doi.org/10.1038/s41559-016-0001.
13. Golding, G. B., & Dean, A. M. (1998). The structural basis of molecular adaptation. Molecular Biology And Evolution, 15(4), 355-369. https://doi.org/10.1093/oxfordjournals.molbev.a025932.
14. Storz, J. F. (2016). Causes of molecular convergence and parallelism in protein evolution. Nature Reviews. Genetics, 17(4), 239-250. https://doi.org/10.1038/nrg.2016.11.
15. Meng, L. et al. (2020). Functional divergence and adaptive selection of KNOX gene family in plants. Open Life Sciences, 15(1), 346-363. https://doi.org/10.1515/biol-2020-0036.
16. Seehausen, O. et al. (2014). Genomics and the origin of species. Nature Reviews. Genetics, 15(3), 176-192. https://doi.org/10.1038/nrg3644.
17. Nosil, P., & Schluter, D. (2011). The genes underlying the process of speciation. Trends In Ecology & Evolution, 26(4), 160-167. https://doi.org/10.1016/j.tree.2011.01.001.
18. Wu, C. (2001). The genic view of the process of speciation. Journal Of Evolutionary Biology, 14(6), 851-865. https://doi.org/10.1046/j.1420-9101.2001.00335.x.
19. Cruickshank, T. E., & Hahn, M. W. (2014). Reanalysis suggests that genomic islands of speciation are due to reduced diversity, not reduced gene flow. Molecular Ecology, 23(13), 3133-3157. https://doi.org/10.1111/mec.12796.
20. Rundle, H. D., & Nosil, P. (2005). Ecological speciation. Ecology Letters, 8(3), 336-352. https://doi.org/10.1111/j.1461-0248.2004.00715.x.
21. Vogler, A. P. (2001). The genic view: a useful model of the process of speciation? Journal Of Evolutionary Biology, 14(6), 876-877. https://doi.org/10.1046/j.1420-9101.2001.00360.x.
22. Lexer, C., & Widmer, A. (2008). The genic view of plant speciation: recent progress and emerging questions. Philosophical Transactions - Royal Society. Biological Sciences, 363(1506), 3023-3036. https://doi.org/10.1098/rstb.2008.0078.
La teoría sintética de la evolución —conocida también como síntesis evolutiva moderna o neodarwinismo— integra la teoría de la evolución por selección natural de Darwin con los principios de la genética mendeliana y otros avances en biología durante las décadas de 1930 y 1950, que proporcionaron una base teórico-conceptual sólida y unificada para profundizar en la comprensión de los procesos evolutivos.1, 2
La relevancia de la teoría sintética se entiende sobre el trasfondo de problemas que algunos casos estudiados por Darwin pusieron de manifiesto pero que carecían de una explicación satisfactoria con los desarrollos teórico-conceptuales que proporcionaban sus obras (véanse los aptdos. anteriores sobre selección natural, Variación, Herencia, Adaptación y Especiación). Fisher, Haldane y Wright demostraron que la herencia mendeliana y la selección natural son compatibles: la combinación de ambas ideas es el núcleo de la teoría sintética de la evolución o neodarwinismo, que hasta mediados del siglo XX se fue extendiendo gradualmente a todas las áreas de la biología, unificando la genética, la sistemática, la paleontología, la morfología y la embriología comparativa clásicas.3, 4, 5
La teoría sintética incorpora nuevos elementos para entender el proceso evolutivo, resultantes de precisar con diversos modelos y abordajes teóricos aspectos fundamentales relativos a las nociones de variación genética, selección natural, deriva genética y flujo genético. Aunque los argumentos generales de Darwin siguen siendo válidos, ahora es posible utilizar pruebas moleculares y genéticas para ilustrarlos. La variación genética, generada por mutaciones y recombinación, proporciona el material sobre el que actúa la selección natural. La selección natural, a su vez, favorece las variantes genéticas que confieren una mayor aptitud a los individuos en un ambiente determinado. Si se trata de poblaciones pequeñas, la deriva genética —el cambio aleatorio en las frecuencias alélicas— puede tener un impacto significativo. Pero, en grandes poblaciones, el intercambio de alelos resultantes de la migración —flujo genético— puede tener como efecto tanto su homogeneización como la introducción de nuevas variantes genéticas.3, 4
En el marco de la teoría sintética, la especiación se ajusta en lo esencial al enfoque darwiniano —es el resultado de la acumulación gradual de diferencias genéticas entre poblaciones aisladas, ya sea por barreras geográficas (especiación alopátrica) o por diferencias ecológicas (especiación simpátrica)— y la adaptación se explica como el resultado de la selección natural actuando sobre la variación genética, moldeando las características de los organismos para aumentar su aptitud en un ambiente específico. Pero se requiere además un nivel de explicación macroevolutivo, para entender cómo el resultado acumulativo de los procesos microevolutivos —selección natural y deriva genética— se produce a lo largo de períodos prolongados de tiempo que exceden con creces la duración de la vida humana, en los que ocurren los cambios evolutivos a gran escala que no se pueden observar en la naturaleza ni en el laboratorio pero resultan cruciales para el desarrollo de órganos complejos y están en el origen de las divisiones de la jerarquía taxonómica por encima del nivel de especie, como señalan Reznick y Ricklefs, entre otros.5, 6, 7, 8, 9, 10, 11
La teoría sintética de la evolución ha sido ampliamente aceptada por la comunidad científica y ha sido respaldada por un gran número de estudios empíricos en diversos campos, como la genética de poblaciones, la biología molecular, la paleontología y la ecología. Fue la herramienta que facilitó el rechazo de perspectivas teóricas como el saltacionismo —postulaba la aparición súbita de nuevas especies—, el lamarckismo —defendía la herencia de caracteres adquiridos—, la ortogénesis —sugería que una fuerza intrínseca guía la evolución— y el equilibrio puntuado —según el cual la macroevolución ocurre en episodios rápidos seguidos de largos períodos de estabilidad—.
Diversos estudios sobre simbiogénesis coinciden en atribuir a la teoría sintética un sesgo que refuerza en demasía el papel de la competencia y minusvalora el efecto evolutivo de otro tipo de interacciones positivas como el mutualismo.12, 13 Sin embargo, han quedado obsoletos los enfoques que consideran irrelevantes para la evolución las acumulaciones de mutaciones aleatorias, para destacar los procesos de simbiogénesis como la principal fuente de novedad y diversidad biológica, incluyendo la aparición de nuevas especies.14
En la actualidad, la comunidad científica acepta que la novedad y diversidad biológica surge como consecuencia de la acumulación de mutaciones aleatorias (errores en la replicación del ADN) formuladas desde la teoría de la síntesis evolutiva moderna; no considera a la simbiogénesis como un proceso generalizado, ni acepta su importancia en el proceso evolutivo, salvo en el caso concreto del paso de procariotas a eucariotas (endosimbiosis seriada):
Recombinación y evolución por simbiosis:
La evolución de la digestión de la leche es un ejemplo molecular en el que una nueva enzima evolucionó mediante la combinación de dos enzimas preexistentes. Un proceso relacionado opera a un nivel superior cuando dos especies enteras se fusionan por simbiosis y evolucionan hacia una nueva especie con una nueva fisiología combinada. Por ejemplo, las mitocondrias y los cloroplastos de las células eucariotas se originaron cuando una célula bacteriana engulló a otra célula bacteriana. En el caso de las mitocondrias, la célula combinada era capaz (o pronto evolucionó para serlo) de quemar carbohidratos en oxígeno, un proceso que libera más energía que la respiración anaeróbica. La nueva célula tenía un metabolismo más complejo que cualquiera de las células ancestrales por sí sola.
La evolución por simbiosis, o combinación de varios genes en nuevos genes compuestos, puede violar la letra, pero no el espíritu, del gradualismo darwiniano. Según el requisito gradualista, las nuevas adaptaciones evolucionan en muchas etapas pequeñas y continuas. Cuando dos células se fusionan, puede producirse una transición relativamente repentina a una nueva adaptación en un gran paso. Sin embargo, no se ha violado ningún principio profundo del darwinismo porque la información adaptativa dentro de cada célula ancestral se construyó en etapas graduales.
- Ridley (2003). Evolution (3rd Ed.). Blackwell Publishing, p. 266. Trad. propia.
Las endosimbiosis estables a largo plazo contribuyen a la transferencia de material genético, pasando parte o el total del ADN de los simbiontes al genoma del individuo resultante. El descubrimiento de mecanismos de transferencia horizontal de genes y de regulación epigenética ha incentivado refinamientos o propuestas teóricas que introducen modificaciones o extensiones en la teoría sintética, abriendo nuevas líneas de investigación que han mostrado cómo ciertos fenómenos (epigenética, adaptación extra genética, construcción de nichos y plasticidad fenotípica, entre otros) modifican las presiones selectivas de los genomas de los organismos y son más comunes de lo que se suponía.15
Como señala Richard Lenski, los experimentos recientes en evolución microbiana invitan a ser optimistas sobre los resultados de combinar los campos de la evolución experimental y la ecología microbiana.16 Pero la teoría sintética sigue siendo el marco conceptual dominante para la comprensión de la evolución biológica, por su capacidad contrastada para integrar hallazgos de múltiples disciplinas y proporcionar explicaciones sólidas para una amplia gama de fenómenos biológicos.
Entre los desafíos pendientes figura la comprensión de cómo interactúan los diferentes niveles de organización biológica (genes, organismos, poblaciones, especies, ecosistemas) en el proceso evolutivo, para su integración en un marco teórico coherente:17
La genómica comparativa —con una serie de técnicas computacionales de alta resolución que permiten la comparación de genomas completos de diferentes especies— proporciona desde hace un par de décadas nuevas perspectivas sobre la evolución de los genes y los genomas, con la posibilidad de identificar similitudes y diferencias en la composición genética de regiones biológicamente relevantes. Se puede conocer así cómo están relacionados y cómo divergieron los linajes de ciertos organismos a lo largo del tiempo, acotando el ancestro común que todos los seres vivos comparten, pese a los cambios a través de mutaciones y selección natural. En esta disciplina se analiza también qué partes del genoma son esenciales y por qué. Conociendo los genes que se conservan (o permanecen muy similares) en distintas especies, se puede indagar el papel que estos genes desempeñan en las funciones biológicas básicas, y el alcance cuasi universal de la ventaja reproductiva o de supervivencia que proporcionan, en línea con la noción de rasgos universales que incorpora la síntesis moderna. Las tasas de cambio en ciertas regiones, en comparación con las que se mantienen más estables, concuerda con el reconocimiento de la síntesis moderna de las diferentes presiones de selección sobre los distintos genes (es decir, cabe esperar que los genes cruciales para la supervivencia evolucionen más lentamente que los que tienen menos impacto funcional).18, 19, 20
El estudio de los elementos transponibles (transposones) y la transferencia horizontal de genes ha revelado mecanismos adicionales de variación genética que no se contemplaban en la teoría sintética original. Como señalan Koonin y Wolf, el análisis comparativo de cientos de genomas bacterianos y docenas de arqueas secuenciados está obligando a incorporar nuevas nociones sobre los principios de organización y evolución del genoma procariótico para entenderlo como una red estrechamente conectada, aunque compartimentada, que socavan el modelo de evolución entendido como "árbol de la vida" y obliga a desarrollar un nuevo marco conceptual, con herramientas específicas, aptas para el estudio de la evolución procariótica. La caracterización funcional de los genomas secuenciados y la reconstrucción evolutiva ha mostrado que la mayoría de los genes bacterianos y arqueales han conservado ortólogos en otros organismos, a menudo, distantes, obligando a prestar más atención a otro nivel crucial, el mobiloma (es decir, la enorme colección de virus, plásmidos y otros elementos genéticos egoístas, que están en constante intercambio con cromosomas más estables y sirven como vehículos —vectores— de transferencia genética horizontal, cuyas versiones iniciales fueron replicadores primordiales en el mundo de ARN y contribuyeron a la formación de las células, mientras que otros pudieron evolucionar secundariamente de virus u otros elementos genéticos móviles).21
La epigenética estudia los cambios heredables en la expresión génica que no implican cambios en la secuencia de ADN pero pueden tener relevancia como factor evolutivo. Los mecanismos epigenéticos —metilación del ADN y las modificaciones de las histonas, entre otros— pueden influir en la expresión génica y ser heredados a través de las generaciones, proporcionando una fuente adicional de variación fenotípica sobre la que puede actuar la selección natural.17
Los estudios en el campo de la biología evolutiva del desarrollo (evo-devo) ha mostrado cómo cambios relativamente pequeños en los genes reguladores del desarrollo embrionario pueden tener efectos profundos en la morfología de los organismos y dar lugar a innovaciones evolutivas y a la diversificación morfológica.22
En las últimas décadas, los estudios en ecología se han ido integrando en el campo de la biología evolutiva. La teoría de la construcción de nicho, por ejemplo, propone que los organismos no solo se adaptan a su entorno, sino que contribuyen activamente a modificarlo y crean condiciones que pueden influir en su propia evolución y en la de otras especies (véanse las observaciones sobre las nociones de co-evolución, co-adaptacion y mutualismo)—, cuestionando una visión tradicional de los organismos como receptores pasivos de la selección natural y enfatizando la importancia de las interacciones recíprocas entre los organismos y su entorno.23, 24
Algunos autores que trabajan en el marco interpretativo de la síntesis evolutiva extendida consideran que es necesario revisar el alcance de ciertos conceptos teóricos de la síntesis moderna y su dependencia de la genética, para incluir los aspectos mencionados (1-5) como factores causales adicionales, enfatizando su contribución a la dinámica evolutiva. El cuarto (sesgo del desarrollo/evo-devo) ha sido objeto de especial atención como fuente importante de novedad evolutiva, tanto para la explicación de sus mecanismos (incluyendo el papel de las hormonas tras la fertilización, p. ej.) como para entender la prevalencia y dirección de la diversificación evolutiva. El enfoque extendido se ha ido reforzando con diversas líneas de investigación y diseños experimentales para poner a prueba sus hipótesis de trabajo y predicciones, diferenciadas de las que podían derivarse de la síntesis moderna.
Como señalan Laland et al. (2015: 6) el concepto de causalidad recíproca refleja mejor la idea de que los organismos en desarrollo no son solo productos, sino también causas de la evolución (en línea con otras muchas dinámicas de retroalimentación en las cadenas causales de la biología). La causalidad recíproca es una característica común tanto de los sistemas en evolución —por ejemplo, cuando las actividades de los organismos modifican entornos selectivos— como de los sistemas en desarrollo —cuando el desarrollo se produce a través de la modificación de entornos internos y externos—, y contrasta con la noción de causalidad "unidireccional".25
Esta perspectiva tiende a reducir la importancia del componente genético en la plasticidad con efecto evolutivo, asumiendo que la plasticidad contribuye al origen de la variación funcional bajo cambios genéticos o ambientales que limitan o mejoran la capacidad de evolución e inician respuestas evolutivas, dependientes en muchos casos de procesos de desarrollo abiertos —exploratorios— y, por tanto, capaces de introducir novedades fenotípicas. En este enfoque extendido, el concepto de herencia se amplía para incluir todos los mecanismos causales por los cuales los descendientes llegan a parecerse a sus progenitores. La idea que parecen introducir es que los fenotipos no se heredan, sino que se reconstruyen en el desarrollo, si se toman en serio los mecanismos de herencia no genéticos que contribuyen a la heredabilidad y facilitan el origen y la difusión de novedades inducidas ambientalmente.25
1. Huxley, J. (1942). Evolution: the modern synthesis. George Allen & Unwin.
2. Pigliucci, M., & Müller, G. B. (Eds.). (2010). Evolution: the extended synthesis. MIT Press.
3. Ridley, M. (2003). Evolution (3a ed.). Blackwell Publishing. Ch. 1, pp. 14-19.
4. Huxley, J. S. (2009). Evolution: The Modern Synthesis. MIT Press. Ch. 3-8.
5. Slatkin, M. (1987). Gene Flow and the Geographic Structure of Natural Populations. Science, 236(4803), 787-792. https://doi.org/10.1126/science.3576198.
6. Coyne, J. A., & Orr, H. A. (2004b). Speciation. Sinauer Associates Incorporated. Ch. 12.
7. Futuyma, D. (2013). Evolution. Sinauer. Ch. 20, pp. 516-542.
8. Liow, L. H., Uyeda, J., & Hunt, G. (2023). Cross-disciplinary information for understanding macroevolution. Trends In Ecology & Evolution, 38(3), 250-260. https://doi.org/10.1016/j.tree.2022.10.013.
9. Rolland, J. et al. (2023). Conceptual and empirical bridges between micro- and macroevolution. Nature Ecology & Evolution, 7(8), 1181-1193. https://doi.org/10.1038/s41559-023-02116-7.
10. Stanley, S. M. (1982). Macroevolution and the Fossil Record. Evolution, 36(3), 460. https://doi.org/10.2307/2408094.
11. Reznick, D. N., & Ricklefs, R. E. (2009b). Darwin’s bridge between microevolution and macroevolution. Nature, 457(7231), 837-842. https://doi.org/10.1038/nature07894.
12. Margulis, Lynn (2002). Planeta Simbiótico. Un nuevo punto de vista sobre la evolución. Victoria Laporta Gonzalo (trad.). Madrid: Editorial Debate.
13. Margulis, L., D. Sagan (2003). Captando Genomas. Una teoría sobre el origen de las especies. Editorial Kairós.
14. Ridley, M. (2003). Evolution (3a ed.). Blackwell Publishing, p. 266.
15. Pigliucci, M., & Müller, G. B. (Eds., 2010). Evolution: the extended synthesis. MIT Press.
16. Lenski, R. E. (2017). Experimental evolution and the dynamics of adaptation and genome evolution in microbial populations. The ISME Journal, 11(10), 2181-2194. https://doi.org/10.1038/ismej.2017.69.
17. Jablonka, E., & Raz, G. (2009). Transgenerational Epigenetic Inheritance: Prevalence, Mechanisms, and Implications for the Study of Heredity and Evolution. The Quarterly Review Of Biology/The Quarterly Review Of Biology, 84(2), 131-176. https://doi.org/10.1086/598822.
18. Hardison, R. C. (2003). Comparative genomics. PLoS Biology, 1(2), e58. https://doi.org/10.1371/journal.pbio.0000058.
19. Wacholder, A., Parikh, S. B., Coelho, N. C., Acar, O., Houghton, C., Chou, L., & Carvunis, A. (2023). A vast evolutionarily transient translatome contributes to phenotype and fitness. Cell Systems, 14(5), 363-381.e8. https://doi.org/10.1016/j.cels.2023.04.002.
20. Claeys, J., Romanov, M. N., & Griffin, D. K. (2023). Integrative comparative analysis of avian chromosome evolution by in-silico mapping of the gene ontology of homologous synteny blocks and evolutionary breakpoint regions. Genetica, 151(3), 167-178. https://doi.org/10.1007/s10709-023-00185-x. 21. Koonin, E. V., & Wolf, Y. I. (2008). Genomics of bacteria and archaea: the emerging dynamic view of the prokaryotic world. Nucleic Acids Research, 36(21), 6688-6719. https://doi.org/10.1093/nar/gkn668.
22. Carroll, S. B. (2008). Evo-Devo and an Expanding Evolutionary Synthesis: A Genetic Theory of Morphological Evolution. Cell, 134(1), 25-36. https://doi.org/10.1016/j.cell.2008.06.030.
23. Laland, K., Matthews, B., & Feldman, M. W. (2016). An introduction to niche construction theory. Evolutionary Ecology, 30(2), 191-202. https://doi.org/10.1007/s10682-016-9821-z.
24. Odling-Smee, FJ., Laland, K. N., & Feldman, MW. (2003). Niche construction: the neglected process in evolution. (Monographs in population biology; No. 37). Princeton University Press.
25. Laland, K. N. et al. (2015). The extended evolutionary synthesis: its structure, assumptions and predictions. Proceedings - Royal Society. Biological Sciences/Proceedings - Royal Society. Biological Sciences, 282(1813), 20151019. https://doi.org/10.1098/rspb.2015.1019, pp. 4, 5 (Table 2) y 6.
Bases de datos y herramientas de taxonomía
- OneZoom Tree of Life Explorer: https://www.onezoom.org/
- Tree of Life History - Wikipedia: https://en.wikipedia.org/wiki/Tree_of_life_(biology)
→ El árbol de la vida según Darwin, única ilustración en El origen de las especies (1859).- Times of divergence in the tree of life: https://timetree.org/
- Taxonomy Browser (NIH): https://www.ncbi.nlm.nih.gov/taxonomy
- Integrated Taxonomic Information System: https://www.itis.gov/
- Open Tree of Life: https://opentreeoflife.github.io/
A current view of the tree of life (the total diversity represented by sequenced genomes):
- Hug et al. (2016). A new view of the tree of life. Nat Microbiol 1, 16048. https://doi.org/10.1038/nmicrobiol.2016.48.
Filogenómica de los lagartos Liolaemus sudamericanos
Árboles filogenéticos calibrados en el tiempo basados en ADNn (izquierda) y ADNmt (derecha).
- Esquerré et al. (2021). Rapid Radiation and Rampant Reticulation: Phylogenomics of South AmericanLiolaemusLizards. Systematic Biology, 71(2), 286-300. https://doi.org/10.1093/sysbio/syab058.
La genética de poblaciones es la disciplina que estudia la variación genética en las poblaciones y cómo esta variación cambia a lo largo del tiempo debido a procesos evolutivos como la selección natural, la deriva genética, la mutación, la recombinación genética y la migración o flujo genético. Su consolidación disciplinar se produjo a principios del siglo XX con los trabajos pioneros de Fisher, Wright y Haldane, y ha sido fundamental para la integración de la genética mendeliana y la teoría de la evolución por selección natural.1, 2
La genética de poblaciones utiliza modelos matemáticos para estudiar cómo las frecuencias alélicas y genotípicas cambian en las poblaciones bajo diferentes escenarios evolutivos. Uno de los modelos más importantes es el equilibrio de Hardy-Weinberg, que describe las condiciones bajo las cuales las frecuencias alélicas y genotípicas se mantienen constantes en una población —mientras no actúe la selección natural ni se produzcan mutaciones—. Desviaciones del equilibrio de Hardy-Weinberg pueden indicar la acción de procesos evolutivos como la selección natural o la deriva genética.3, 4
Los estudios de genética de poblaciones han proporcionado evidencia empírica de la evolución en acción, con ejemplos bien estudiados como la resistencia a antibióticos en bacterias y la resistencia a insecticidas en poblaciones de insectos. En ambos casos se ha demostrado que la selección natural puede conducir a cambios rápidos en las frecuencias alélicas en respuesta a presiones ambientales, lo que permite diseñar intervenciones darwinianas para domesticar patógenos con herramientas validadas de la ecología evolutiva.5, 6, 7
El desarrollo de la genética de poblaciones tiene implicaciones de gran calado en salud pública, como señala Stephen Palumbi (2001). Ha proporcionado una comprensión más profunda de cómo la actividad humana y ciertas tecnologías pueden alterar la ecología global, con impacto en las trayectorias evolutivas de numerosas especies de interés comercial —por lo general, acelerando drásticamente el cambio evolutivo y facilitando la propagación de plagas y enfermedades—. Cambios de este tipo se han podido constatar en la resistencia a los antibióticos; en cómo evoluciona el virus de inmunodeficiencia humana (VIH) en respuesta a nuevos medicamentos; en la resistencia de las plantas y los insectos a los pesticidas de nueva generación; en la adaptación rápida de las especies invasoras y en los cambios en el ciclo vital de las pesquerías comerciales.8
Esta evolución acelerada —y el esfuerzo para contrarrestar sus efectos con los desarrollos necesarios en biotecnología— tiene un alto coste para los países desarrollados (en Estados Unidos puede rozar los 50.000 millones de dólares/año). Por otra parte, ha hecho posible múltiples casos de ralentización o control exitoso de enfermedades y plagas en diversos sistemas ecológicos y económicos, mostrando que la aplicación de principios evolutivos puede mitigar el impacto de la humanidad en la pérdida de biodiversidad y en la evolución de muchas especies.9
El desarrollo de técnicas para secuenciar y comparar secuencias de ácidos nucleicos y aminoácidos ha dado origen a una nueva disciplina, la evolución molecular. Se ocupa de estudiar la evolución de las especies actuales en el nivel de las moléculas de ADN, ARN y proteínas, con respecto a sus ancestros. Tiene su base en el descubrimiento de que las moléculas de ADN y proteínas acumulan cambios a lo largo del tiempo, y que estos cambios pueden utilizarse para reconstruir la historia evolutiva de los organismos. Entre otros métodos, la filogenia molecular aplica la máxima parsimonia —se busca el árbol filogenético que requiere el menor número de cambios evolutivos para explicar los datos observados—, la máxima verosimilitud —calcula la probabilidad de cada árbol posible y selecciona el que maximiza la probabilidad de los datos— y la inferencia bayesiana —utiliza la teoría de probabilidad bayesiana para encontrar el árbol más probable, en función de los datos moleculares y un modelo evolutivo previo—.10, 11
Los tres son ampliamente utilizados porque permiten el análisis directo de secuencias moleculares, pueden incorporar varios modelos sofisticados de evolución molecular, y son aplicables a una amplia gama de escalas evolutivas, desde relaciones entre especies estrechamente relacionadas hasta relaciones profundas entre grandes grupos taxonómicos. En conjunto, proporcionan un marco estadístico para evaluar la confianza en las relaciones filogenéticas inferidas, y se recurre a uno u otro según sea el tamaño del conjunto de datos, el tiempo o recursos computacionales disponible y los modelos, algoritmos o suposiciones pertinentes sobre el proceso evolutivo. A menudo, los investigadores utilizan múltiples métodos y comparan los resultados para obtener una imagen más robusta de las relaciones filogenéticas, con implementaciones específicas en disintos paquetes de software.12, 11, 13
La idea bien establecida de que las mutaciones se acumulan a una tasa relativamente constante a lo largo del tiempo puede aplicarse para estimar los tiempos de divergencia entre especies —se conoce como reloj molecular—. Junto con el análisis de coalescencia, este enfoque permite modelar la historia genealógica de un conjunto de secuencias, retrocediendo en el tiempo hasta su ancestro común más reciente. A medida que se dispone de más datos de genomas completos o grandes conjuntos de genes, es posible reconstruir filogenias, consolidando el campo de la filogenómica como una discplina emergente de gran utilidad para obtener supermatrices (con datos combinados de múltiples genes) y superárboles (combinando árboles filogenéticos de diferentes genes). Con estos métodos pueden identificarse genes o regiones genómicas bajo selección positiva o negativa, comparar la variación dentro y entre especies y analizar redes filogenéticas que pueden representar relaciones evolutivas complejas (p. ej., casos de transferencia horizontal de genes que no se ajustan a una estructura de árbol simple).14, 15
El estudio de la evolución molecular ha revelado que la mayoría de las mutaciones a nivel molecular son neutras y no tienen un impacto significativo en la aptitud de los organismos. Motoo Kimura propuso a finales de los 60 la teoría neutralista de la evolución molecular, según la cual gran parte de la variación genética dentro y entre especies es resultado no de la selección natural, sino de la deriva genética actuando sobre mutaciones neutrales. Interpretada inicialmente como contraria a la teoría de Darwin por selección natural, Kimura tuvo que aclarar que las dos teorías son compatibles, aunque la interpretación neutralista enfatice más el papel de la deriva genética.16
Kimura sostiene que si la mayoría de las sustituciones de nucleótidos debían ser el resultado de la fijación al azar de mutantes neutros, y muchos de los polimorfismos proteínicos debían ser selectivamente neutros o casi neutros, su persistencia en la población se debería al equilibrio existente entre la aportación de polimorfismo por mutación y su eliminación al azar. La mayoría de las mutaciones no perjudiciales son selectivamente neutras (no aportan ventaja selectiva sobre las secuencias a las que sustituyen). Esto implica que, en el nivel molecular, la mayoría de los cambios evolutivos se deben a la deriva genética, que aparece como principal fuerza de cambio de las frecuencias alélicas. Desde la teoría sintética no resulta problemático asumir que si la función de un gen o proteína es la misma en diferentes linajes evolutivos, evolucionará también al mismo ritmo (porque estará sometida a las mismas restricciones). Pero en grandes lapsos de tiempo la impresión de una constancia podría ser solo aparente, dado que en esos intervalos amplios de evolución molecular unas fluctuaciones se compensan con otras.15, 16, 17
Con posterioridad a las contribuciones de Kimura se acepta que muchas mutaciones no son completamente neutras, sino ligeramente deletéreas o beneficiosas, lo que influye en su fijación. Esto se conoce como teoría casi neutral de la evolución molecular (nearly neutral theory of molecular evolution), propuesta por Tomoko Ohta en 1973. Los evolucionistas moleculares descubrieron que las tasas de evolución de las proteínas eran bastante independientes del tiempo generacional, cuando deberían ser mucho más lentas en los organismos más grandes, que tienen intervalos generacionales mucho mayores. En poblaciones grandes con tiempos de generación cortos, el ADN no codificante evoluciona más rápido, mientras que la evolución de las proteínas se retrasa por efecto de la selección natural, más significativo para poblaciones grandes que el de la deriva genética. Por lo tanto, la tendencia en los estudios recientes apunta a reforzar la idea de que la selección natural actúa también a nivel molecular, y en mayor medida de lo que se pensaba inicialmente, aunque se admita que la deriva genética sigue siendo una fuerza importante.18, 19, 20
La paleontología es un dominio científico interdisciplinar centrado en el estudio de los fósiles y de las condiciones para el desarrollo de la vida en el pasado geológico. Proporciona evidencia directa de la evolución a lo largo de la historia de la vida en la Tierra, puesto que los fósiles documentan cambios en la morfología y la diversidad de los organismos a lo largo del tiempo geológico, y proporcionan información sobre extinción, radiación adaptativa y transiciones evolutivas, esenciales para comprender los procesos y condiciones ambientales que han moldeado la vida en la Tierra.21
Sus herramientas de trabajo se han ido ampliando para incluir metodologías que permiten determinar la edad relativa de los fósiles (estratigrafía), realizar análisis no invasivo de fósiles (tomografía computarizada, fotogrametría, escaneo 3D), llevar a cabo distintos tipos de datación (radiométrica con carbono-14 o potasio-argón; por luminiscencia) o analizar isótopos estables para estudios paleoambientales (espectroscopía).22
Entre los ejemplos clásicos de evidencia paleontológica de la evolución cabe mencionar la serie de fósiles que documenta la evolución de los caballos modernos, a partir de pequeños mamíferos con múltiples dedos que vivieron hace unos 55 millones de años, y la radiación adaptativa de los mamíferos después de la extinción de los dinosaurios no aviares al final del Cretácico (hace unos 66 millones de años).23, 24, 25
Con datos de la paleofauna, las contribuciones de John Alroy confirman que hubo menos especies de mamíferos durante el Cretácico reciente que durante cualquier intervalo del Cenozoico, y que se produjo una diversificación masiva durante el Paleoceno temprano, inmediatamente después de una extinción masiva (1999: 114-117). A partir de diversos puntos de calibración (desde 98 hasta 0.1 millones de años) y con datos de medición se puede establecer una secuencia calibrada de eventos y deducir, p. ej., que los mamíferos del Cretácico eran, en promedio, pequeños y ocupaban un rango estrecho de tamaños corporales; después de la extinción masiva del Cretácico-Terciario, se produjo un cambio rápido y permanente en la media.25
Entre otras implicaciones, el extraordinario estallido de especiación y evolución morfológica a principios del Paleoceno podría estar correlacionado con una selección intensa a nivel molecular, acelerando de manera simultánea el reloj molecular en la mayoría de los linajes del Paleoceno temprano (lo que podría explicar las discrepancias aparentes entre los datos moleculares y paleontológicos, aunque Alroy las considera biológicamente intrascendentes). No obstante, la interpretación de los registros fósiles ha sido objeto de intensos debates en biología evolutiva.
En particular, por las discrepancias acerca del ritmo y el modo de la evolución, en función de la importancia relativa que se otorgue a la microevolución y la macroevolución y las poblaciones o especies de referencia, algunas de las cuales se ajustan mejor al gradualismo filético y otras a la teoría del equilibrio puntuado. Esta última fue propuesta por Niles Eldredge y Stephen Jay Gould, quienes cuestionaron la idea de evolución como un cambio gradual y continuo y sostenían —basándose en datos del registro fósil— que la evolución parece ajustarse mejor a un patrón de brotes rápidos de cambio (es decir, eventos poco frecuentes y geológicamente rápidos de especiación ramificada, denominados cladogénesis), intercalados con largos períodos de cambio morfológico mínimo o nulo (estasis).26
La biología del desarrollo estudia los procesos a través de los cuales los organismos crecen y se desarrollan desde la fecundación hasta la forma adulta. Entre otros aspectos, se ocupa de investigar los factores genéticos que controlan el crecimiento celular, la diferenciación celular y el origen de los tejidos, órganos y estructuras anatómicas (morfogénesis). En las últimas décadas se ha reforzado el interés por la biología del desarrollo para mejorar la comprensión de la dinámica evolutiva, ya que las técnicas de microscopía avanzada y otras herramientas de trabajo comunes en esta disciplina —análisis genético y molecular, cultivo de células y tejidos, diseño de animales transgénicos como organismos modelo, entre otras— son útiles para comprobar cómo ciertos cambios en los procesos de desarrollo pueden generar variaciones morfológicas sobre las que actúa la selección natural. El trabajo en este campo ha sido clave para articular una visión más completa y sofisticada de cómo evolucionan las estructuras biológicas.27, 28
El enfoque o perspectiva Evo-Devo —combinando aportaciones de la Biología Evolutiva y de la Biología del Desarrollo— estudia cómo los cambios en la regulación del desarrollo embrionario pueden conducir a innovaciones evolutivas y a la diversificación morfológica. Uno de sus resultados más interesantes atañe al papel que desempeñan muchos de los genes y procesos involucrados en el desarrollo embrionario, altamente conservados entre taxones distantes y ligados a funciones biológicas esenciales (pequeños cambios en estos genes reguladores pueden tener efectos profundos en la morfología de los organismos, en la funcionalidad de proteínas esenciales y en otras redes reguladoras).27
El resultado más impactante del enfoque evo-devo ha sido, probablemente, el descubrimiento de cómo los genes Hox controlan la identidad de los segmentos a lo largo del eje antero-posterior de los animales, por lo que desempeñan un papel crucial en la diversificación/evolución de los diseños corporales. Los factores de transcripción expresados por el conjunto de genes Hox (un subconjunto de la familia de genes homeobox, los cuales codifican proteínas que actúan como factores de transcripción de otros genes que dirigen el desarrollo de los distintos segmentos corporales e indican qué clase de estructuras deben desarrollar) se encargan de regular la morfogénesis y la diferenciación celular durante el desarrollo embrionario temprano. Si bien a medida que el desarrollo va progresando el patrón de expresión puede estar sujeto a otros ajustes, en cada célula el complejo Hox actúa como un sello o marca de registro permanente de la posición anteroposterior que ocupa la célula en el embrión. De esta forma, las células de cada región o segmento están equipadas con un valor posicional a lo largo del eje anteroposterior del cuerpo.28, 32
Las alteraciones en su expresión producen mutaciones homeóticas, que transforman partes del cuerpo en estructuras típicas de otras posiciones. Su patrón de expresión secuencial es extremadamente regular, y la secuencia en la que están ordenados los genes en el (los) cromosoma(s) corresponde casi exactamente al orden en el que se expresan a lo largo del eje anteroposterior del cuerpo. La explicación verosímil sugiere que los genes se activan en serie por algún proceso que es gradual (en duración o intensidad) a lo largo del eje del cuerpo, y cuya acción se extiende gradualmente a lo largo de los cromosomas.33 Generalmente, la expresión del gen situado más “posteriormente” tiende a ser dominante, inhibiendo la expresión de los genes “anteriores” activados previamente.34, 35
Los genomas de ratones y de seres humanos tienen en común genes homeóticos (homeobox) casi idénticos (se conocen unos 39 en humanos). El conocimiento de estos sistemas es importante, puesto que se trata de reguladores maestros del desarrollo que siguen expresándose a lo largo de la edad adulta en diversos tejidos y órganos. Determinadas variantes están asociadas con diversas enfermedades y efectos en la salud, lo que explica que el potencial de las líneas de investigación centradas en desentrañar las funciones fisiológicas y fisiopatológicas de esta red de genes.36, 37, 38
Las mutaciones en los genes HOXA13 y HOXD13, por ejemplo, están asociadas con trastornos de la formación de las extremidades, como el síndrome mano-pie-genital (HFGS), la sinpolidactilia (SPD) y la braquidactilia. Pero se ha comprobado que también los progenitores hematopoyéticos expresan genes HOX en un patrón característico del linaje y la etapa de diferenciación de las células, por lo que un mejor conocimiento de la expresión del gen HOX en la leucemia proporciona información importante para la clasificación de la enfermedad y la predicción del resultado clínico. El potencial oncogénico de ciertos genes HOX en la leucemia ha abierto la puerta a su estudio en otras neoplasias; pero se trata de un proyecto complejo, dada la redundancia funcional implícita en el sistema del gen HOX .39, 41
Nicole Washington et al. (2009) muestran la complejidad que introduce el hecho de que (1) cada organismo modelo tiene su propio vocabulario para describir las consecuencias fenotípicas de la mutación; y (2) estos vocabularios suelen estar vinculados a las anatomías o fisiologías particulares de de cada organismo. No obstante, con métodos computacionales se ha podido confirmar el nexo entre mutaciones PAX6 que resultan en ratones con “ojos pequeños”, “córnea opaca” en humanos, una “retina malformada” en el pez cebra y "ausencia de ojos" en Drosophila (véase infografía).40
Otro aspecto interesante —y paradójico, de entrada— concierne a la dificultad para explicar cómo especies que tienen genes sustancialmente similares (humanos y chimpancés, p. ej.) pueden diferir tanto en su anatomía. La investigación en este campo, y el estudio de casos como las mutaciones de PAX6, refuerzan la idea de que la evolución de la anatomía se produjo más por cambios en la regulación genética que por cambios en las secuencias de proteínas.30, 31, 40, 42, 43
El estudio de la evolución humana aglutina diversos campos de investigación interdisciplinar, con herramientas específicas para reconstruir la historia evolutiva de los homínidos. Combina métodos y conocimientos de la antropología, la arqueología, la paleontología, la genética y la biología molecular, entre otras disciplinas. Un objetivo central en este campo consiste en entender cómo los cambios biológicos y las adaptaciones a las condiciones del medio natural han influido en la anatomía, cultura y ecología de los seres humanos, desde sus ancestros primates hasta los parientes extintos y poblaciones que integran la especie humana (Homo sapiens) en la actualidad.44
Entre las áreas de estudio involucradas, la Antropología física se centra en la comparación de restos óseos y fósiles para estudiar los cambios anatómicos en la línea evolutiva humana, investigando aspectos como la locomoción bípeda, la evolución del cráneo y el cerebro, y las adaptaciones dentales; la Arqueología analiza los artefactos y herramientas fabricadas por los primeros humanos para comprender su comportamiento, cultura y modo de vida; la Paleontología estudia los fósiles de homínidos y otros primates para reconstruir el contexto evolutivo y ambiental de los ancestros humanos; y la Genética emplea datos o muestras de ADN antiguo y moderno para trazar las relaciones evolutivas entre los humanos y sus ancestros, con la finalidad de estudiar la variabilidad genética y las migraciones de poblaciones.45
La complejidad inherente a los intentos de realizar inferencias sobre el comportamiento de los grupos humanos en el pasado a partir de restos óseos supone un desafío por la variabilidad posible en las relaciones entre estructura y función entre humanos, simios y probablemente en toda la cadena de homínidos. La biomecánica evolutiva figura entre las metodologías interdisciplinares que aportan enfoques teóricos, comparativos, experimentales y de modelado para caracterizar la variabilidad en la relación entre la forma y la función de los huesos, entre estos y los tejidos blandos, y entre los individuos con ciertas características en la función locomotora y el medio ambiente, con implicaciones para comprender ciertos componentes de la cultura asociada, las condiciones de salud, alimentación y capacidad de resistencia o riesgo de lesiones. Las aportaciones potenciales de esta línea de investigación al conocimiento de la evolución humana son de extraordinario interés, si se considera la biomecánica como una rama de la biofísica, que dispone de técnicas y metodologías estandarizadas para estudiar aspectos de la química y procesos de transferencia de calor y masa, entre otros.45, 46, 47
Los estudios paleoantropológicos han revelado que el linaje humano se originó en África hace unos 6-7 millones de años, y que múltiples especies de homínidos coexistieron y evolucionaron durante gran parte de la historia evolutiva del Homo sapiens. Los descubrimientos de fósiles como los australopitecos, Homo habilis, Homo erectus y los neandertales han proporcionado información sobre la evolución de la anatomía, la dieta, la locomoción y el comportamiento de nuestros antepasados. Pero el conocimiento asociado está plagado de lagunas. Ha sido necesario recurrir a técnicas y metodologías de análisis genético para comparar el ADN de homínidos extintos como los neandertales y los denisovanos con el ADN de H. sapiens, para avanzar en la comprensión del curso seguido por los procesos de hibridación y flujo genético entre diferentes poblaciones humanas.48, 49, 50
La necesidad de utilizar metodologías interdisciplinares en este campo resulta evidente, una vez comprobadas las discrepancias entre el análisis genético y los estudios paleoantropológicos sobre restos de H. sapiens en el registro fósil, pertenecientes a especímenes que comparten un número significativo de rasgos derivados en su esqueleto con el H. sapiens actual (Omo Kibish 1, Herto 1 and 2, entre otros fósiles). Las características observadas en tales muestras indican que el origen de nuestra especie se situaría en el Pleistoceno medio tardío africano.48
Sin embargo, los datos genéticos indican que H. sapiens actual y su especie hermana Homo neanderthalensis comparten un último ancestro común en el Pleistoceno medio (hace aproximadamente entre 400 y 700 mil años, es decir, al menos 200.000 años antes que el origen de la especie inferido de los fósiles mencionados). La hipótesis que barajan autores como Chris Stringer (2016: 1) apunta la probabilidad de que el registro fósil africano documente miembros tempranos del linaje sapiens, los cuales muestran solo algunas de las características derivadas de los miembros tardíos del linaje. A efectos metodológicos, resulta clave determinar qué segmento de la especie H. sapiens se va a tomar como referencia (lo que involucra otros supuestos sobre origen multirregional y dispersión). Ciertas colecciones de fósiles humanos (Jebel Irhoud, Florisbad, Eliye Springs y Omo Kibish 2, etc.) representan miembros tempranos de la especie; pero la variación entre los fósiles africanos del Pleistoceno medio tardío/Edad de Piedra Media temprana muestra que no hubo una progresión lineal simple hacia la morfología sapiens posterior, y lo razonable sería asumir la superposición cronológica entre diferentes morfos "arcaicos" y "modernos".48 Otro indicio de la complejidad de la evolución humana reciente lo aportan especímenes de H. sapiens que se sitúan fuera del rango de los miembros del Holoceno de la especie, incluso en el Pleistoceno tardío —dentro y fuera de África—, lo que obliga a seguir la pista del flujo genético del Pleistoceno tardío entre los linajes de humanos modernos, neandertales y denisovanos, combinando datos morfológicos y genéticos recientes (véanse al respecto las ilustraciones que aporta Stringer [2016: 3, 7] de: [1] cráneos de Homo sapiens arcaicos y modernos tempranos de África e Israel; y [2] representación de H. sapiens, denisovanos y H. neanderthalensis como taxones terminales y con un hipotético y más antiguo 'Ancestro X' que reemplaza a heidelbergensis como último ancestro común (LCA), e indicaciones del flujo genético entre linajes del Pleistoceno tardío).48
Cualquier taxonomía a nivel de especie basada exclusivamente en material fósil proporciona solo una aproximación a la complejidad del mundo real, y puede introducir una impresión aparente de continuidad entre linajes evolutivos que mantienen cierta identidad a través de períodos significativos de tiempo. Por contraste, el concepto de especie biológica no funciona bien para muchas especies de aves y mamíferos existentes estrechamente relacionadas. El H. neanderthalensis y el H. sapiens pueden ser tratados como especies, según Chris Stringer (2019: 8-9), "con una profundidad temporal que se remonta al Pleistoceno medio", pese a pequeñas cantidades de introgresión (es decir, flujo de genes de una especie a otra a consecuencia de un proceso de hibridación interespecífica seguido de retrocruzamiento).48
La secuencia del genoma neandertal —con más de 4 mil millones de nucleótidos de tres individuos— que Green et al. publicaron en Science (2010) fue comparada con los genomas de cinco humanos actuales, de diferentes partes del mundo. Se identificaron una serie de regiones genómicas que pueden haber sido afectadas por la selección positiva en los humanos modernos ancestrales, incluidos los genes involucrados en el metabolismo y en el desarrollo cognitivo y esquelético. Los resultados sugieren que los neandertales compartían más variantes genéticas con los humanos actuales de Eurasia que con los humanos actuales del África subsahariana, por lo que el flujo genético de los neandertales a los ancestros de los no africanos ocurrió antes de la divergencia de los grupos euroasiáticos entre sí, durante el periodo en que H. sapiens y estos parientes evolutivos más cercanos de los humanos actuales vivieron en grandes áreas de Europa y Asia occidental hasta su desaparición, hace unos 30.000 años.49
Estudios más recientes, basados en las afinidades anatómicas y genéticas de neandertales hallados entre los homínidos del Pleistoceno medio de la Sima de los Huesos (España), y datados hace 430 mil años, cuestionan los tiempos estimados de divergencia entre H. sapiens y H. neanderthalensis. Utilizando modelos cuantitativos de las tasas de evolución dental y análisis bayesianos de las relaciones filogenéticas de los homínidos, Gómez-Robles (2019) deduce que cualquier tiempo de divergencia entre los neandertales y los humanos modernos anterior a 800 mil años habría implicado una evolución dental inesperadamente rápida en los primeros neandertales de la Sima de los Huesos. A menos que entraran en juego mecanismos desconocidos para acelerar la evolución dental, habría que situar el último ancestro común para los neandertales y los humanos modernos antes de los 800 mil años.50
Con respecto a los denisovanos, existe evidencia reciente de un mestizaje limitado entre los humanos modernos y los neandertales y los denisovanos, cuyo inicio se remontaría a las migraciones e interacciones durante la fase preliminar del Último Máximo Glacial (UMG), antes de que las capas de hielo alcanzaran su máxima extensión (hace unos 100.000 años). Examinando la historia de otros organismos a lo largo de los ciclos glaciares, se pueden refinar modelos de gran utilidad para la biogeografía evolutiva. Aplicando uno de esos modelos, Stewart y Stringer (2012) sugieren que la adopción de nuevos refugios climáticos por parte de un subgrupo de una especie puede conducir a importantes cambios evolutivos.51, 52
Ruan et al. (2023) han estudiado también la correlación entre cambio climático y ambiental en Eurasia y la superposición de hábitats para los neandertales y los denisovanos, coincidiendo a su vez con una despoblación de homínidos impulsada por el clima —y previamente desconocida en el sur de Europa durante el Pleistoceno temprano—. Para ello han utilizado modelos de distribución de especies que integran series muy amplias de datos fósiles, arqueológicos y genéticos con simulaciones de modelos de circulación general acoplados y transitorios del clima y los biomas globales. Su análisis retrospectivo de la idoneidad del hábitat de los homínidos del Pleistoceno revela cambios zonales acusados, de origen climático, en la principal región de solapamiento de denisovanos y neandertales en Eurasia central. Sostienen que tales cambios —es decir, las oscilaciones climáticas glaciares e interglaciares— influyeron en el momento y la intensidad de posibles eventos de mestizaje, y probablemente favorecieron el flujo genético entre humanos arcaicos.53
Otros estudios han revelado la importancia de la adaptación local y la selección natural en la evolución de las poblaciones humanas a medida que se dispersaron por todo el mundo y se adaptaron a nuevos entornos. Quilodrán et al. (2023) sostienen que la expansión de los primeros agricultores neolíticos contribuyó decisivamente a reducir la introgresión o flujo de genes neandertales en las poblaciones europeas, en comparación con las poblaciones asiáticas. Esto se debe a que los agricultores neolíticos portaban menos ADN neandertal que los cazadores-recolectores paleolíticos anteriores, lo que permite otras inferencias sobre la dinámica de las poblaciones humanas pasadas a partir de la variación espaciotemporal en los gradientes de introgresión.54
La evolución humana constituye un dominio de investigación multidisciplinar muy activo, sujeto a una sucesión interminable de resultados y descubrimientos que continuamente desafían ideas o nociones previas sobre los orígenes, ancestros comunes y relaciones entre poblaciones de homínidos. En las últimas décadas se han incorporado nuevas técnicas y metodologías de trabajo que permiten reconstruir con gran precisión aspectos relevantes del clima, las condiciones de los entornos pasados, las interacciones sociales, migraciones y patrones de comportamiento de los precursores del Homo sapiens. Aparte del estudio de los fósiles, se dispone de métodos para el análisis de artefactos, herramientas y contextos o culturas de uso, asistidos por técnicas para la datación y contextualización fiable de los hallazgos. La genética de poblaciones y la paleogenómica han hecho posible el estudio de la evolución a nivel molecular, y la corrección de muchos errores en las interpretaciones dependientes en exclusiva del registro fósil. La etología y la primatología han sido cruciales para entender diversos escenarios y dinámicas de adaptación, en combinación con datos de anatomía comparada y ecología. Pero el marco teórico general para entender los procesos evolutivos continúa siendo la biología evolutiva, en estrecha relación con la antropología cultural para el análisis y la interpretación de aspectos comportamentales y culturales de la evolución humana, en línea con la hipótesis de la selección natural multinivel.55, 56, 57, 58
1. Hartl, D. L., & Clark, A. G. (2007). Principles of Population Genetics. Sinauer Associates Incorporated.
2. Provine, W. B. (2001). The Origins of Theoretical Population Genetics: With a New Afterword. University of Chicago Press.
3. Hardy, G. H. (1908). Mendelian Proportions in a Mixed Population. Science, 28(706), 49-50. https://doi.org/10.1126/science.28.706.49.
4. Weinberg, W. (1908). Über den nachweis der vererbung beim menschen. Jahreshefte des Vereins für vaterländische Naturkunde in Württemberg, 64, 368-382. https://wellcomecollection.org/works/ek48psze.
5. Labbé, P. et al. (2007). Independent Duplications of the Acetylcholinesterase Gene Conferring Insecticide Resistance in the Mosquito Culex pipiens. Molecular Biology And Evolution, 24(4), 1056-1067. https://doi.org/10.1093/molbev/msm025.
6. Williams, P. D. (2010). Darwinian interventions: taming pathogens through evolutionary ecology. Trends In Parasitology, 26(2), 83-92. https://doi.org/10.1016/j.pt.2009.11.009.
7. Pepper, J. W. (2008). Defeating pathogen drug resistance: guidance from evolutionary theory. Evolution, 62(12), 3185-3191. https://doi.org/10.1111/j.1558-5646.2008.00525.x.
8. Castro-Nallar, E., Pérez-Losada, M., Burton, G. F., & Crandall, K. A. (2012). The evolution of HIV: Inferences using phylogenetics. Molecular Phylogenetics And Evolution, 62(2), 777-792. https://doi.org/10.1016/j.ympev.2011.11.019.
9. Palumbi, S. R. (2001). Humans as the World’s Greatest Evolutionary Force. Science, 293(5536), 1786-1790. https://doi.org/10.1126/science.293.5536.1786.
10. Graur, D., & Li, W. (2000). Fundamentals of Molecular Evolution. Sinauer Associates Incorporated. Ch. 3-5, 8.
11. Felsenstein, J. (2004). Inferring phylogenies. Sinauer Associates Incorporated. Ch. 1, 9, 7-19 y 35.
12. Bromham, L. (2019). Six Impossible Things before Breakfast: Assumptions, Models, and Belief in Molecular Dating. Trends In Ecology & Evolution, 34(5), 474-486. https://doi.org/10.1016/j.tree.2019.01.017.
13. Tamura, K., Stecher, G., & Kumar, S. (2021). MEGA11: Molecular Evolutionary Genetics Analysis Version 11. Molecular Biology And Evolution, 38(7), 3022-3027. https://doi.org/10.1093/molbev/msab120.
14. Nascimento, F. F., Reis, M. D., & Yang, Z. (2017). A biologist’s guide to Bayesian phylogenetic analysis. Nature Ecology & Evolution, 1(10), 1446-1454. https://doi.org/10.1038/s41559-017-0280-x.
15. Steel, M. (2016). Phylogeny: Discrete and Random Processes in Evolution. SIAM.
16. Kimura, M. (1983). The neutral theory of molecular evolution. Cambridge University Press.
17. Yang, Z. (2014). Molecular Evolution: A Statistical Approach. Oxford University Press.
18. Ohta, T. (2002). Near-neutrality in evolution of genes and gene regulation. Proceedings Of The National Academy Of Sciences Of The United States Of America, 99(25), 16134-16137. https://doi.org/10.1073/pnas.252626899.
19. Weinreich, D. M., & Rand, D. M. (2000). Contrasting Patterns of Nonneutral Evolution in Proteins Encoded in Nuclear and Mitochondrial Genomes. Genetics, 156(1), 385-399. https://doi.org/10.1093/genetics/156.1.385.
20. Ohta, T., & Gillespie, J. H. (1996). Development of Neutral and Nearly Neutral Theories. Theoretical Population Biology, 49(2), 128-142. https://doi.org/10.1006/tpbi.1996.0007.
21. Benton, M. J., & Harper, D. A. T. (2020). Introduction to Paleobiology and the Fossil Record. 2nd. Edit. John Wiley & Sons. Ch. 1, 3-4, 6-8.
22. Cunningham, J. A., Rahman, I. A., Lautenschlager, S., Rayfield, E. J., & Donoghue, P. C. (2014). A virtual world of paleontology. Trends In Ecology & Evolution, 29(6), 347-357. https://doi.org/10.1016/j.tree.2014.04.004.
23. MacFadden, B. J. (2005). Fossil Horses--Evidence for Evolution. Science, 307(5716), 1728-1730. https://doi.org/10.1126/science.1105458.
24. Cirilli, O. et al. (2022). Evolution of the Family Equidae, Subfamily Equinae, in North, Central and South America, Eurasia and Africa during the Plio-Pleistocene. Biology, 11(9), 1258. https://doi.org/10.3390/biology11091258.
25. Alroy, J. (1999). The Fossil Record of North American Mammals: Evidence for a Paleocene Evolutionary Radiation. Systematic Biology, 48(1), 107-118. https://doi.org/10.1080/106351599260472.
26. Eldredge, N., & Gould, S. J. (1972). Punctuated equilibria: an alternative to phyletic gradualism. In T. J. M. Schopf (Ed.), Models in paleobiology (pp. 82-115). Freeman Cooper.
27. Carroll, S. B. (2008). Evo-Devo and an Expanding Evolutionary Synthesis: A Genetic Theory of Morphological Evolution. Cell, 134(1), 25-36. https://doi.org/10.1016/j.cell.2008.06.030 (cf. pp. 26-30).
28. Carroll, S. B. (2005). Endless forms most beautiful: The New Science of Evo Devo and the Making of the Animal Kingdom. W. W. Norton & Company.
29. McGinnis, W., & Krumlauf, R. (1992). Homeobox genes and axial patterning. Cell, 68(2), 283-302. https://doi.org/10.1016/0092-8674(92)90471-n.
30. King, M., & Wilson, A. C. (1975). Evolution at Two Levels in Humans and Chimpanzees. Science, 188(4184), 107-116. https://doi.org/10.1126/science.1090005.
31. Britten, R. J., & Davidson, E. H. (1971). Repetitive and Non-Repetitive DNA Sequences and a Speculation on the Origins of Evolutionary Novelty. The Quarterly Review Of Biology/The Quarterly Review Of Biology, 46(2), 111-138. https://doi.org/10.1086/406830.
32. Gehring, W. J. (1992). The homeobox in perspective. Trends In Biochemical Sciences, 17(8), 277-280. https://doi.org/10.1016/0968-0004(92)90434-b.
33. Entrada "Genes Hox" (Wikipedia, 2024). https://es.wikipedia.org/wiki/Genes_Hox.
34. Liang, D., Wu, R., Geng, J., Wang, C., & Zhang, P. (2011). A general scenario of Hoxgene inventory variation among major sarcopterygian lineages. BMC Evolutionary Biology, 11(1). https://doi.org/10.1186/1471-2148-11-25.
35. Terry, M. (31 mar 2020). Homeotic Genes. https://youtu.be/VcuFzkAeZ7Q.
36. Quinonez, S. C., & Innis, J. W. (2014). Human HOX gene disorders. Molecular Genetics And Metabolism, 111(1), 4-15. https://doi.org/10.1016/j.ymgme.2013.10.012.
37. Bhatlekar, S., Fields, J. Z., & Boman, B. M. (2014). HOX genes and their role in the development of human cancers. Journal Of Molecular Medicine, 92(8), 811-823. https://doi.org/10.1007/s00109-014-1181-y.
38. Roux, M., & Zaffran, S. (2016). Hox Genes in Cardiovascular Development and Diseases. Journal Of Developmental Biology, 4(2), 14. https://doi.org/10.3390/jdb4020014.
39. Grier, D., Thompson, A., Kwasniewska, A., McGonigle, G., Halliday, H., & Lappin, T. (2005). The pathophysiology of HOX genes and their role in cancer. Journal Of Pathology, 205(2), 154-171. https://doi.org/10.1002/path.1710 (infografías en pp. 155-156).
40. Washington, N. L. et al. (2009). Linking Human Diseases to Animal Models Using Ontology-Based Phenotype Annotation. PLoS Biology, 7(11), e1000247. https://doi.org/10.1371/journal.pbio.1000247.
41. Seifert, A. et al. (2015). Role of Hox genes in stem cell differentiation. World Journal Of Stem Cells, 7(3): 583–595. https://doi.org/10.4252/wjsc.v7.i3.583.
42. Lambert, B. et al. (2012). Protein interactions of the transcription factor Hoxa1. BMC Developmental Biology, 12(1). https://doi.org/10.1186/1471-213x-12-29.
43. Lemons, D., & McGinnis, W. (2006). Genomic Evolution of Hox Gene Clusters. Science, 313(5795), 1918-1922. https://doi.org/10.1126/science.1132040.
44. Wood, B. (2019). Human evolution: A very short introduction. 2nd. Ed. Oxford University Press.
45. Murray, A. A. (2022). Variability and the form–function framework in evolutionary biomechanics and human locomotion. Evolutionary Human Sciences, 4. https://doi.org/10.1017/ehs.2022.28.
46. Temenoff, J. S., & Mikos, A. G. (2008). Biomaterials: The Intersection of Biology and Materials Science. Pearson Prentice Hall.
47. Fung, Y. (1993). Biomechanics. New York: Springer-Verlag. https://doi.org/10.1007/978-1-4757-2257-4.
48. Stringer, C. (2016). The origin and evolution of Homo sapiens. Philosophical Transactions - Royal Society. Biological Sciences, 371(1698), 20150237. https://doi.org/10.1098/rstb.2015.0237.
49. Green, R. E. et al. (2010). A Draft Sequence of the Neandertal Genome. Science, 328(5979), 710-722. https://doi.org/10.1126/science.1188021.
50. Gómez-Robles, A. (2019). Dental evolutionary rates and its implications for the Neanderthal–modern human divergence. Science Advances, 5(5). https://doi.org/10.1126/sciadv.aaw1268.
51. Stewart, J. R., & Stringer, C. B. (2012). Human Evolution Out of Africa: The Role of Refugia and Climate Change. Science, 335(6074), 1317-1321. https://doi.org/10.1126/science.1215627
52. Reich, D., Green, R., Kircher, M. et al. Genetic history of an archaic hominin group from Denisova Cave in Siberia. Nature 468, 1053–1060 (2010). https://doi.org/10.1038/nature09710.
53. Ruan, J., Timmermann, A., Raia, P., Yun, K., Zeller, E., Mondanaro, A., Di Febbraro, M., Lemmon, D., Castiglione, S., & Melchionna, M. (2023). Climate shifts orchestrated hominin interbreeding events across Eurasia. Science, 381(6658), 699-704. https://doi.org/10.1126/science.add4459.
54. Quilodrán, C. S., Rio, J., Tsoupas, A., & Currat, M. (2023). Past human expansions shaped the spatial pattern of Neanderthal ancestry. Science Advances, 9(42). https://doi.org/10.1126/sciadv.adg9817.
55. Axelrod, R., & Hamilton, W. D. (1981). The Evolution of Cooperation. Science, 211(4489), 1390-1396. https://doi.org/10.1126/science.7466396.
56. Campobello, D., Hare, J. F., & Sarà, M. (2015). Social phenotype extended to communities: Expanded multilevel social selection analysis reveals fitness consequences of interspecific interactions. Evolution, 69(4), 916-925. https://doi.org/10.1111/evo.12629.
57. Gardner, A. (2015). The genetical theory of multilevel selection. Journal Of Evolutionary Biology, 28(2), 305-319. https://doi.org/10.1111/jeb.12566.
58. Goodnight, C. J. (2015). Multilevel selection theory and evidence: a critique of Gardner, 2015. Journal Of Evolutionary Biology, 28(9), 1734-1746. https://doi.org/10.1111/jeb.12685.
Vídeos
- Terry, M. (31 mar 2020). Homeotic Genes. https://youtu.be/VcuFzkAeZ7Q
- Patel, N. (18 sept 2018). Patterning the Anterior-Posterior Axis: The Role of Homeotic (Hox) Genes. https://youtu.be/QnNVzV5yDH8
Infografías
1. Fisiopatología de los genes HOX
(A) Transformaciones homeóticas en Drosophila. En la mutación Antennapedia, las antenas se transforman en patas, mientras que en la mutación Bithorax, el halterio se transforma en parte de un ala. (B) Conservación de las familias de genes HOM-C y HOX. La secuencia se conserva a nivel de nucleótidos y cromosomas. En los seres humanos, los cuatro grupos de genes HOX, que parecen haber surgido por duplicación y divergencia, también se conservan en términos de su expresión colineal, de modo que los genes 3′ se expresan más anteriormente que los genes 5′. Durante el desarrollo embrionario, los genes se expresan en un patrón que se correlaciona con la expresión espacial de los genes, y los genes 3′ se expresan antes que los genes 5′.
(A) Los genes HOX constan de dos exones y un intrón. El exón 2 contiene un homeobox de 183 nucleótidos que codifica un motivo de hélice-giro-hélice de 61 aminoácidos, el homeodominio, que se une al ADN. Las proteínas TALE PBX y MEIS se unen a secuencias cortas de aminoácidos que flanquean el homeodominio. (B) Los genes LIM, MSX, PAX y SIX son ejemplos de genes homeobox no agrupados (no HOX) que codifican dominios conservados adicionales. (C) Las mutaciones en HOXA13 y HOXD13 están asociadas con trastornos de la formación de las extremidades, como el síndrome mano-pie-genital (HFGS), la sinpolidactilia (SPD) y la braquidactilia.
- Grier et al. (2005). The pathophysiology of HOX genes and their role in cancer. Journal Of Pathology, 205(2), 154-171. https://doi.org/10.1002/path.1710, pp. 155-156.
2. Fenotipos asociados con mutaciones en Pax6
Fenotipos de las mutaciones de tipo salvaje (arriba) y de las mutaciones ortólogas de PAX6 (abajo) en humanos, ratones, peces cebra y moscas. Las mutaciones humanas pueden provocar aniridia (ausencia de iris), opacidad corneal (queratopatía relacionada con aniridia), cataratas (opacidad del cristalino), glaucoma y degeneración retiniana a largo plazo. Los ratones mutantes presentan microftalmia extrema con opacidad corneal/cristalino y anomalía del iris, y hay un gran tapón de células epiteliales persistentes que permanece adherido entre la córnea y el cristalino. En el caso del pez cebra, los mutantes expresan un fenotipo variable y modificable que consiste en una disminución del tamaño de los ojos, una reducción del tamaño del cristalino y una malformación de la retina.
- Washington et al. (2009). Linking Human Diseases to Animal Models Using Ontology-Based Phenotype Annotation. PLoS Biology, 7(11), e1000247. https://doi.org/10.1371/journal.pbio.1000247 (p. 2).
La biología se ha consolidado como disciplina científica gracias a la integración de múltiples contribuciones especializadas que lograron sortear desafíos teóricos y metodológicos formidables. Su complejidad y peculiaridades epistemológicas la distinguen de otras ciencias naturales —especialmente de la física, que ha sido tradicionalmente el modelo paradigmático de la ciencia—, por lo que su desarrollo histórico sirve de excelente campo de prácticas para entender cómo han evolucionado los criterios de demarcación en la teoría del conocimiento contemporánea.
Los problemas resueltos en biología y el progreso constatado en los desafíos teórico-conceptuales más relevantes tienen implicaciones de calado para una comprensión actualizada de la naturaleza del conocimiento científico. Ilustran la complejidad inherente al empleo de métodos complementarios de investigación y permiten rastrear los fundamentos filosóficos de la ciencia en general. Los ejemplos y casos de estudio comentados en los apartados anteriores sirven de base para explorar otros aspectos de interés epistémico:
Naturaleza de las explicaciones biológicas: La biología se caracteriza por el uso frecuente de explicaciones teleológicas y funcionales, que parecen invocar propósitos o fines en sistemas naturales. Esto plantea la cuestión de cómo reconciliar tales explicaciones con una visión mecanicista y causal del mundo natural. El debate sobre la naturaleza de las funciones biológicas y la posibilidad de naturalizar el discurso teleológico es central en la filosofía de la biología. La propuesta de entender las funciones en términos de historia selectiva (enfoque etiológico) o de contribución actual a la aptitud (enfoque disposicional) ejemplifica algunos intentos de mantener el poder explicativo de las atribuciones funcionales dentro de un marco naturalista.1, 2, 3
Estatus de las leyes en biología: A diferencia de la física, la biología parece carecer de leyes universales y necesarias. Esto ha llevado a cuestionar si la biología es una ciencia "madura" en el sentido kuhniano, o si requiere un modelo diferente de explicación científica. La tesis de la contingencia evolutiva sugiere que los fenómenos biológicos son demasiado dependientes de accidentes históricos como para ser capturados por leyes generales. Sin embargo, algunos filósofos argumentan que existen regularidades biológicas que, aunque no sean universales en el sentido estricto, cumplen roles explicativos y predictivos similares a las leyes en otras ciencias.4
Reduccionismo y emergencia: El debate sobre el reduccionismo en biología tiene implicaciones profundas para comprender la relación entre diferentes niveles de organización en la naturaleza. La cuestión de si los fenómenos biológicos pueden ser completamente explicados en términos físico-químicos o si existen propiedades emergentes irreductibles es central en la filosofía de la biología. Este debate se extiende a la relación entre diferentes subdisciplinas biológicas, como la genética mendeliana y la molecular.5, 15
Realismo y convencionalismo: La discusión sobre el estatus ontológico de entidades biológicas como las especies plantea cuestiones fundamentales sobre el realismo científico. ¿Son las categorías taxonómicas descubrimientos sobre la estructura real de la naturaleza o artificios intelectuales útiles pero arbitrarios? Considerar las especies como clases naturales o como individuos históricos abre un debate complejo, que refleja tensiones más amplias en la filosofía de la ciencia entre perspectivas esencialistas e historicistas.6, 12
Causalidad y explicación: La biología evolutiva, en particular, desafía las nociones tradicionales de causalidad. La selección natural, como mecanismo explicativo central, opera a través de efectos estadísticos a largo plazo, lo que ha llevado a debates sobre su estatus causal y su poder explicativo. La distinción entre "selección de" y "selección por" ilustra la complejidad de las relaciones causales en biología evolutiva.7, 8, 9
Pluralismo metodológico y conceptual: La diversidad de enfoques y conceptos en biología (múltiples conceptos de especie, diferentes niveles de selección, p. ej.) sugiere que el pluralismo puede ser más apropiado que el monismo metodológico tradicional en filosofía de la ciencia. Esto plantea cuestiones sobre la unidad de la ciencia y la naturaleza del progreso científico, fácilmente instrumentalizables desde planteamientos seudocientíficos o escépticos.10
Implicaciones para la epistemología general: La biología evolutiva ha inspirado enfoques naturalistas en epistemología, como la epistemología evolutiva, que busca entender nuestras capacidades cognitivas como productos de la evolución. Esto plantea cuestiones sobre la fiabilidad del conocimiento y la relación entre las nociones de evolución, realidad y verdad.11, 12
Valores en la ciencia: Los debates en torno a conceptos como función, progreso evolutivo y naturaleza humana ilustran cómo los valores y presupuestos filosóficos pueden influir en la investigación científica. Aportan elementos y casos relevantes para cuestionar nociones simplistas de objetividad científica, lo que en última instancia refuerza la importancia de la reflexión filosófica en la práctica científica.13, 14, 15
En conclusión, la biología proporciona un dominio fructífero para adquirir herramientas valiosas en epistemología de la ciencia, útiles para poner a prueba estereotipos y concepciones tradicionales sobre la naturaleza del conocimiento científico. Obliga a repensar la complejidad asociada con una serie de conceptos fundamentales (explicación, causalidad, reduccionismo, ley natural y objetividad, entre otros), ofreciendo numerosos ejemplos de aciertos y fracasos en el análisis de problemas complejos que nutren una perspectiva sofisticada y pluralista sobre la naturaleza de la empresa científica. Aunque la filosofía de la biología se ha desarrollado al hilo del progreso en esta disciplina particular, sus desarrollos teóricos y metodológicos han contribuido a enriquecer debates más amplios en filosofía de la ciencia y epistemología.16
1. Garson, J. (2016). A Critical Overview of Biological Functions. En SpringerBriefs in philosophy. https://doi.org/10.1007/978-3-319-32020-5.
2. Godfrey-Smith, P. (1996). Naturalism and teleology. In Complexity and the Function of Mind in Nature (pp. 3–29). chapter, Cambridge: Cambridge University Press.
3. Donovan, C. (2019). Biological Function. In: Shackelford, T., Weekes-Shackelford, V. (eds) Encyclopedia of Evolutionary Psychological Science. Springer, Cham. https://doi.org/10.1007/978-3-319-16999-6_2097-1.
4. Odenbaugh, J. and P. Griffiths (2022), "Philosophy of Biology", The Stanford Encyclopedia of Philosophy (Summer 2022 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/archives/sum2022/entries/biology-philosophy.
5. Brigandt, I. and A. Love (2023), "Reductionism in Biology", The Stanford Encyclopedia of Philosophy (Summer 2023 Edition), Edward N. Zalta & Uri Nodelman (eds.), https://plato.stanford.edu/archives/sum2023/entries/reduction-biology.
6. Ereshefsky, M. (2022). "Species", The Stanford Encyclopedia of Philosophy (Summer 2022 Edition), Edward N. Zalta (ed.), https://plato.stanford.edu/archives/sum2022/entries/species (Sect. 2, 4).
7. Shan, Y. (ed.) (2024). Alternative Philosophical Approaches to Causation: Beyond Difference-making and Mechanism. Oxford: Oxford University Press.
8. Bourrat, P. (2024). Adding causality to the information-theoretic perspective on individuality. Euro Jnl Phil Sci 14, 9. https://doi.org/10.1007/s13194-023-00566-1.
9. Pence, C. H. (2021). The Causal Structure of Natural Selection. Cambridge: Cambridge University Press.
10. Okasha, S. (2006). Evolution and the Levels of Selection. Oxford University Press.
11. Reydon, T. A. C. (2021). The proper role of history in evolutionary explanations. Noûs, 57(1), 162-187. https://doi.org/10.1111/nous.12402.
12. Diéguez, A. (2005). "Realismo y antirrealismo en la filosofía de la biología", Ludus Vitalis, vol. 13, n.º 23: 49-71. http://ludus-vitalis.org/html/textos/23/23-03_dieguez.pdf.
13. Niikawa, T., Miyahara, K., Hamada, H. T., & Nishida, S. (2022). Functions of consciousness: conceptual clarification. Neuroscience Of Consciousness, 2022(1). https://doi.org/10.1093/nc/niac006.
14. Kull, K. (2021). Natural Selection and Self-Organization Do Not Make Meaning, while the Agent’s Choice Does. Biosemiotics, 14(1), 49-53. https://doi.org/10.1007/s12304-021-09422-2.
15. Godfrey-Smith, P. (2021). Theory and Reality: An Introduction to the Philosophy of Science, Second Edition. Ch. 8, sect. 6.
16. Wilson, Edward O. (1998). Consilience: The unity of knowledge. Vintage Books. Ch. 4, 7-9.
La distinción entre "selección de" y "selección por"
Ejemplo 1: Selección de un rasgo
Un rasgo puede ser seleccionado porque confiere una ventaja adaptativa. Por ejemplo, la selección de alas más grandes en ciertas aves podría deberse a que permiten vuelos más eficientes y, por lo tanto, una mejor capacidad para escapar de depredadores.Referencia: Fisher, R. A. (1930). The Genetical Theory of Natural Selection. Clarendon Press. https://www.biodiversitylibrary.org/bibliography/27468.
Ejemplo 2: Selección por un factor ambiental
La selección puede ocurrir debido a presiones ambientales específicas. Por ejemplo, la selección por resistencia a enfermedades en una población de plantas puede ser impulsada por la presencia de patógenos en el ambiente.Referencia: Williams, G. C. & Dawkins, R. (2019). Adaptation and Natural Selection: A Critique of Some Current Evolutionary Thought. Princeton University Press (Rev. Ed., orig.: 1966).
Ejemplo 3: Distinción conceptual
La distinción conceptual entre "selección de" (selección de un rasgo específico) y "selección por" (selección debido a una presión ambiental) es fundamental para entender cómo operan las fuerzas evolutivas.Referencia: Lewontin, R. C. (1970). The units of selection. Annual Review of Ecology and Systematics, 1, 1-18. https://doi.org/10.1146/annurev.es.01.110170.000245.
Ejemplo 4: Selección de genes
En algunos casos, la selección opera a nivel genético, seleccionando genes que confieren una ventaja adaptativa. Por ejemplo, la selección de genes de resistencia a antibióticos en bacterias debido a la presión de uso de antibióticos.Referencia: Dawkins, R. (2006). The selfish gene: 30th Anniversary edition. OUP Oxford (Orig.: 1976).
Ejemplo 5: Selección por factores abióticos La selección por factores abióticos, como el clima, puede influir en la prevalencia de ciertos rasgos. Por ejemplo, la selección por tolerancia al calor en plantas en regiones áridas.
Referencia: Endler, J. A. (1986). Natural Selection in the Wild. Princeton University Press.
Pese a las polémicas y ataques escépticos, el darwinismo y sus desarrollos teóricos han ejercido una influencia duradera y radical en la cultura contemporánea, con importantes implicaciones prácticas que exceden las repercusiones mencionadas en filosofía de la ciencia y ayudan a entender la naturaleza del conocimiento científico y la complejidad inherente al proceso de acumulación de pruebas (evidencia) para sustentar una teoría. La teoría de la evolución por selección natural ejemplifica cómo los principios del naturalismo metodológico —aducir causas y procesos naturales en las explicaciones científicas excluye apelar a elementos o causas sobrenaturales con la misma finalidad— han sido suficientes para sortear los múltiples obstáculos teóricos y conceptuales que surgieron en más de un siglo de desarrollo de investigación especializada en diversos campos de la biología.1
Entre los debates persistentes en torno al darwinismo no puede obviarse la atención que ha recibido el argumento del diseño inteligente (abrev. DI). Sus proponentes (entre otros, el bioquímico Michael Behe y el matemático y teólogo William A. Dembski) sostienen que ciertos aspectos del universo y de los seres vivos se explicarían mejor aduciendo una causa inteligente en lugar de procesos naturales no dirigidos como la selección natural.2, 3
Según este enfoque, las explicaciones evolutivas no parecen dar cuenta de la complejidad asociada con algunas características biológicas e informacionales, cuya emergencia se considera altamente improbable como resultado de procesos naturales. Partiendo de la analogía entre los sistemas naturales y los artefactos humanos, se asume que la complejidad observada refuerza el argumento del diseño y supone una prueba o evidencia de la acción de un creador inteligente. Sin embargo, la mayoría de los científicos evolutivos rechaza el argumento del diseño inteligente o abiertamente lo consideran pseudociencia, ya que carece de apoyo empírico y ni su estructura ni su contenido se ajustan a los criterios de una explicación científica.4
Aunque el debate sobre el DI pueda parecer una controversia más entre las muchas que se desarrollan por periodos prolongados en contexto académico, en realidad supone otra embestida más del creacionismo contra la educación científica y el canon de contenidos básicos que deben figurar en los programas y libros de texto de la educación obligatoria. Como señala Robert Pennock, fue una estrategia expresamente adoptada por el Discovery Institute, un think tank ultraconservador que persigue combatir el núcleo de creencias materialistas y científicas de la cultura occidental mediante el control de los contenidos que pueden impartirse en el sistema educativo.4
Desde un marco ideológicamente más plural, la relación entre ciencia y religión ha sido objeto de discusión a medida que se desarrollaban los aspectos teórico-conceptuales del darwinismo y se exploraban sus implicaciones. Autores como Stephen Jay Gould otorgan a la ciencia y la religión una autoridad legítima en sus respectivos dominios —la ciencia se ocupa del mundo natural, mientras la religión se centra en el significado último y los valores morales—, asumiendo que se trata de dominios no superpuestos, que requieren sus propias herramientas para analizar problemas y que no tienen por qué entrar en conflicto.5
Pero otros como Richard Dawkins (autor de El gen egoísta y El espejismo de Dios) cuestionan que la religión y la ciencia no entren en conflicto directo, puesto que la religión hace afirmaciones sobre el mundo natural que son empíricamente falsas y han sido refutadas por la ciencia no solo mediante razonamiento lógico, sino aportando evidencia robusta. Dawkins considera superfluas, ilusorias y perjudiciales las creencias religiosas: no solo no ayudan a explicar el mundo natural, sino que sirven de base para otras creencias irracionales y promueven la superstición.6
Dejando aparte la trayectoria histórica y los incentivos para aumentar la influencia social del catálogo de creencias respectivo, es obvio que las instituciones religiosas no han jugado siempre limpio ni en la misma liga que las instancias vinculadas a la investigación o divulgación científica. Dentro del catolicismo se han producido cambios notables en la aproximación al darwinismo y la evolución desde las instancias que se atribuyen plena capacidad para interpretar la compatibilidad de la doctrina tradicional con las nuevas teorías científicas. Pero numerosos subgrupos y ramas integristas tanto del catolicismo como del protestantismo mantienen posiciones creacionistas y las defienden con estrategias de confrontación cultural abierta.7, 8, 9
Los actores implicados en la investigación científica no tienen la exclusiva para atribuirse un interés genuino en los problemas que estudian. Sin embargo, es necesario analizar de manera crítica el tipo de herramientas teóricas y los métodos de trabajo que aportan quienes se presentan como actores ajenos a tal empresa y se sienten igualmente legitimados para aportar ideas o divulgar resultados que consideran bien establecidos. La separación entre ciencia y religión es solo un aspecto más del problema de la demarcarción entre ciencia y pseudociencia, y a la postre lo que determina la confrontación o superposición de puntos de vista sobre problemas como el cambio climático, la evolución o las pandemias depende más de las fuentes, herramientas y actitudes desplegadas en la indagación intelectual que de las convicciones de partida.
Ámbitos como la bioética y la protección del medio natural han incorporado en diversas instancias de deliberación a profesionales, personas expertas y activistas o colaboradores en muchos casos vinculados a grupos u organizaciones de carácter religioso. El pluralismo de creencias y puntos de vista en estos casos no se considera un obstáculo insalvable para el diálogo o la toma de conciencia sobre el alcance de ciertos problemas, sino la base para procesos de toma de decisiones más ajustadas a la complejidad de circunstancias y situaciones en las que el conocimiento y el desarrollo técnico plantean desafíos inéditos.10
El conocimiento de la base evolutiva de la vida obliga a repensar la relación de la especie humana con otros seres vivos y con el medio ambiente, fundamentalmente en términos de interconexión e interdependencia de todas las formas de vida. El deterioro medioambiental ocasionado por la actividad humana no solo daña la biodiversidad y lleva a determinados ecosistemas al colapso; incrementa también el riesgo para la salud humana y altera las condiciones que han hecho posible diversos modos de vida durante siglos. La educación ambiental se sustenta, precisamente, en la posibilidad de articular algunos principios de respeto o cuidado de la naturaleza y protección de la biodiversidad a partir de creencias, motivaciones y puntos de vista muy heterogéneos.11, 12, 13
1. Ruse, M. (2009). The Darwinian revolution: Rethinking its meaning and significance. Proceedings Of The National Academy Of Sciences, 106(supplement_1), 10040-10047. https://doi.org/10.1073/pnas.0901011106.
2. Behe, M. J. (2006). Darwin’s black Box: The Biochemical Challenge to Evolution. Free Press.
3. Dembski, W. A. (2004). The design revolution: Answering the Toughest Questions about Intelligent Design.
4. Pennock, R. T. (2003). Creationism and Intelligent Design. Annual Review Of Genomics And Human Genetics, 4(1), 143-163. https://doi.org/10.1146/annurev.genom.4.070802.110400.
5. Gould, S. J. (1999). Rocks of Ages: Science and Religion in the Fullness of Life. Ballantine Books.
6. Dawkins, R. (12.03.2006). "It's all in the genes". https://www.thetimes.com/article/its-all-in-the-genes-p655hlx2j2n.
7. Sugunendran, S. (2016). A scientific analysis of the creation vs Evolution debate: An Abridged Version of the Original Book: Creation Vs Evolution -A Scientific View (XLIBRIS UK).
8. Artigas, M., Glick, T. F., & Martínez, R. A. (2006). Negotiating Darwin: The Vatican Confronts Evolution, 1877–1902. JHU Press.
9. Diéguez, A. (2012). La vida bajo escrutinio. Una introducción a la filosofía de la biología. Barcelona: Biblioteca Buridán. Secc. 5.2.
10. Sandel, M. J. (2007). The case against perfection: Ethics in the Age of Genetic Engineering. Harvard University Press.
11. Rolston, H. (1988). Environmental ethics: Duties to and values in the natural world. Temple University Press.
12. Jenkins, W., Tucker, M. E., & Grim, J. (2018). Routledge Handbook of Religion and Ecology. Routledge International Handbooks.
13. Bauman, W. (2014). Religion and Ecology: Developing a Planetary Ethic. Columbia University Press.
La pseudociencia del diseño inteligente llega a los tribunales
El Diseño Inteligente toma el relevo
«Los partidarios del Diseño Inteligente son, todo hay que decirlo, más sofisticados que los creacionistas. Algunos tienen una sólida formación científica, como es el caso de Behe, y no creen que el Génesis sea una descripción literal del origen de la vida y de nuestro planeta. Admiten, aunque prefieren dejar el asunto en la indefinición, que la Tierra pueda tener una existencia de varios miles de millones de años y que ha experimentado profundos cambios. Admiten incluso que las especies han cambiado con el tiempo y que unas pueden haber surgido de otras. Pero consideran que detrás de este proceso tiene que haber un Diseñador que lo conduzca ya que la selección natural es insuficiente para explicarlo.
El último episodio importante ligado a este movimiento tuvo lugar en la ciudad norteamericana de Harrisburg, en Pensilvania. El 26 de septiembre de 2005 comenzó allí un juicio en el que se vio la denuncia efectuada por once padres de alumnos y por la American Civil Liberties Union contra la Junta Escolar del Distrito de Dover por promover que el Diseño Inteligente se presentara en las escuelas públicas de su ciudad como una alternativa científica al evolucionismo y en pie de igualdad con él. En concreto, la pretensión de la Junta Escolar era que a los alumnos de 14 y 15 años se les dijera que la teoría de Darwin, como tal teoría, «no era un hecho» y que adolecía de lagunas, tras lo cual se les debía señalar como alternativa las tesis del «Diseño Inteligente[59]». Algo parecido se había ya intentado en otros estados norteamericanos, como Ohio, y en 1999 la Junta Escolar de Kansas consiguió eliminar la teoría de la evolución del currículum académico de los estudiantes de secundaria.
En el mencionado juicio declararon de nuevo expertos de diversos campos científicos y de las humanidades. Especialmente polémica fue la declaración del destacado sociólogo de la ciencia Steve Fuller, que se manifestó partidario de la enseñanza del Diseño Inteligente, con el argumento de que era una teoría defendida por científicos reconocidos tanto en el presente como en el pasado (Newton, Linneo, Mendel) y, según su criterio, podría favorecer la formulación de nuevas hipótesis científicas y el consiguiente progreso en la ciencia, como hizo en otros momentos históricos. Mantener el naturalismo a toda costa en la ciencia era, por tanto, una muestra de dogmatismo. Esa declaración le costó numerosas críticas por parte de científicos y filósofos en diversos foros de Internet y en ulteriores publicaciones. Las declaraciones en el juicio dejaron ver que las cosas no habían cambiado mucho desde el juicio de Arkansas, excepto que en esta ocasión los antievolucionistas se presentaban con argumentos más sutiles que no apelaban ya a una lectura literal de la Biblia y que habían conseguido reclutar para su causa a algunos científicos y sociólogos. La sentencia fue dictada por el juez John E. Jones III el 20 de diciembre de ese mismo año. En ella se afirmaba que el Diseño Inteligente no era ciencia, sino una versión actualizada y reformulada de las viejas tesis creacionistas contra el darwinismo. Sus antecedentes eran, pues, religiosos y ello hacía que su enseñanza en las escuelas públicas fuera contra la constitución de los Estados Unidos.
La sentencia daba tres razones para sostener esto: «(1) El Diseño Inteligente viola reglas fundamentales y centenarias de la ciencia al invocar y permitir la causación sobrenatural; (2) el argumento de la complejidad irreductible, central para el Diseño Inteligente, usa el mismo dualismo defectuoso e ilógico que condenó a la ciencia de la creación en la década de 1980; y (3) los ataques negativos del Diseño Inteligente a la evolución han sido refutados por la comunidad científica» (p. 64 de la sentencia).
El juez, por tanto, dio la razón a los padres que denunciaron a la Junta Escolar del distrito de Dover, la cual, por cierto, recibió duros comentarios en la sentencia. Asimismo, desestimó la declaración de Fuller con un sensato contraargumento: incluso aunque Fuller tuviera razón en que el Diseño Inteligente implica un concepto de ciencia más fructífero que el actualmente vigente, los alumnos del distrito de Dover no podían ser educados en este supuesto concepto de ciencia diferente del que sustenta la comunidad científica. Ha sido la primera gran derrota del Diseño Inteligente en los tribunales, y ha sentado un precedente esperanzador. El intento del creacionismo de vestirse con ropajes menos llamativos había fracasado. Los miembros de la Junta Escolar de Dover que votaron a favor de incluir la mencionada referencia al Diseño Inteligente en las clases no fueron reelegidos en la votación para dicha Junta celebrada en diciembre de 2005. La nueva Junta electa no anunció tras el juicio que tuviera intención de recurrir la sentencia.
Desde un punto de vista filosófico, además, la sentencia del juez John E. Jones es más sólida que la del juez Overton. No se rechaza en ella la enseñanza del Diseño Inteligente en las escuelas públicas norteamericanas por presentar rasgos pseudocientíficos, determinados a partir de una discutible caracterización de la ciencia, sino por ser una modalidad refinada del creacionismo, y por tanto, de una doctrina religiosa, y por presentar ideas que han sido refutadas por la comunidad científica y que, por tanto, hay que considerar como falsas. Precisamente ésta última es para algunos, entre los que me encuentro, la mejor respuesta al desafío de los partidarios del Diseño Inteligente. Como señala Philip Kitcher (2007, p. 8), el Diseño Inteligente es «“ciencia muerta”, una doctrina que una vez tuvo su oportunidad en la investigación y la discusión científica, pero que ha sido correctamente descartada. —Y añade (p. 13)—: Si algún grupo extrañamente motivado hiciera campaña a favor de la enseñanza de la alquimia junto con la química moderna, o la teoría de que el calor es un “fluido sutil” en conjunción con la termodinámica, la respuesta correcta no sería declarar que estas doctrinas son intrínsecamente religiosas, o que son pseudociencias. En lugar de eso, deberíamos explicar que, aunque una vez figuraron en la ciencia y fueron desarrolladas por personas eruditas, hemos descubierto desde entonces que son incorrectas, y que, si hubieran de estar en el currículum, debería ser en un curso de historia de la ciencia, no en la clase de física o química».
Desgraciadamente, pese a estas reiteradas derrotas judiciales ante tribunales de los Estados Unidos y a la viva reacción de muchos científicos en todo el mundo en contra de estas ideas antievolucionistas carentes de validez científica, la popularidad de las mismas, no sólo en la versión del Diseño Inteligente sino en la del creacionismo más ramplón, se va afianzando en amplios sectores de la sociedad norteamericana y su influencia se va extendiendo lentamente por diversos países. Incluso ha comenzado a salir del ámbito del protestantismo ultraconservador.»
- Diéguez (2012). La vida bajo escrutinio. Una introducción a la filosofía de la biología. Barcelona: Biblioteca Buridán, Cap. 5, Secc. 5.2.
Nota a pie [59]: En concreto, el texto aprobado por la Junta Escolar de Dover decía así: «Dado que la Teoría de Darwin es una teoría, ha de continuar siendo contrastada cuando se descubran nuevas evidencias. La Teoría no es un hecho. Existen lagunas en la Teoría para las cuales no hay ninguna evidencia. Una teoría se define como una explicación bien contrastada que unifica una amplia serie de observaciones. El Diseño Inteligente es una explicación del origen de la vida que difiere de la de Darwin».
Si había un plan previo, no era demasiado bueno
«La evolución biológica es un hecho por mucho que algunos se empeñen en negarlo. La evidencia científica que lo apoya es abrumadora. Los negacionistas de la evolución han tenido que ir cambiando el discurso y adaptándolo a medida que sus argumentos eran demasiado ridículos. Durante mucho tiempo se asumió que el relato bíblico de la creación era literal. Siguiendo la información de la Biblia, el obispo James Usher calculó que la creación ocurrió un 22 de octubre del año 4004 antes de la era común. Esto contradice el conocimiento geológico de que la edad de la Tierra es de 4.500 millones de años y tampoco explica que existan fósiles de animales desaparecidos y datados en millones de años. Ningún texto sagrado hace mención a ellos. Ante esto se han propuesto explicaciones peculiares, como que los fósiles los ha hecho Dios para poner a prueba nuestra fe, o que los dinosaurios no cabían en el arca de Noé y por eso se extinguieron, pero que antes del diluvio convivieron con los humanos. Por supuesto nunca se han encontrado fósiles de humanos y de dinosaurios en el mismo estrato geológico. Esto no disuade a los más recalcitrantes. Las estampas de hombres primitivos conviviendo con dinosaurios son frecuentes en determinada literatura religiosa.
Hay una corriente de pensamiento que pasa de soslayo por los argumentos creacionistas más radicales, pero que sostiene la imposibilidad de explicar la evolución sin la existencia de un plan previamente establecido, o como prefieren decir, sin un diseño inteligente. No deja de ser un intento de meter la idea de Dios dentro de la evidencia de la evolución biológica, pero tratando de camuflar el trasfondo religioso y dándole una pátina de pensamiento científico. Se acepta que los seres vivos evolucionan, pero esta evolución precisa de un director. No puede ser por puro azar. Una de las partes más hermosas de la teoría de Darwin-Wallace es que explica la evolución biológica en términos de cambios por azar y de selección por las circunstancias de la naturaleza. No necesita un ser superior controlando el proceso ni una hoja de ruta. La especie humana existe, pero en otras circunstancias podría no haber existido. Si las circunstancias hubieran sido diferentes a lo largo de la historia del planeta, ahora la especie dominante podría ser una raza de ornitorrincos fluorescentes o de helechos tecnológicos. Uno de los argumentos más utilizados por los partidarios del diseño inteligente es el de la complejidad irreductible. Hay estructuras biológicas muy complejas, como el ojo humano, que precisan del ensamblaje de muchos elementos. Según los argumentos negacionistas de la evolución darwiniana, no pueden haberse formado por el azar y la acumulación de pequeños cambios. Es fácil de rebatir. Lo que sucede en la evolución es que algunos elementos van adquiriendo nuevas funciones. Dentro de las proteínas es frecuente que muchas tengan más de una función y que no estén relacionadas entre sí. En el ejemplo del ojo, existen animales de la actualidad que conservan estructuras antecesoras del actual ojo.
El mayor argumento en contra del diseño inteligente es toda la evidencia que señala que, de existir un diseñador, no es inteligente. Estudiando la biología en detalle queda claro que, o bien todo sucede por puro azar, o si hay un diseñador es un chapucero. La evolución biológica sería como tratar de hacer mejoras en una casa que ya está construida. No puedes tirarla y volverla a hacer, pero puedes tumbar un tabique, hacer más grande una puerta o añadir otro piso. Las obras se irán solapando, de forma similar a las catedrales que se construían a lo largo de varios siglos y donde coexisten diferentes estilos. Hay algunas estructuras que en algún momento son útiles, pero que para adaptarse a los nuevos tiempos hay que hacer chapuzas o parches o directamente son una carga, y en algunos casos pueden conllevar la extinción de la especie. Un ejemplo de estos parches resueltos sobre la marcha sería el vaso deferente que conecta el testículo con la uretra, que tiene que rodear el uréter debido a que nuestros antepasados evolutivos tenían los testículos más arriba. Y podríamos seguir. Dolores de espalda, hernias de disco y almorranas debido a los millones de años que fuimos cuadrúpedos y que todavía no somos eficientes andando a dos patas. Podríamos mencionar los niños que mueren atragantados porque el canal alimentario comparte espacio con la vía respiratoria, con lo fácil que sería separarlos, o las infecciones graves por poner la principal salida de residuos sólidos del cuerpo al lado de los genitales. Y no solo en anatomía se ven las chapuzas de diseño. Hay muchas rutas bioquímicas donde se nota este efecto de ir poniendo parches y que gracias a la ingeniería genética podemos mejorar. Puestos a creer en un sumo hacedor, al menos que sea más competente.
El código genético
La prueba más contundente de la existencia de la evolución la encontramos en el ADN. Todos los seres vivos compartimos el mismo código genético, y eso permite la existencia de la ingeniería genética. El gen de un organismo puede funcionar en otro, y gracias a eso podemos producir insulina humana en bacterias. Si un ser superior hubiera creado a los seres vivos de la nada, ¿no hubiera sido más lógico darle a cada uno un código genético diferente? Esto hubiera impedido transferir genes entre especies, e indicaría una creación independiente de todos los vivos, como recoge la Biblia.»
Mulet, J. M. (8.12.2024). "Si nos diseñó alguien, no era inteligente". El País. https://elpais.com/eps/psicologia-y-bienestar/2024-08-08/si-nos-diseno-alguien-no-era-inteligente.html.
El término revolución cognitiva se ha utilizado para describir el giro teórico-metodológico significativo que se produjo en Psicología durante la segunda mitad del siglo XX, cuando el enfoque conductista dominante quedó desplazado por un marco de investigación centrado en el estudio de los procesos mentales internos, con nuevas herramientas y metodologías proporcionadas por disciplinas emergentes.
Precisando algo más su origen histórico, esta “revolución” se inicia a partir de 1950 y termina consolidándose en las tres décadas siguientes. Autores como George Miller, Noam Chomsky, Jerome Bruner y Herbert Simon cuestionaron aspectos y limitaciones de la ortodoxia conductista y reivindicaron el estudio científico de la mente con nuevas herramientas y metodologías.1
Al psicólogo estadounidense George Armitage Miller se le atribuye un papel clave en el origen de la psicología cognitiva y, más ampliamente, de la ciencia cognitiva y de la psicolingüística. Inició su carrera coincidiendo con el auge del conductismo, una corriente de la psicología centrada en el estudio del comportamiento observable. Las técnicas experimentales y métodos matemáticos para analizar los procesos mentales que elaboraron Miller, Noam Chomsky y otros investigadores interesados en el habla y el lenguaje permitieron alinear nuevos protocolos de investigación en psicología con la teoría de la información, la teoría de la computación y la lingüística.2, 3
Miller menciona al menos seis disciplinas cuyas aportaciones hicieron posible la revolución cognitiva: psicología, lingüística, computación, neurociencias, antropología y filosofía, siendo centrales las tres primeras y un tanto periféricas las restantes. Sus diferentes pautas de evolución y concreción institucional han consolidado maneras peculiares de entender la cognición y la relevancia de ciertos problemas, probablemente más por accidente histórico que por exigencias epistémicas. Lo interesante fue la convicción compartida de que en todas se había progresado lo bastante como para reconocer la interdependencia mutua, si se quería avanzar en la solución a problemas cuya complejidad excedía las posibilidades de disciplinas tradicionales.
La perspectiva adquirida sobre el desarrollo de la inteligencia artificial permite enfatizar el potencial que tuvo en estas décadas iniciales (1950-1980) el recurso a los lenguajes artificiales como modelos del pensamiento humano, en paralelo a los primeros trabajos en programación de ordenadores. Un ámbito emergente de conocimiento teórico y aplicado hizo verosímil el intento de compatibilizar aportaciones en las tecnologías de computación con el estudio de los procesos mentales humanos que el conductismo de la época había soslayado.4
La lógica de la máquina expresada a través de un lenguaje artificial obligaba a los programadores a ‘pensar’ en los términos de ésta, ‘ajustándose’ a la recursividad inherente de los bucles del programa y a la lógica de cada lenguaje de programación para minimizar el riesgo de errores. El modo de abordar ciertos problemas por parte de programadores expertos podía interpretarse como una externalización de las representaciones mentales (se ilustraba comúnmente mediante diagramas de flujo) donde la solución requiere partir de una planificación metódica (estrategias) ajustada a la ‘lógica’ de la máquina. Esto se aproxima bastante al objetivo de las investigaciones sobre los procesos humanos de verificación de hipótesis y exploración de patrones hasta dar con la secuencia correcta, que pueden igualmente representarse como un programa a seguir.5, 6, 7
El foco de atención apuntaba a la lógica subyacente a los procesos de razonamiento humano, en términos adecuados a su utilización en la máquina. Este enfoque dio lugar a numerosos trabajos de psicología cognitiva referidos al razonamiento proposicional, la categorización silogística y el tipo de abstracción que subyace a las representaciones mentales útiles para resolver problemas de dificultad variable. Se explica así la asociación entre pensamiento y representación de problemas (o búsqueda de soluciones), frecuente en los manuales de psicología cognitiva, como expresión de un extenso programa interdisciplinar cuyo elemento aglutinador ha sido el intento de describir el pensamiento de forma equivalente en la psicología cognitiva y en la ingeniería de la inteligencia artificial.8, 9
No obstante, era obvio que las formas diferentes de representación o abordaje de problemas y objetivos psicológicos entre humanos y máquinas sugerían más un procedimiento metodológico que una equivalencia sustantiva, aplicado con éxito en la mejora del diseño de máquinas capaces de realizar operaciones de complejidad creciente. Lo habitual en los seres humanos que no se dedican a la programación es involucrar en sus procesos cognitivos elementos de naturaleza no estrictamente lógica ni racional, si el objetivo fuese explicar la mayor parte de los procesos de razonamiento que llevan a cabo en la resolución de problemas.10, 11
1. Miller, G. A. (2003). The cognitive revolution: a historical perspective. Trends In Cognitive Sciences, 7(3), 141-144. https://doi.org/10.1016/s1364-6613(03)00029-9
2. Miller, G.A. (1951) Language and Communication, McGraw-Hill.
3. Chomsky, N. (1957). Syntactic Structures, Mouton.
4. Smith, H.T. y Green, T.R.G. (Eds.), (1980). Human interaction with computers. Academic Press.
5. Simon, H.A., y Kotovsky, K. (1963). Human acquisition of concepts for sequential patterns. Psychological Review, 70, 534-546.
6. Wiener, N. (2019, orig. 1948). Cybernetics or Control and Communication in the Animal and the Machine. En The MIT Press eBooks. https://doi.org/10.7551/mitpress/11810.001.0001
7. Restle, F. (1970). Theory of serial pattern learning: Structural trees. Psychological Review, 77(6), 481–495. https://doi.org/10.1037/h0029964
8. Heinonen, A., Lehtelä, B., Hellas, A., & Fagerholm, F. (2025). Synthesizing research on programmers' mental models of programs, tasks and concepts – a systematic literature review. Information and Software Technology. https://arxiv.org/pdf/2212.07763
9. Mayer, R. E. (1976). Some conditions of meaningful learning for computer programming: Advance organizers and subject control of frame order. Journal of Educational Psychology, 68(2), 143–150. https://doi.org/10.1037/0022-0663.68.2.143
10. Mayer, R.E. (1992, orig. 1983). Thinking, Problem Solving, Cognition. New York: W.H. Freeman and Company.
11. McCarthy, J. y Hayes, P. (1969). Some philosophical problems from the standpoint of artificial intelligence. En D. Michie, y B. Meltzer (Eds.), Machine Intelligence 4. Edinburgh: University Press. https://www-formal.stanford.edu/jmc/mcchay69.pdf
Varias décadas de coexistencia entre conductismo y psicología cognitiva hacen plausible la interpretación integradora y continuista del periodo de investigaciones en psicología que abarca desde mediados de los años cincuenta hasta la década de los ochenta, por más que una parte de la comunidad investigadora aplicara quizá un tanto a la ligera los conceptos kuhnianos de paradigma y cambio revolucionario para justificar o promover ciertas prácticas y creencias.1
Los matices que aporta una perspectiva histórica amplia cuestionan tanto la idea de enfoques hegemónicos como las simplificaciones acerca de reemplazos e inconmensurabilidad radical, complicando los indicios para considerar obsoletos algunos estilos de trabajo y corrientes en psicología que operan bajo la sospecha de haber perdido su estatus científico. Las discrepancias o preferencias metodológicas nunca fueron tan radicales como para impedir el entendimiento y la comparación de resultados (es decir: se trataría de un caso de inconmensurabilidad local, que no supone la imposibilidad de traducir los términos de una teoría en el vocabulario de otra).2
Otros autores consideran desafortunado hablar de revolución cognitiva, puesto que implica sobredimensionar la idea de un reemplazo total del conductismo por el cognitivismo, lo cual es inexacto y alimenta explicaciones simplificadas acerca de la diversidad de enfoques y metodologías de trabajo que coexisten y experimentan ciclos propios de desarrollo en periodos de varias décadas. Patrick Friman, entre otros, descarta que el conductismo haya sido refutado en el sentido popperiano y que fracasara como programa de investigación por acumulación de anomalías u otros factores epistémicos. Más que el fracaso o la inoperancia de sus explicaciones, fueron cuestiones sociológicas las que decantaron el interés de los investigadores por otros enfoques.3
Hobbs y Burman aluden expresamente al "mito" de la revolución cognitiva, argumentando que raramente se ha podido constatar un paradigma hegemónico único en psicología y menos que resultara completamente derrocado por otro. Al menos desde los años 60 en adelante, sostienen que lo razonable es reconocer la coexistencia de múltiples enfoques, en muchos casos con supuestos de fondo compartidos. Apoyan su interpretación en algunos elementos clave que el cognitivismo heredó y adaptó de la tradición conductista —el rigor experimental y la preocupación por la conducta observable, entre otros—, lo que debilita la hipótesis del reemplazo o la anulación. El recurso normalizado en el ámbito clínico a la terapia cognitivo-conductual para el tratamiento de diversos síndromes y trastornos psicológicos (ansiedad, adicciones, anorexia y bulimia, p. ej.) sugiere una integración eficaz y provechosa de las teorías conductistas del aprendizaje con las cognitivas.4, 5
Si el debate parece improductivo dada la amplitud de los programas de investigación cognitivos y conductistas, no lo sería menos su proyección entre posible subtipos, como los modelos de cognición limitada al cerebro y los de cognición extendida. De hecho, el término cognición involucra aspectos referidos a procesos tan heterogéneos como percibir, pensar, recordar, aprender, imaginar, planificar, decidir, etc. Requieren algunos niveles explicativos más cercanos al componente subjetivo y otros a los mecanismos conductuales (estados, procesos, funciones, historias de aprendizaje, etc.). El análisis de la conducta puede orientar sobre contingencias con funciones de control y mecanismos neurales involucrados en la realización de ciertas tareas, lo que introduce una fluidez obligada en el manejo de ciertas categorías para procesos cognitivos y no cognitivos (sensibilidad al contexto o imaginación auditiva, p. ej., en contraste con las conductas instintivas o asociativas).6, 8, 9
Cabe caracterizar el proceso como una pérdida progresiva de interés de la comunidad investigadora en contribuciones que dejaban de lado ciertos temas, objetivos y metodologías de trabajo, cuyo reflejo puede rastrearse en las redes de citas estudiadas mediante análisis bibliométricos.11
Aunque en la década de los ochenta continuaron apareciendo obras y trabajos de autores que se consideraban más afines al conductismo de los años cincuenta que a otras ramas de la psicología experimental contemporánea, era un hecho que un sector amplio, muy dinámico e innovador en la comunidad investigadora, compartía preferencias temáticas y metodológicas propias de lo que Howard Gardner denominó "revolución cognitiva" o la nueva ciencia de la mente. Pero desmitificar su aparición, incorporando los detalles de un proceso interdisciplinar más complejo, granular y extendido en el tiempo de lo que comúnmente se daba por supuesto, dista mucho del enfoque abiertamente negacionista sobre el fenómeno.7, 9, 10
1. Primero, G., & Barrera, S. (2020). Cognitivismos y conductismos: mitos que obstaculizan el diálogo, análisis de los conceptos de conducta y cognición, y propuestas de integración teórica. Scientia in verba Mag. 6, 17-46. https://web.archive.org/web/20200527092438/https://zenodo.org/record/3841868/files/PrimBar.pdf
2. Kuhn, T. S. (1982). Commensurability, comparability, communicability. In PSA: Proceedings of the biennial meeting of the Philosophy of Science Association (Vol. 1982 - January, No. 2, pp. 668-688). Cambridge University Press.
3. Friman, P. C., Allen, K. D., Kerwin, M. L. E. & Larzelere, R. (1993). Changes in modern psychology: A citation analysis of the Kuhnian displacement thesis. American Psychologist, 48, 658 - 664.
4. Hobbs, S., & Chiesa, M. (2011). The Myth of the “Cognitive Revolution”. European Journal Of Behavior Analysis, 12(2), 385-394. https://doi.org/10.1080/15021149.2011.11434390
5. Looking back: Is the cognitive revolution a myth? (2024, 23 febrero). BPS. https://www.bps.org.uk/psychologist/looking-back-cognitive-revolution-myth
6. Schlinger, H. D. (2009). Auditory imagining. European Journal Of Behavior Analysis, 10(1), 77-85. https://doi.org/10.1080/15021149.2009.11434310
7. Gardner, H. (1988). La nueva ciencia de la mente: historia de la revolución cognitiva. Paidós.
8. Donahoe, J. W., & Palmer, D. C. (1994). Learning and Complex Behavior. Prentice Hall Health.
9. Pérez Acosta, A. M., Guerrero, F., & LópezLópez, W. (2002). Siete conductismos contemporáneos: una síntesis verbal y gráfica. International Journal of Psychology and Psychological Therapy, 2(1),103-113. https://www.redalyc.org/pdf/560/56020106.pdf
10. Leahey, T. H. (1998, orig. 1991). Historia de la psicología: las grandes corrientes del pensamiento psicológico. Prentice Hall Iberia S.R.L, Caps. 12-15.
11. Engelen, J., Verhaegh, S., Collignon, L., & Pannu, G. (2022). A Bibliometric Analysis of the Cognitive Turn in Psychology. Perspectives On Science, 31(3), 324-359. https://doi.org/10.1162/posc_a_00574
El fin del conductismo como enfoque heurístico preferente se asocia con la aceptación de la teoría sintáctica como una mejor explicación de los procesos cognitivos responsables de los aspectos estructurales del lenguaje humano, en palabras de G. Miller. Para un número creciente de investigadores destacados y egresados brillantes al inicio de su carrera —Peter Wason, Nelson Goodman y Noam Chomsky, entre otros—, era obvio que las reglas gramaticales que gobiernan las frases y oraciones debían interpretarse como hipótesis mentalistas sobre los procesos cognitivos responsables de los comportamientos verbales observables. Miller y Chomsky compartían la insatisfacción de entender la psicología meramente como ciencia del comportamiento, sin integrar los conceptos mentalistas para explicar los datos conductuales (algo así como reducir la física a la ciencia de la lectura de medidores).1
Si las explicaciones en términos mentalistas resultaban incómodas, el recurso a la cognición parecía ahuyentar la desconfianza entre quienes seguían interesados en la psicología experimental, como colectivo más reacio en comparación con quienes trabajaban en psicología social o clínica. El estudio de la cognición humana daba una amplia cobertura tanto a la investigación social como a diversas líneas de trabajo experimental sobre la mente, las expectativas, la adquisición de conceptos, la percepción y la memoria.2
El simposio de 1956 en el MIT sobre inteligencia artificial (The Dartmouth Summer Research Project on Artificial Intelligence) se considera el evento fundacional en la interpretación de la mente como entidad procesadora de información. Asegurada la financiación, el proyecto fue presentado formalmente el 2 de septiembre de 1955 a propuesta de John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon:
Proponemos que se lleve a cabo un estudio de inteligencia artificial de dos meses de duración y con 10 personas durante el verano de 1956 en el Dartmouth College de Hanover, New Hampshire. El estudio se basará en la conjetura de que todo aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que una máquina puede simularlo. Se intentará encontrar cómo lograr que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan problemas ahora reservados para los humanos y se perfeccionen. Creemos que se puede lograr un avance significativo en uno o más de estos problemas si un grupo cuidadosamente seleccionado de científicos trabaja en conjunto durante un verano. (Trad. autom.)3, 4
El interés de este nuevo enfoque para una larga lista de problemas quedó reforzado con las críticas de Noam Chomsky al conductismo de Skinner y el recurso al modelo computacional como estrategia metodológica para simular procesos mentales y reintroducir el interés por las representaciones, la memoria y la percepción frente al enfoque puramente conductual.5
El paradigma cognitivo aquiere impulso entre 1960 y 1970, y se torna dominante a partir de 1980, diversificándose en múltiples campos bajo el rótulo de ciencias cognitivas, las cuales experimentaron un rápido desarrollo potenciado por nuevas tecnologías y un énfasis creciente en la interdisciplinariedad.
En 1976, la Fundación Sloan patrocinó la creación de programas formales en Ciencias Cognitivas, reconociendo la necesidad de unificar el estudio de la mente mediante la colaboración de psicología, lingüística, inteligencia artificial, neurociencia, antropología y filosofía. En 1977 se fundó la Cognitive Science Society y en 1979 la revista Cognitive Science, como evidencias de un nuevo campo integrador que en pocos años animó a más de cien universidades en América del Norte, Europa, Asia y Australia a establecer programas interdisciplinares y cursos de ciencia cognitiva.6
Hacia finales de los 70 ya existían subcampos mixtos como la psicolingüística (psicología + lingüística), la lingüística computacional (lingüística teórica + ciencias de la computación), la inteligencia artificial inspirada en procesos cognitivos (computación + psicología), la neurociencia integrativa (biología + ciencia cognitiva). Sobre esta base quedó establecido el marco teórico de trabajo que dominaría las décadas siguientes: la mente entendida como sistema de procesamiento de información, estudiado desde múltiples niveles (desde lo neural hasta lo comportamental y lo social, incluyendo aspectos evolutivos, etológicos y culturales).7, 8, 9
El campo de la lingüística computacional, por ejemplo, comenzó a tomar forma en la década de 1950, cuando las primeras computadoras digitales permitieron realizar análisis lingüísticos automatizados. Surgió en parte como respuesta al interés por el procesamiento de lenguajes naturales (NLP) y por resolver problemas como la traducción automática, con el marco de referencia establecido por Alan Turing (en su ensayo Computing Machinery and Intelligence) para el procesamiento simbólico de información.10
Una contribución destacada en esta línea de investigación fue la obra Syntactic Structures, de Noam Chomsky (1957), en la que desarrolló la teoría de gramáticas generativas, proporcionando un modelo formal para analizar estructuras lingüísticas de gran interés para quienes trabajaban en lingüística computacional.11
Tras el informe ALPAC (Automatic Language Processing Advisory Committee, 1966), encargado por el gobierno de los Estados Unidos para evaluar los progresos en traducción automática, se produce un giro hacia enfoques más realistas en procesamiento del lenguaje, centrados en tareas específicas y herramientas prácticas. El desarrollo de algoritmos más avanzados y la aparición de nuevas teorías sobre el aprendizaje del lenguaje supuso la consolidación de la lingüística computacional como disciplina formal a partir de 1970, con pasos significativos en la aplicación de técnicas de inteligencia artificial y aprendizaje automático al análisis lingüístico, el auge de la computación simbólica y modelos como las gramáticas dependientes del contexto. Esta línea de trabajo se refuerza en los noventa con la introducción de sistemas como los parsers para analizar estructuras sintácticas complejas y la preferencia por modelos basados en datos y estadística como los modelos ocultos de Markov —con parámetros y estados desconocidos, pero que podían determinarse como una distribución de probabilidad a partir de los observables— y los algoritmos de aprendizaje supervisado —modelos entrenados para la clasificación de imágenes, reconocimiento de voz y tareas de predicción—.12
El desarrollo de los modelos de aprendizaje profundo (deep learning) y las redes neuronales transformó el campo, permitiendo avances espectaculares en traducción automática, generación de texto y sistemas conversacionales como los asistentes virtuales.13, 14, 15, 16
1. Miller, G. A. (2003). The cognitive revolution: a historical perspective. Trends In Cognitive Sciences, 7(3), 141-144. https://doi.org/10.1016/s1364-6613(03)00029-9
2. Bruner, J. (2017, orig. 1986). A Study of Thinking. Routledge. https://doi.org/10.4324/9781315083223
3. Solomonoff, G. (2023, 20 mayo). The Meeting of the Minds That Launched AI. IEEE Spectrum. https://spectrum.ieee.org/dartmouth-ai-workshop
4. McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955, August 31).A proposal for the Dartmouth summer research project on artificial intelligence. http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html
5. Chomsky, N. (1959). "A Review of B. F. Skinner's Verbal Behavior”, Language, 35, No. 1 (1959), 26-58. https://web-archive.southampton.ac.uk/cogprints.org/1148/1/chomsky.htm
6. Thagard, P. (2023)."Cognitive Science", The Stanford Encyclopedia of Philosophy (Winter 2023 Edition), Edward N. Zalta & Uri Nodelman (eds.), https://plato.stanford.edu/archives/win2023/entries/cognitive-science
7. Newell, A., & Simon, H. A. (1976). Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3), 113-126. https://doi.org/10.1145/360018.360022
8. Fodor, J. A. (1983). The modularity of mind: An essay on faculty psychology. MIT Press.
9. Cosmides, L., & Tooby, J. (1992). Cognitive adaptations for social exchange. In J. H. Barkow, L. Cosmides, & J. Tooby (Eds.), The adapted mind: Evolutionary psychology and the generation of culture (pp. 163-228). Oxford University Press.
10. Turing, A. M. (1950). I.—Computing Machinery And Intelligence. Mind, LIX(236), 433-460. https://doi.org/10.1093/mind/lix.236.433
11. Chomsky, N. (1957). Syntactic Structures, Mouton.
12. Jurafsky, D., & Martin, J. H. (2009). Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition. Pearson Education.
13. Zhang, J., & Zong, C. (2015). Deep Neural Networks in Machine Translation: An Overview. IEEE Intelligent Systems, 30(5), 16-25. https://doi.org/10.1109/mis.2015.69
14. Costa-jussà, M. R. (2016). From feature to paradigm: Deep learning in machine translation. Journal of Artificial Intelligence Research, 55(1), 1–15. https://upcommons.upc.edu/bitstream/handle/2117/116854/dlmt-final.pdf
15. Aggarwal, C. C. (2023). Neural Networks and Deep Learning: A Textbook. Springer-Verlag GmbH.
16. Koehn, P. (2020). Neural Machine Translation. Cambridge University Press.
Déficit en el análisis prospectivo sobre el potencial de la investigación en traducción automática realizado por el comité gubernamental ALPAC (1966) de EE. UU.
1. Contexto y hechos clave:
En 1966, el comité ALPAC (Automatic Language Processing Advisory Committee) presentó un informe cuyo impacto sería decisivo en la historia de la traducción automática. El documento cuestionaba la utilidad y viabilidad económica de los sistemas de traducción automática (TA) existentes, limitándose a considerar las necesidades gubernamentales y científicas de Estados Unidos, principalmente en el ámbito militar y en la traducción del ruso al inglés.
El informe señalaba problemas fundamentales en los sistemas de TA de la época: baja calidad, lentitud y costos elevados. Por ejemplo, los documentos procesados por sistemas de TA requerían largos períodos de post-edición, llegando a tardar hasta 109 días, frente a los 15 días de las traducciones humanas más rápidas. Asimismo, el informe determinó que, para audiencias amplias, las traducciones humanas seguían siendo más económicas que las automáticas.
2. Errores de visión prospectiva:
- Foco limitado: ALPAC ignoró el creciente interés comercial y global por la traducción automática, concentrándose únicamente en las necesidades de las agencias gubernamentales y militares de EE. UU.
- Desestimación de posibles avances: Aunque identificó la necesidad de investigación básica en lingüística computacional, subestimó el potencial de la traducción automática como herramienta independiente, restringiendo su apoyo a sistemas de asistencia para traductores humanos.
- Inadecuada previsión tecnológica: Declararon que no había perspectivas inmediatas de desarrollo útil en traducción automática, sin prever las grandes mejoras que se producirían con el tiempo en áreas como inteligencia artificial y aprendizaje automático.
3. Impacto negativo:
Las conclusiones del informe llevaron al estancamiento de la financiación de la investigación en TA en los Estados Unidos durante dos décadas, ralentizando los avances tecnológicos. Aunque algunos proyectos continuaron de forma aislada, se perdió un momento crucial para fortalecer la investigación en este campo.
4. Para profundizar:
- Automatic Language Processing Advisory Committee. (1966). Language and machines: Computers in translation and linguistics. National Academy of Sciences, National Research Council. https://www.mt-archive.net/50/ALPAC-1966.pdf
- Artículo sobre el informe ALPAC: Pangeanic Blog
- Dew, K. N. et al. (2018). Development of machine translation technology for assisting health communication: A systematic review. Journal Of Biomedical Informatics, 85, 56-67. https://doi.org/10.1016/j.jbi.2018.07.018
- Hutchins, W. J. (1986). Machine translation: Past, Present, Future. New York : Halsted Press.
- Lewin, B., O’Brien, J., & Wilcock, J. (2024, 25 noviembre). The Evolution of Machine Translation: A Brief History and What’s Coming Next. MultiLingual Media LLC. https://multilingual.com/the-evolution-of-machine-translation-a-brief-history-and-whats-coming-next/
- Rivera-Trigueros, I., Olvera-Lobo, M., & Gutiérrez-Artacho, J. (2020). Overview of Machine Translation Development. En Advances in information quality and management (pp. 874-886). https://doi.org/10.4018/978-1-7998-3479-3.ch060
- Wang, H., Wu, H., He, Z., Huang, L., & Church, K. W. (2021). Progress in Machine Translation. Engineering, 18, 143-153. https://doi.org/10.1016/j.eng.2021.03.023
Las bases conceptuales de la psicología cognitiva como disciplina emergente quedaron establecidas con la publicación en 1967 de la obra de Ulric Neisser Cognitive Psychology. Neisser define la cognición como "todos los procesos mediante los cuales la entrada sensorial es transformada, reducida, elaborada, almacenada, recuperada y utilizada".1
Entre otras implicaciones, suponía focalizar la investigación en el estudio del procesamiento mental interno, en lugar de limitarse al análisis de conductas observables. Y reforzaba la necesidad de estudiar diversos niveles de procesamiento, desde la percepción hasta el uso práctico de la información, lo que en la práctica fomentó la integración de aportaciones procedentes de disciplinas como la inteligencia artificial, la lingüística, la neurociencia y la filosofía, consolidando programas y marcos de trabajo genuinamente interdisciplinares.
Las alusiones a transformar y almacenar denotan una visión mecanicista de la mente, tratándola a efectos metodológicos como un sistema de procesamiento de información. Este enfoque impulsó el desarrollo de modelos computacionales diseñados para simular procesos mentales, influyendo tanto en la psicología cognitiva como en el campo de la inteligencia artificial. Aunque algunas tecnologías emergentes mostraban potencial para eliminar obstáculos recurrentes en la observación directa de procesos cognitivos, Neisser sostuvo que tales procesos podían ser inferidos mediante diseños experimentales adecuados y modelados teóricamente. En la práctica, esto supuso un claro alejamiento del conductismo estricto, que había dominado gran parte de la investigación en psicología durante el siglo XX.2
En la década de 1980 se produce la consolidación institucional y teórica del nuevo enfoque, que refuerza la interdependencia entre la psicología cognitiva y la neurobiología en su nueva denominación: la neurociencia cognitiva. Pero es obvio que los desarrollos previos en inteligencia artificial y ciencias de la computación facilitaron los trabajos centrados en modelos computacionales de la mente. De hecho, el computacionalismo —una teoría funcionalista en filosofía de la mente— tenía ya un extenso recorrido como marco de trabajo que entendía la mente como un sistema de tratamiento de información y el pensamiento como cálculo (o cómputo) mediante la aplicación de sistemas de reglas. Los desarrollos del computacionalismo se produjeron sobre todo por las aportaciones de Hilary Putnam (a quien se atribuye el término) y Jerry Fodor, más que por investigadores en algún ámbito del cognitivismo.3, 4, 5, 6
El enfoque computacional aglutinó a investigadores destacados en la década de 1980, en parte por su adecuación a la concepción chomskyana del lenguaje como aplicación de un conjunto de reglas y probablemente porque el modelo computacional era un elemento subyacente tanto en la ciencia cognitiva como en el campo de la inteligencia artificial.
En la perspectiva funcionalista de Putnam los estados mentales son estados funcionales, y cualquier sistema puede tener una mente si su configuración funcional es la adecuada. Los estados mentales son estados que desempeñan roles apropiados en la organización funcional del sistema, y pueden distinguirse entre sí por sus interacciones con la entrada sensorial, la salida motora y con otros estados mentales.7
Donde los conductistas fracasaban —asociar cada estado mental con un patrón característico de comportamiento era una tarea imposible, puesto que los estados mentales individuales no suelen tener efectos conductuales específicos— el funcionalismo presentaba la ventaja de permitir individualizar los estados mentales mediante relaciones características con otros estados mentales (creencias, deseos) y no solo con la información sensorial y el comportamiento. Según Putnam, el comportamiento casi siempre resulta de la interacción entre distintos estados mentales, y cada estado mental puede ser realizado por diversos sistemas físicos, no exclusivamente por aquellos con un sustrato biológico: un mismo patrón de organización podría ser el resultado de estructuraciones físicas diferentes.5
Aunque en español "computable" es sinónimo de calculable, calculabilidad refiere en este contexto a las posibles transformaciones de una señal de entrada en una señal de salida, mediante un algoritmo bien definido. Pero no implica que todo pensamiento o estado mental pueda reducirse a un cálculo de este tipo: solo la posibilidad de entender ciertas funciones del pensamiento —conscientes o subconscientes, como constató David Marr en el proceso de la visión— estructuradas sobre la base de este modelo. Según Marr, los procesos cognitivos tienen tres niveles de descripción: el nivel computacional, que describe el problema computacional resuelto por el proceso cognitivo; el nivel algorítmico, que presenta el algoritmo utilizado para computar el problema postulado a nivel computacional; y el nivel implementacional, que describe la implementación física del algoritmo postulado a nivel algorítmico en el cerebro.8
La teoría computacional de la mente ha recibido críticas sustantivas, incluso de sus propios proponentes. Jerry Fodor considera que difícilmente la teoría computacional podría explicar la mayor parte de la cognición de naturaleza abductiva y global, dependiente de otras posibles creencias de fondo relevantes para afirmar o desmentir una creencia particular. Por lo tanto, la relevancia de una creencia no reside en sus propiedades sintácticas locales, sino en su contexto.9 También Putnam —en Representación y Realidad— criticó el computacionalismo apoyándose en argumentos como la habitación china de John Searle, más algunas observaciones relativas a las relaciones de referencia entre el mundo y las palabras.10
Parece improbable que el supuesto de que las mentes procesan información, sea cual sea el tipo de procesamiento involucrado (jerárquico o distribuido en diverso grado), pierda plausibilidad en la ciencia cognitiva. No obstante, Putnam considera que la cuestión de si la mente humana puede implementar estados computacionales no es relevante para la cuestión de la naturaleza de la mente: es el cálculo lo que equivale a la conciencia, independientemente de si el cálculo se realiza en un cerebro o en una computadora.11, 12
Uso de terapia génica —en lugar de implante coclear— para corregir la sordera congénita
Mouzo, J. (2024, 26 mayo). "Aissam, el niño que escapó de un mundo en silencio gracias a la terapia génica". El País. https://elpais.com/salud-y-bienestar/2024-05-26/aissam-el-nino-que-escapo-de-un-mundo-en-silencio-gracias-a-la-terapia-genica-estoy-oyendo-el-telefono.html
El art. sirve de base para el estudio de caso porque cubre razonablemente bien los aspectos centrales:
- Se trata de un caso de sordera congénita para la que no está indicada la opción de implante coclear; esta circunstancia no ha sido inconveniente para seguir buscando alternativas, tras un estudio detenido del caso.
- La falta de audición se debe a un factor genético determinante, aunque recesivo (los progenitores son portadores, pero no padecen la enfermedad): una mutación en el gen otof que codifica la otorfelina, una proteína de las células que transmiten el sonido a través del líquido coclear.
- Tampoco funciona la estimulación del nervio en este caso, por lo que un implante no resolvería el problema.
- La intervención con células modificadas genéticamente fue de bajo riesgo, en apenas dos horas.
- La recuperación de audición es total en las frecuencias agudas, aunque incompleta para las frecuencias graves.
- El artículo menciona otros estudios en curso para adelantar el tratamiento a edades más tempranas.
- Sin embargo, el pronóstico de una evolución prometedora no podrá compensar las limitaciones cerebrales ocasionadas por la limitación sensorial en los primeros meses, que determina la especialización de áreas cerebrales para el desarrollo del lenguaje:
“Todo lo que se trata después de estos tres primeros años de vida y de desconexión entre oído y cerebro, los resultados empeoran mucho porque se ocupa el cerebro con otras cosas y las vías auditivas ya no se desarrollan de la misma manera”, lamenta Haag. También influye cuánto se trabaja y se estimula desde pequeño, porque hay pacientes pediátricos sordos “que pueden ser locutivos y hablar”, agrega. Pero no es el caso de Aissam. “Si no se hace esto, pues no hay lenguaje ni comprensión. Y ahora él tendrá la entrada auditiva, pero sí la conexión entre la cóclea y el cerebro no está trabajada y tampoco tiene en el disco duro, en el córtex del cerebro, un espacio dedicado a audición e integrado ahí, irá mejorando lo que oye o entiende, pero no será suficiente. Aunque notará mejoría”.
Valoración:
El hecho de que el tratamiento exitoso puede facilitar la asistencia a un centro para la escolarización cambia por completo la situación. Mejora en aspectos decisivos, y los progenitores no descartan el mismo tratamiento en el otro oído ni la posibilidad de implante.
Es un buen ejemplo para estudio de caso, donde se tratan con detalle y rigor los aspectos relevantes. Sirve para ilustrar la importancia de optar por "biotecnologías" (edición genética, en este caso) que eviten el recurso a dispositivos electrónicos externos y material en las interfaces que puede deteriorarse por problemas de biocompatibilidad.
Debate:
- ¿Quién, aparte de la familia y del equipo médico que hizo el diagnóstico y propuso el abordaje terapéutico, debería intervenir en el proceso?
- ¿Sería relevante un criterio de la comunidad de personas sordomudas a través de sus representantes, desaconsejando el tratamiento?
- Aunque las ventajas no permitan recuperar toda la capacidad comunicativa perdida en los primeros años, ¿compensan las mejoras parciales obtenidas a los inconvenientes mencionados?
- ¿Debería financiar la Seguridad Social tratamientos de este tipo, o deben quedar solo para las familias con más recursos?
- ¿Qué indica el caso sobre las bases del lenguaje en la especie humana y la configuración de los módulos cerebrales en ausencia de los estímulos sensoriales acústicos?
1. Neisser, U. (1967). Cognitive psychology. Appleton-Century-Crofts. Pág. 4.
2. Baars, B. J. (1986). The Cognitive Revolution in Psychology. Guilford Press.
3. Pylyshyn, Z. W. (1986). Computation and Cognition: Toward a Foundation for Cognitive Science. MIT Press.
4. Reeke, G. N., & Sporns, O. (1993). Behaviorally Based Modeling and Computational Approaches to Neuroscience. Annual Review Of Neuroscience, 16(1), 597-623. https://doi.org/10.1146/annurev.ne.16.030193.003121
5. Putnam, H. (1960) ‘Minds and Machines’, in Philosophical Papers, vol. 2, Mind, Language and Reality, Cambridge: Cambridge University Press, 1975.
6. Fodor, J. (1975) The Language of Thought, New York: Crowell.
7. Putnam, H. (1967). Psychological predicates. In W.H. Capitan and D.D. Merrill, (Eds.), Art, Mind, and Religion (pp. 37–48). Pittsburgh: University of Pittsburgh Press, 37–48.
8. Marr, D. (1982). Vision: A computational investigation into the human representation and processing of visual information. W. H. Freeman.
9. Fodor, J. (2000). La mente no funciona así: El alcance y los límites de la psicología computacional . Cambridge, MA y Londres: The MIT Press.
10. Searle, J. (1980). Minds, Brains, and Programs. In Behavioral and Brain Sciences, 1980, nº 3, 417-457.
11. Putnam, H. (1988). Representation and Reality, Cambridge, MA: MIT Press.
12. Putnam, H. (1975). Mind, Language, and Reality: Philosophical Papers, vol. 2, Cambridge: Cambridge University Press.
A finales de los 80 la neurociencia disponía de nuevas herramientas para intentar cartografiar los procesos mentales sobre la estructura y función del cerebro, en particular gracias a las tecnologías emergentes de visualización cerebral. La resonancia magnética funcional (fMRI) hizo posible observar el cerebro “en vivo” mientras realiza tareas cognitivas. Esto revolucionó la investigación psicológica, posibilitando la localización de funciones como la memoria, el lenguaje y la percepción en circuitos neurales específicos.1
Michael Gazzaniga y otros investigadores desarrollaron una serie de estudios en pacientes con callosotomía (cerebro dividido), demostrando que cada hemisferio contribuía de manera diferente a la cognición y cómo el cerebro interpreta sus propias acciones. Diversos hallazgos hicieron verosímil la noción de intérprete del hemisferio izquierdo –el mecanismo cerebral que construye narrativas para dar coherencia a nuestras acciones–, como novedad destacada del tipo de conocimientos que introdujo la neurociencia cognitiva sobre la mente humana.2
Los hallazgos experimentales dieron plausibilidad a múltiples extrapolaciones sobre cómo el cerebro articula la experiencia consciente. Cuando la información disponible entra en conflicto con nuestra visión de mundo o cuando surge una duda o una contradicción, una parte de nuestro cerebro ubicada en el lado izquierdo y asociada al lenguaje se pone en funcionamiento y esboza rápidamente una explicación satisfactoria. A esta estructura Gazzaniga la denominó intérprete, y solo es consciente de la información que recibe, sean cuales sean los módulos específicos donde se hayan procesado las señales relevantes.3
El estudio de pacientes con diversas lesiones en el nervio óptico y en la corteza visual inducía a pensar que la consciencia es el resultado de una constelación de procesos locales, cuya información debe llegar al intérprete en el hemisferio izquierdo para que aparezca en la narrativa generada. La evidencia sobre el funcionamiento del intérprete reforzó intuiciones previas de autores como Bernard Baars, cuya teoría sobre el espacio de trabajo global sugiere la existencia de una función ejecutiva en el escenario —una especie de "Teatro de la Conciencia"— que presta atención selectiva a un número incalculable de espectadores que gritan para ser escuchados. Michael Gazzaniga aportó evidencia neurofísica de estas nociones.4, 5, 6
La comprensión de la consciencia como resultado del procesamiento por redes distribuidas de áreas cerebrales funcionalmente específicas, que pueden verse afectadas de manera selectiva y que a pesar de sufrir daños parciales no impiden en muchos casos una experiencia consciente unitaria y coherente, requirió varias décadas de trabajo experimental. El conexionismo de segunda generación y las redes neuronales irrumpen a mediados de los ochenta como modelos alternativos de la cognición. Su enfoque distribuido contrastaba con la visión simbólica clásica (basada en reglas lógicas y representaciones explícitas), e hizo posible un rápido progreso en simulaciones de neuronas artificiales interconectadas, capaces de aprender mediante ajuste de pesos sinápticos (con algoritmos de retropropagación, p. ej.).7
En su obra Parallel Distributed Processing (1986), Rumelhart y McClelland intentaron explicar fenómenos cognitivos como la adquisición del lenguaje mediante modelos de redes neuronales artificiales. Una arquitectura diseñada para el procesamiento masivo en paralelo explica la capacidad extraordinaria de la mente humana para aprender lenguajes y desarrollar procesos complejos de cognición, mediante el refuerzo de patrones y relaciones entre ellos a través de la experiencia. Asumen que la mente está compuesta por un gran número de unidades elementales conectadas en una red neuronal, cuyas interacciones —por excitación e inhibición mutua en paralelo, en lugar de operar secuencialmente— causan los procesos mentales. En este enfoque, el conocimiento no se considera algo susceptible de ser almacenado en estructuras localizadas, sino el resultado de conexiones entre unidades distribuidas por la red neuronal.7
El conexionismo contribuyó a expandir la red de influencia interdisciplinar de la neurociencia en campos como la computación, la lingüística y la inteligencia artificial. Procesos psicológicos implicados en la percepción visual, la toma de decisiones y la comprensión lingüística pudieron modelarse mediante redes funcionando en paralelo, mostrando en algunos casos comportamientos o propiedades emergentes similares a lo observado en humanos. Las técnicas de aprendizaje profundo (deep learning), que han sido cruciales en el entrenamiento de los modelos actuales de IA para conseguir que igualen o superen el desempeño humano en bancos de pruebas exigentes, descienden directamente de los modelos conexionistas mencionados.8, 9
En la última década, sus aplicaciones en diversos campos de la investigación en neurociencia han hecho posible avances notables en la comprensión de la visión y otras funciones cerebrales (cognitivas, perceptivas), induciendo mejoras en teorías de la representación y algoritmos más eficientes para su implementación en hardware. La convergencia entre ciencias de la computación, neurobiología y psicología refleja la diversificación del paradigma cognitivo a partir de los ochenta, incluso con marcos de trabajo que involucran a cognitivistas clásicos y conexionistas.10
1. Raichle, M. E. (2003). Functional Brain Imaging and Human Brain Function. Journal Of Neuroscience, 23(10), 3959-3962. https://doi.org/10.1523/jneurosci.23-10-03959.2003
2. Gazzaniga, M. S. (2015). Relatos desde los dos lados del cerebro. Editorial Paidós.
3. Roser, M., & Gazzaniga. (2007). The Interpreter in Human Psychology. En Elsevier eBooks (pp. 503-508). https://doi.org/10.1016/b0-12-370878-8/00030-6
4. Baars, B. J. (1997). In the theater of consciousness: The workspace of the mind. Oxford University Press. Ch. 2, 7. https://doi.org/10.1093/acprof:oso/9780195102659.001.1
5. Wolman, D. (2012). The split brain: A tale of two halves. Nature, 483(7389), 260-263. https://doi.org/10.1038/483260a
6. Gazzaniga, M. S. (2012). Who’s in Charge?: Free Will and the Science of the Brain. Ecco. [Trad. esp.: ¿Quién manda aquí?: El libre albedrío y la ciencia del cerebro. Editorial Paidós, 2012]
7. Rumelhart, D.E., J.L. McClelland and the PDP Research Group (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1: Foundations, Cambridge, Massachusetts: MIT Press. Ch. 2, 4, 7, 10, 13.
8. Marcus, G. F. (2003). The algebraic mind: Integrating Connectionism and Cognitive Science. MIT Press.
9. Chen, Z., & Yadollahpour, A. (2024). A new era in cognitive neuroscience: the tidal wave of artificial intelligence (AI). BMC Neuroscience, 25(1). https://doi.org/10.1186/s12868-024-00869-w
10. Barrow, H. (1996). Connectionism and Neural Networks. En Artificial Intelligence (pp. 135-155). https://doi.org/10.1016/b978-012161964-0/50007-8
En los años noventa el estudio del cerebro alcanzó un sólido respaldo institucional, con fuertes inversiones en investigación neurocientífica por parte de las mayores agencias implicadas en la gestión de la ciencia estadounidense. En este decenio del cerebro se aceleró la convergencia de disciplinas y técnicas de trabajo, involucrando a profesionales de la física, la biología, la medicina, la informática y la psicología en el desarrollo de técnicas de mapeo cerebral para avanzar en el estudio de las redes neuronales y las teorías de la cognición.
A finales de los 90 se hablaba ya de una segunda revolución cognitiva, como resultado de la incorporación de la magnetoencefalografía, la estimulación magnética transcraneal y el análisis computacional de grandes bases de datos cognitivos. La diversificación de las herramientas de trabajo propició la emergencia de subdisciplinas híbridas: neuroeconomía (economistas y psicólogos usando fMRI para estudiar la decisión), neurolingüística (unión de lingüistas con neurocientíficos cognitivos para explorar el lenguaje en el cerebro), neuroantropología (estudio cultural del cerebro) y algunos programas de convergencia entre ciencias naturales y sociales.1, 2, 3
El enfoque integrador de disciplinas en el campo de la neurociencia, la inteligencia artificial y la psicología evolutiva obligó a revisar la interpretación de la mente como mero sistema procesador de información. La investigación interdisciplinar reforzó más bien un modelo de sistema dinámico influido por factores biológicos, sociales y culturales, destacando la importancia de las emociones, el contexto y la interacción social en los procesos mentales. Las aportaciones de Antonio Damasio y otros cuestionaban la separación rígida entre emoción y cognición, demostrando con casos convincentes que la toma de decisiones racionales depende críticamente de respuestas emocionales viscerales (marcadores somáticos) que señalizan el valor de las opciones.2, 4, 5
En su obra El error de Descartes (1994), Damasio argumentó que razón y emoción operan conjuntamente para producir un comportamiento adaptativo, reorientando algunas líneas de trabajo en psicología y neurociencia hacia la incorporación del sistema límbico y las respuestas afectivas dentro de los modelos cognitivos.4, 7 Jaak Panksepp y otros investigadores mapearon circuitos emocionales básicos en el cerebro de mamíferos, constatando la influencia de estados emocionales en la atención, la memoria y la toma de decisiones.6
Este tipo de aportaciones rápidamente captaron el interés de muchos economistas —por la posibilidad de explicar decisiones económicas irracionales mediante sesgos cognitivo-emocionales— y de expertos en ciencia política —para comprender el papel de las emociones en las decisiones electorales, por ejemplo—. Un enfoque de la cognición encarnada en respuestas fisiológicas contribuyó también al desarrollo de nuevos abordajes terapéuticos centrados en el papel de las emociones.7
Pero el cambio de foco hacia el componente emocional en la respuesta cognitiva puso de manifiesto el sesgo que una perspectivas de arriba hacia abajo (cortical hacia subcortical) dominante había introducido en el estudio de la cognición, traducida en modelos donde faltaban los componentes no cognitivos concurrentes de pensamiento, cuyo desarrollo es más bien de abajo hacia arriba.8
Esta imprecisión en el manejo de conceptos cerebrales ha podido obstaculizar el progreso en la búsqueda de nuevos tratamientos y medicamentos para enfermedades psiquiátricas y trastornos neuroconductuales. Las redes inferiores del cerebro resultan fundamentales para la construcción de los aspectos superiores de procesamiento de información de la mente y las posibilidades de control de estado afectivas y motivacionales.9
1. Gazzaniga, M. S., Ivry, R. B., & Mangun, G. R. (2018). Cognitive neuroscience: The biology of the mind (4ª ed.). W. W. Norton. Ch. 74-75;
2. Glimcher, P. W. (2013). Neuroeconomics: Decision Making and the Brain. Academic Press.
3. Lende, D. H., & Downey, G. (Eds.). (2012). The encultured brain: An introduction to neuroanthropology. The MIT Press.
4. Damasio, A. R. (1994). Descartes' Error: Emotion, Reason, and the Human Brain. New York, NY: Grosset/Putnam.
5. Overskeid, G. (2021). Can Damasio’s somatic marker hypothesis explain more than its originator will admit? Frontiers In Psychology, 11. https://doi.org/10.3389/fpsyg.2020.607310
6. Panksepp, J. (1998). Affective neuroscience: The foundations of human and animal emotions. Oxford University Press.
7. Damasio, A. (2021). Feeling & knowing: Making Minds Conscious. Pantheon.
8. Damasio, A. (2021b). Feeling & knowing: Making Minds Conscious. Vintage. Part II, Ch. 6 ("On Being, Feeling, and Knowing").
9. Cromwell, H. C., & Panksepp, J. (2011). Rethinking the cognitive revolution from a neural perspective: How overuse/misuse of the term ‘cognition’ and the neglect of affective controls in behavioral neuroscience could be delaying progress in understanding the BrainMind. Neuroscience & Biobehavioral Reviews, 35(9), 2026-2035. https://doi.org/10.1016/j.neubiorev.2011.02.008
Las limitaciones del modelo cognitivista clásico resultaban evidentes para muchos investigadores en activo al inicio del siglo XXI. Asociado a la analogía de que la mente humana funciona como un procesador de información, cuyos procesos pueden descomponerse en pasos secuenciales —algoritmos— que manipulan representaciones simbólicas del mundo externo en las tareas básicas de percepción, memoria y razonamiento, seguía vigente en áreas como la IA simbólica pero no inspiraba proyectos innovadores en otros campos. En su valoración personal del alcance de la revolución cognitiva publicada en 2003, G. Miller expresaba con cierta nostalgia su apego incondicional al modelo clásico:
Algunos veteranos de aquellos días se preguntan si el programa tuvo éxito y si realmente existe algo que ahora llamamos «ciencia cognitiva». Yo prefiero hablar de ciencias cognitivas, en plural. Pero el sueño original de una ciencia unificada que descubriera las capacidades de representación y computación de la mente humana y su realización estructural y funcional en el cerebro humano sigue teniendo un atractivo que no puedo resistir.1
Menciona de pasada el programa de becas para investigación interdisciplinar que, a través de la Fundación Sloan, incorporó a Michael Gazzaniga y otros pioneros del campo de la neurociencia cognitiva en la primera mitad de los años 80. De manera sutil sugiere que ese contexto de actividad y convergencia interdisciplinar fue el adecuado para potenciar la ampliación y diversificación de objetivos en el programa clásico de ciencia cognitiva. Lo cierto es que en pocos años Gazzaniga publica la primera edición de The Cognitive Neurosciences (octubre de 1994, MIT Press), una obra que marcó un hito en el campo de las neurociencias cognitivas y que de manera efectiva incorporó a decenas de especialistas para ofrecer una perspectiva interdisciplinar sobre el funcionamiento de la mente humana.2
Por su naturaleza transversal, y una vez alejada de los modelos formales que limitaban su desarrollo, la ciencia cognitiva resultó una pieza central en las perspectivas integradoras de otros autores como el biólogo Edward O. Wilson, quien en su obra Consilience (1998) propuso conectar las explicaciones que permitían establecer el puente entre las ciencias del cerebro, las ciencias del comportamiento y las ciencias sociales. Tal empresa solo parecía viable sobre la base de un lenguaje común, que incorporara teorías, conceptos y modelos necesarios para entender los fenómenos y procesos relevantes desde el nivel genético hasta las aportaciones de la biología evolutiva y las humanidades en torno a principios comunes.3
Como texto de divulgación científica rigurosa y estimulante, la obra de Wilson fue un éxito de ventas internacional. Sus aportaciones más detalladas se refieren a las redes causales que conectan el comportamiento y la actividad mental con el nivel genético (cap. 7.: "De los genes a la cultura"); y al aluvión de resultados experimentales (cap. 6.: "La mente") que permiten entender el cerebro en acción, sin el corsé de los modelos computacionales o del dualismo cartesiano:
«La creencia en la unidad intrínseca del conocimiento (la realidad del laberinto) cabalga en último término sobre la hipótesis de que cualquier proceso mental tiene un fundamento físico y es consistente con las ciencias naturales. La mente es sumamente importante para el programa de consiliencia por una razón a la vez elemental y perturbadoramente profunda: todo lo que conocemos y podremos llegar a conocer acerca de la existencia se crea allí.
Al principio puede parecer que las formas más elevadas de tal reflexión y creencia se encuentren en el ámbito de la filosofía, no de la ciencia. Pero la historia demuestra que la lógica lanzada únicamente desde la introspección carece de impulso, puede viajar sólo hasta una cierta distancia, y por lo general toma la dirección equivocada. Gran parte de la historia de la filosofía moderna, desde Descartes y Kant en adelante, consiste en modelos del cerebro que fracasaron. Tal deficiencia no es culpa de los filósofos, que han llevado de manera obstinada sus métodos hasta el límite, sino una consecuencia directa de la evolución biológica del cerebro. Todo lo que se ha aprendido de manera empírica acerca de la evolución, en general, y del proceso mental, en particular, sugiere que el cerebro es una máquina ensamblada no para comprenderse a sí misma, sino para sobrevivir. Puesto que estos dos objetivos son básicamente distintos, el cerebro, sin la ayuda del conocimiento objetivo que le suministran las ciencias, ve el mundo sólo en pequeños fragmentos.» (Consilience, 1999: 143)
En clave epistemológica, esta evolución del interés multidisciplinar por las ciencias cognitivas significó un alejamiento de visiones reduccionistas: ni la psicología podía explicar todo el comportamiento ignorando al cerebro, ni la biología podía explicar la mente sin conceptos de niveles superiores. A finales de los años 90 se dieron las condiciones para una aproximación más amplia con raíces interdisciplinares sólidas y metodologías ligadas a técnicas de mayor potencial y resolución, que reforzaron la ecología del marco teórico donde mente, cerebro, cuerpo y entorno debían estudiarse en interacción dinámica.
Aunque el interés por los modelos formales (sistemas de procesamiento de información, nociones de representación, etc.) no desaparece, los nuevos enfoques convergen en la importancia que otorgan a la dimensión corporal y a la variabilidad cognitiva resultante de la sensibilidad a contextos ricos e impredecibles (enactivismo). En la práctica, este giro en las ciencias cognitivas supone incorporar en los objetivos y métodos de investigación el análisis del sustrato corporal y la sensibilidad para comprender la flexibilidad de los procesos cognitivos, la naturaleza dinámica de la experiencia y el valor de los sistemas culturales que sustentan o nutren la actividad cognitiva.4
En un par de párrafos específicamente centrados en analizar el fenómeno de la consciencia puede constatarse cómo el biólogo E. O. Wilson incorpora aportaciones del modelo conexionista pero intenta superar las limitaciones del enfoque clásico con nuevos elementos de la investigación interdisciplinar reciente:
«La consciencia consiste en el procesamiento en paralelo de un enorme número de tales redes de codificación. Muchas están conectadas por el disparo sincronizado de las neuronas a cuarenta ciclos por segundo, lo que permite la cartografía interna simultánea de múltiples impresiones sensoriales. Algunas de tales impresiones son reales, producidas por la estimulación que procede del exterior del sistema nervioso, mientras que otras son rememoradas desde los bancos de memoria de la corteza. En su conjunto, crean los argumentos o escenarios que fluyen de manera realista hacia delante y hacia atrás a través del tiempo. Los argumentos son una realidad virtual. Pueden casar perfectamente con fragmentos del mundo externo, o bien apartarse indefinidamente lejos del mismo. Recrean el pasado y plantean futuros alternativos que sirven como opciones para pensamientos y acciones corporales futuros. Los argumentos comprenden pautas densas y finamente diferenciadas en los circuitos cerebrales. Cuando están completamente abiertos a las entradas procedentes del exterior, corresponden bien a todas las partes del ambiente, incluyendo la actividad de partes del cuerpo, supervisada por los órganos de los sentidos.
¿Quién o qué en el interior del cerebro supervisa toda esta actividad? Nadie. Nada. Los argumentos o escenarios no son vistos por alguna otra parte del cerebro. Simplemente, son. La consciencia es el mundo virtual compuesto por los escenarios. No existe ni siquiera un teatro cartesiano, para utilizar la frase con la que Daniel Dennett lo desecha, ni un solo lugar del cerebro en el que los escenarios sean representados de forma coherente. En lugar de eso, existen pautas entrelazadas de actividad neural dentro de lugares concretos del prosencéfalo, y entre ellos, desde la corteza cerebral a otros centros especializados de cognición, tales como el tálamo, la amígdala y el hipocampo. No hay un único torrente de consciencia en el que toda la información sea agrupada por un ego ejecutivo. En lugar de ello, hay múltiples corrientes de actividad, algunas de las cuales contribuyen momentáneamente al pensamiento consciente y después se van eliminando por etapas. La consciencia es el gran conjunto acoplado de tales circuitos implicados. La mente es una república autoorganizativa de argumentos que, de manera individual, germinan, crecen, evolucionan, desaparecen y ocasionalmente se demoran para generar pensamiento y actividad física adicionales.» (Consilience, 1999: 162-163)
Otras obras aparecidas con pocos años de diferencia coincidían en enfatizar que los procesos mentales emergen de la interacción con el cuerpo y el entorno, no solo de cómputos abstractos en el cerebro. Contribuyeron a extender la convicción de que las ciencias de la mente deben abarcar la experiencia humana vivida y las posibilidades de transformación asociadas (reducción del estrés basado en la atención plena, p. ej.).5
Sin embargo, la hipótesis de la mente extendida —que cuestiona la separación entre la mente, el cuerpo y el entorno, por el papel que los objetos externos desempeñan en los procesos cognitivos al funcionar como un "sistema acoplado" que puede considerarse un sistema cognitivo completo en sí mismo— suscitó recelo por la dificultad para establecer los límites en la extensión de la mente al mundo físico. Si la noción tradicional de mente restringida al cerebro resultaba incómoda, su ampliación al mundo físico mediante herramientas externas (libretas, utensilios, ordenadores y dispositivos móviles, p. ej.) suponía que prácticamente cualquier cosa podía convertirse en componente esencial de nuestros procesos cognitivos, proyectando el estudio de los procesos cognitivos hacia ámbitos filosóficos y antropológicos bastante difusos (¿dónde termina la extensión del “yo” cognitivo?).6, 7, 8
El debate al respecto no impidió que las ideas sobre la cognición corporizada permearan la investigación mainstream. Lakoff y Johnson expusieron de manera convincente que las metáforas conceptuales tienen bases sensorimotoras en el cerebro y que la cognición social humana depende de neuronas espejo y simulaciones corporales de las acciones de otros.9
Hasta cierto punto resulta intuitivo aceptar que algunos elementos del entorno, como dispositivos tecnológicos y artefactos de distinta índole, pueden desempeñar un papel activo en la cognición, como parte de procesos donde su función puede ser determinada de manera clara e inequívoca, incluyendo las condiciones en las que ciertos artefactos se pueden considerar componentes genuinos de la mente de un sujeto. La estrategia en el modelo teórico de la mente extendida considera poco relevante la localización del dispositivo, una vez determinado su rol cognitivo. Reconocer el bio-prejuicio que induce a priorizar lo que sucede dentro de la barrera del organismo en el intento de determinar el espacio genuino de lo mental no parece problemático, en principio.9
Pero una de las objeciones más conocidas contra la teoría de la mente extendida señala la falacia de constitución por acoplamiento. Planteada en 2001 por Fred Adams y Ken Aizawa —y recogida también por Rob Rupert en 2004—, señala que el hecho de que un objeto o proceso esté acoplado causalmente a un agente no es suficiente para que este objeto constituya o sea parte de dicho agente, ni de su sistema cognitivo. No se debe confundir acoplamiento o conexión causal con constitución. No todos los acoplamientos entre el agente biológico y algún artefacto externo dan lugar a una extensión cognitiva o mental.10, 11
Podría bastar, quizá, que algunos acomplamientos lo logren, para sustentar la hipótesis de la cognición extendida. En tal caso será la investigación teórica en el campo la vía para determinar qué tipos de acoplamientos constituyen casos de extensión, en función de la relación causal involucrada. Pero es probable que ni siquiera en las relaciones causales no lineales desaparezca la impresión de incurrir en un uso falaz de la hipótesis. Subyace en esta discusión el recelo señalado por Cromwell y Panksepp, entre otros neurocientíficos, al uso indiscriminado del término “cognición”.12
No se discute la necesidad de reintegrar las motivaciones y afectos en las teorías del comportamiento para no perder de vista cómo funciona realmente el cerebro, integrando procesos de niveles subcorticales y corticales. Pero el modelo de cognición corporizada, situada y distribuida difumina notablemente los componentes esenciales a integrar en el sistema cognitivo. Súmese el resultado de los estudios evolutivos y de la etología comparada, para entender las transformaciones ocurridas en el campo de la ciencia cognitiva y las neurociencias cognitivas entre 1980 y 2020.13, 14
La revolución iniciada a mediados de siglo XX sentó las bases para una secuencia de revoluciones secundarias —conexión con la neurociencia, integración del sustrato emocional, incorporación de los estudios evolutivos, culturales y en filosofía de la mente— que ampliaron extraordinariamente el ecosistema interdisciplinar de referencia, de modo que las ciencias cognitivas abarcan hoy desde el nivel molecular (genética del comportamiento) hasta el social (dinámicas cognitivas en grupos), con metodologías que van de la modelación computacional a la etnografía. Este proceso de refuerzo de las relaciones interdisciplinares encaja bastante con el programa de investigación que Miller proponía en 1978; pero las revoluciones sucesivas ocurrieron por la implicación de disciplinas hasta entonces aisladas en los intentos de proporcionar explicaciones más completas de la cognición. Las voces críticas no frenaron el avance; más bien enriquecieron el panorama teórico. Esto hizo de la revolución cognitiva un paradigma evolutivo en sí mismo: abierto a revisión, asimilando nuevas evidencias, metodología y corrientes; y desarrollando una comprensión cada vez más compleja de la mente.1, 2, 14
1. Miller, G. A. (2003). The cognitive revolution: a historical perspective. Trends In Cognitive Sciences, 7(3), 141-144. Texto citado: p. 144. https://doi.org/10.1016/s1364-6613(03)00029-9
2. Gazzaniga, M. S., & Mangun, G. R. (2014). The Cognitive Neurosciences, fifth edition. MIT Press.
3. Wilson, E. O. (1998). Consilience: The Unity of Knowledge. Knopf, Ch. 4, 6, 7, 9. Edición española: (1999). Consilience : la unidad del conocimiento. Galaxia Gutenberg.
4. Quirós, D. A. E., Rojas, A. L. D., & Yáñez-Canal, J. (2024). El estudio de la cognición: hacia una perspectiva corporizada. Psicologia USP, 35. https://doi.org/10.1590/0103-6564e210099
5. Varela, F. J., Thompson, E., & Rosch, E. (2017). The Embodied Mind, revised edition: Cognitive Science and Human Experience. MIT Press.
6. Clark, A. & Chalmers, D. (1998). The extended mind. Analysis, 58, 1, 7-19.
7. Clark, A., & Chalmers, D. (2011). La mente extendida. KRK Ediciones.
8. Clark, A. (2008). Supersizing the Mind: Embodiment, Action, and Cognitive Extension: Embodiment, Action, and Cognitive Extension. Cambridge University Press.
9. Lakoff, G. y Johnson, M. (1980). Metaphors We Live By. University of Chicago Press.
10. Adams, F. y K. Aizawa (2001): “The Bounds of Cognition”, Philosophical Psychology, 14, pp. 43-64.
11. Rupert, R. D. (2004): “Challenges to the Hypothesis of Extended Cognition”, Journal of Philosophy, 101(8), pp. 389-428.
12. Cromwell, H. C., & Panksepp, J. (2011). Rethinking the cognitive revolution from a neural perspective: How overuse/misuse of the term ‘cognition’ and the neglect of affective controls in behavioral neuroscience could be delaying progress in understanding the BrainMind. Neuroscience & Biobehavioral Reviews, 35(9), 2026-2035. https://doi.org/10.1016/j.neubiorev.2011.02.008
13. Palermos S.O (2014): “Loops, Constitution and Cognitive Extension”, Cognitive Systems Research, 27, pp. 25-41.
14. Araya-Véliz, C., Arístegui, R., & Fossa, P. (2017b). Pasos hacia una enacción relacional. Aporte, ambigüedades y limitaciones del concepto embodied mind en Francisco Varela: un análisis metateórico. Mindfulness & Compassion, 2(1), 41-46. https://doi.org/10.1016/j.mincom.2016.12.003
La convergencia de intereses, problemas y resultados de referencia en los campos disciplinares de las ciencias cognitivas y las ciencias de la vida, con aportaciones especialmente destacadas en la teoría de la evolución biológica y el estudio del comportamiento animal (etología), suponen otro hito reseñable alineado con el programa de consiliencia que impulsó Edward O. Wilson a finales de los noventa. En respuesta a la pregunta fundamental —¿cómo y por qué surgió la cognición tal como la conocemos?—, numerosos investigadores habían comenzado a explorar en los años 80 las raíces evolutivas de la mente humana, comparando las habilidades cognitivas de Homo sapiens con las de otras especies y aplicando principios darwinianos para explicar su origen. El resultado de este intercambio de intereses disciplinares ha consolidado campos como la psicología evolutiva, la cognición comparada y la antropología cognitiva.1, 2, 3, 4, 5, 6, 7
Como antecedente lejano cabe mencionar la obra Sociobiology: The new synthesis (1975), en la que Wilson se propuso explicar el comportamiento social animal y algunas manifestaciones del humano mediante la selección natural. Pese a la controversia ética e intelectual que diversas revisiones de la obra suscitaron entre científicos naturales y humanistas, muchos de los casos y estudios recogidos en ella allanaron el camino para pensar la mente en términos adaptativos. Conviene aclarar que el propio Wilson nunca defendió una interpretación rígidamente determinista de la coevolución entre genes y cultura, y estaba convenciado de que incluso intelectuales perspicaces de las ciencias sociales y de las humanidades se equivocaron al pensar que los genes dictan determinadas formas de cultura (una idea que ya consideraba desacreditada antes de 1975):
Mientras que es cierto que la cultura, definida estrictamente como comportamiento complejo aprendido socialmente, se halla limitada evidentemente a los seres humanos, y en consecuencia también es única la reciprocidad entre los genes y la cultura en tanto que ambiente, el principio subyacente es el mismo. No hay nada contradictorio en decir que la cultura surge de la acción humana mientras que la acción humana surge de la cultura.9
La aceleración en la evolución cultural producida por el desarrollo de la escritura y otras herramientas en el periodo histórico solo induce a los incautos a pensar que el papel de los genes y las fuerzas de la selección natural han desaparecido en las sociedades humanas:
Pudiera parecer que la celeridad de la evolución cultural en tiempos históricos, por sí misma, implica que la humanidad se ha desprendido de sus instrucciones genéticas, o que las ha suprimido de alguna manera. Pero esto es una ilusión.
(...) Si no podían mantener el ritmo de la cultura, tampoco la cultura pudo erradicarlos. Para bien o para mal, condujeron a la naturaleza humana al caos de la historia moderna (ibid., pp. 248-249).Por todo ello, tener en cuenta los genes del comportamiento parece un paso prudente cuando se estudia el comportamiento humano. La sociobiología (o la antropología darwiniana, o la psicología evolutiva, o cualquier término políticamente más aceptable con que se elija calificarla) ofrece un eslabón clave en el intento de explicar los cimientos biológicos de la naturaleza humana. Al plantear preguntas enmarcadas en la teoría evolutiva, ya ha dirigido la investigación en antropología y psicología en nuevas direcciones. Su principal estrategia de investigación en los estudios humanos ha consistido en trabajar desde los primeros principios de la genética de poblaciones y de la biología de la reproducción hasta predecir las formas de comportamiento social que confieren la mayor eficacia darwiniana.
Después, las predicciones se cotejan con datos tomados de los archivos etnográficos y los registros históricos, así como de estudios de campo recientes diseñados explícitamente para tal fin. Algunas de tales pruebas se realizan en sociedades preletradas y otras en sociedades tradicionales (ibid., p. 249).
En los 80 y 90 aparecen diversas obras que consolidan la psicología evolucionista como un campo disciplinar en rápido desarrollo. Barkow, Cosmides y Tooby argumentan en The Adapted Mind (1992) que la mente humana consta de módulos cognitivos especializados que fueron seleccionados para resolver problemas recurrentes en la prehistoria (por ejemplo, detectar engaños en intercambios sociales, elegir parejas adecuadas, etc.). Aunque de difícil encaje con evidencia inconstestable, el enfoque evolucionista suscitó hipótesis audaces sobre percepción, lenguaje y emociones, además de presionar para lograr metodologías de análisis con las que obtener evidencia estricta de variación heredable y éxito reproductivo diferencial asociados a características o rasgos adaptativos. Las críticas y advertencias contra narraciones evolutivamente plausibles pero de dudosa verificación experimental vinieron de biólogos como Stephen Jay Gould y Richard Lewontin.11, 12
El riesgo de introducir componentes especulativos en la explicación de la mente mediante el utillaje de la selección natural impulsó tanto un refinamiento teórico como el recurso a metodologías de análisis más robustas, aptas para discriminar el efecto de la interacción con la cultura y otros mecanismos evolutivos, más allá de la selección directa.13, 14
1. Wilson, E. O. (1998). Consilience: The Unity of Knowledge. Knopf, Ch. 4-6.
2. Tomasello, M. (2001). The cultural origins of human cognition. Harvard University Press.
3. Boyer, P. (2001). Religion explained: The evolutionary origins of religious thought. Basic Books.
4. Aguilar, L. A. (1990). Cognición comparada: estudios experimentales sobre la mente animal. Alianz.
5. Nieto, J., & Bernal-Gamboa, R. (2023). Estudios contemporáneos en cognición comparada 1. UNAM, Facultad de Psicología.
6. D’Andrade, R. (2003). The Development of Cognitive Anthropology. UK: Cambridge University Press.
7. Kronenfeld, D., Bennardo, G., De Munck, V., y Fischer, M. (Eds.). (2011). A Companion to Cognitive Anthropology. UK: Wiley-Blackwell.
8. Wilson, E. O. (1975). Sociobiology: The new synthesis. USA: Harvard University Press.
9. Wilson, E. O. (1999). Consilience: la unidad del conocimiento. Galaxia Gutenberg, pág. 246, § 2.
10. Barkow, J. H., Cosmides, L., & Tooby, J. (Eds.). (1992). The adapted mind: Evolutionary psychology and the generation of culture. Oxford University Press.
11. Gould, S. (1997a). Darwinian fundamentalism. New York Review of Books, 44(10): 34-37.
12. Lewontin, R. (1998). The evolution of cognition: Questions we will never answer, en D. Scarborough y S. Sternberg (Eds.), An invitation to cognitive science. Volume 4: methods, models, and conceptual issues (pp. 107-131). USA: The MIT Press.
13. Overmann, K. y Coolidge, F. (Eds.). (2019). Squeezing minds from stones: Cognitive archaeology and the evolution of the human mind. NY: Oxford University Press.
14. Pagel, M. (2012). Wired for culture: Origins of the human social mind. USA: Norton & Company.
Varios experimentos de Michael Tomasello y otros colegas mostraron que mientras grandes simios como los chimpancés tienen habilidades notables para la resolución de problemas físicos, los niños humanos pequeños los superan ampliamente en tareas de cognición social (p. ej., seguir la mirada ajena, inferir intenciones o colaborar en juegos simples). La idea de que la inteligencia social humana es una adaptación singular, posiblemente producto de la selección de grupos cooperativos o de nichos culturales cada vez más complejos, se abrió paso con naturalidad. La hipótesis de la inteligencia cultural enfatizaba el papel en los humanos de ciertas habilidades especializadas de cognición social, determinantes de su mayor ventaja cognitiva general.1
En The Cultural Origins of Human Cognition (1999), Tomasello descarta el papel de nuevas mutaciones cerebrales en la explicación del “asombroso conjunto de habilidades cognitivas” que pueden observarse en los humanos modernos. Su aparición sería más bien un efecto de modos únicos de transmisión cultural acumulativa, a partir de la alta eficacia en las capacidades de aprender unos de otros que desarrollaron nuestros ancestros, probablemente sustentada en elementos como la imitación pormenorizada, la enseñanza activa y la comunicación referencial. Este “efecto de trinquete” cultural —observado en cierto grado en animales no humanos—2, hizo posible la acumulación de conocimientos y prácticas con cada generación. A largo plazo, esta dinámica de evolución cultural acumulativa tuvo un efecto equivalente al rediseño (o “re-ingeniería”) de la cognición humana, dotándonos de habilidades que ningún individuo podría inventar de cero en una sola vida y amplificadas con el uso de lenguajes complejos, tecnologías elaboradas o instituciones sociales, con una capacidad extraordinaria para modificar el modo en que pensamos y percibimos el mundo.3, 4
En paralelo, otras investigaciones con animales aportaban resultados que obligaban a redefinir lo que se había considerado cognición al margen de la especie humana. Se había documentado la memoria episódica en aves, el uso de herramientas en primates y aves, la transmisión de tradiciones entre grupos de cetáceos, e incluso rudimentos de teoría de la mente en especies como los cuervos y los chimpancés.5a, 5b, 5c
La etología cognitiva y el estudio de la conciencia animal estaba aportando nueva evidencia de las continuidades y discontinuidades entre la mente humana y las mentes animales. Este tipo de estudios comparados han tenido un impacto crucial en epistemología y en psicología, obligando a contextualizar la comprensión de rasgos cognitivos humanos como el lenguaje o la moralidad en un marco evolutivo amplio, donde antecedentes análogos en otras especies suponen aportaciones valiosas para deducir qué factores únicos (mutaciones genéticas, presiones ecológicas, dinámicas sociales, etc.) pudieron potenciar su desarrollo en nuestra línea evolutiva.6
Tomasello consideró que la intencionalidad compartida es la capacidad distintiva de los humanos frente a otros primates: la aptitud para participar en actividades conjuntas con metas y atenciones compartidas, lo que resulta especialmente útil a la hora de colaborar en tareas y de enseñar o aprender intencionalmente. Este rasgo o capacidad parece ausente en otros primates y explicaría la complejidad de las formas de cognición social y simbólica que surgen en nuestra especie.7, 8
A poco de nacer, los bebés captan una intencionalidad compartida con los cuidadores, indicativa según Tomasello de un dispositivo innato que les dota de la capacidad de compartir estados psicológicos con otros. Tomasello asume que los vínculos sociales aumentan gradualmente entre los niños y sus cuidadores a través de la fuerza motriz esencial que suge de la intencionalidad compartida, mediante el intercambio de emociones desde el nacimiento.4
Tomasello y otros sugieren la presencia de tres niveles de comprensión de la acción intencional antes de los dos años: 1) la comprensión de los otros como agentes animados, alrededor de los 6 meses; (2) la comprensión de que los agentes realizan acciones dirigidas a metas, aproximadamente a los 9 meses; y (3) la comprensión de que los agentes eligen planes de acción, entre los 12 y los 14 meses. Pero las interpretaciones de la capacidad de intencionalidad compartida resultan ligeramente diferentes, si se hacen desde la etología (y el neonativismo contemporáneo) o la ciencia del desarrollo. Los matices —y las opciones metodológicas— afectan a la importancia que se otorga a la experiencia y a los mecanismos o predisposiciones innatas; a la diferenciación entre adquisición y desarrollo; al papel del contexto o el entorno en la conducta; y a la necesidad de comprender los procesos de cambio involucrados.9, 10
Para los neonativistas, el sujeto tiene un papel más bien pasivo, siendo los mecanismos internos que reciben estímulos del medio el componente clave para producir respuestas acordes a la naturaleza de los estímulos. Según la ciencia del desarrollo, hay posibilidad de transformación cualitativa y cuantitativa durante el ciclo vital, lo cual conecta en parte con los planteamientos clásicos de Piaget y Vigotsky, entre otros.11, 12
Elegir una u otra perspectiva tiene implicaciones relevantes en la comprensión de la agencia. Una constatación del reconocimiento de agencia en edades muy tempranas refuerza la noción de módulos encapsulados, entre los cuales el específico para detectar agencia probablemente tenga pocas variaciones durante el ciclo vital, una vez que entra en funcionamiento. Tomasello y otros sostienen, sin embargo, que la comprensión de la agencia que muestran los infantes no aparece como una habilidad acabada, sino como un proceso que varía en grado y funcionamiento paulatinamente, a través de las experiencias del niño durante su desarrollo.4, 13
Para Tomasello, este primer paso de los infantes en la comprensión de las personas como agentes intencionales es clave para facilitar el aprendizaje cultural y la intencionalidad compartida, puesto que permite a niños pequeños participar en actividades culturales utilizando símbolos compartidos y relacionales cuya versatilidad admite una dimensión convencional, normativa y reflexiva. Estos elementos se ponen en juego en la comunicación lingüística y en los juegos de simulación, lo que les facilita su comprensión de las cuestiones mentales. Sobre los 4 años se constata por lo general un desarrollo muy notable, con habilidades entrenadas en los años previos que les facultan para tomar en cuenta las perspectivas de otras personas e internalizar ideas y valores compartidos por su comunidad. La interacción constante con otras personas y la exposición a prácticas culturales acelera el desarrollo de una capacidad esencial para entender y participar en los sistemas complejos (convenciones, códigos morales, instituciones, roles, etc.) que caracterizan la vida social humana.14
1. Herrmann, E., Call, J., Hernández-Lloreda, M., Hare, B. y Tomasello, M. (2007). Humans have evolved specialized skills of social cognition: The cultural intelligence hypothesis. Science, 317, 1360-1366.
2. Caicedo, O. D. (2016). Evolución cultural acumulativa y 'efecto trinquete' en animales no humanos. Una objeción a Tomasello. Cumulative cultural evolution and 'Ratchet Effect' in nonhuman animals. An objection to Tomasello., 21(1), 51-62. https://dialnet.unirioja.es/descarga/articulo/5796963.pdf
3. Wolf, W., & Tomasello, M. (2023). A Shared Intentionality Account of Uniquely Human Social Bonding. Perspectives On Psychological Science. https://doi.org/10.1177/17456916231201795
4. Tomasello, M., Carpenter, M., Call, J., Behne, T., & Moll, H. (2005). Understanding and sharing intentions: The origins of cultural cognition. Behavioral And Brain Sciences, 28(5), 675-691. https://doi.org/10.1017/s0140525x05000129
5a. Clayton, N. S., & Dickinson, A. (1998). Episodic-like memory during cache recovery by scrub jays. Nature, 395(6699), 272-274. https://doi.org/10.1038/26216
5b. Hunt, G. R., & Gray, R. D. (2004). The crafting of hook tools by wild New Caledonian crows. Proceedings Of The Royal Society B Biological Sciences, 271(suppl_3). https://doi.org/10.1098/rsbl.2003.0085
5c. Rendell, L., & Whitehead, H. (2001). Culture in whales and dolphins. Behavioral and Brain Sciences, 24(2), 309-324. https://doi.org/10.1017/S0140525X0100396X
6. Griffin, D. R. (2001). Animal minds: Beyond Cognition to Consciousness. University of Chicago Press.
7. Tomasello, M. (2016). A natural history of human morality. Harvard University Press.
8. Tomasello, M. (2019). Becoming Human: A theory of ontogeny. Harvard University Press.
9. Velásquez, J. F., Gómez, E. J., Restrepo, X., Chávez, E., Piñeres, J. D., & Villada, J. (2023). ¿Cómo Entendemos el Desarrollo de la Intencionalidad Compartida? Una Revisión Sistemática sobre Acuerdos y Contradicciones. Psykhe (Santiago), 32(2). https://doi.org/10.7764/psykhe.2021.38645
10. Müller, U., & Giesbrecht, G. (2008). Methodological and Epistemological Issues in the Interpretation of Infant Cognitive Development. Child Development, 79(6), 1654-1658. https://doi.org/10.1111/j.1467-8624.2008.01216.x
11. Overton, W. F. (2003). Development across the life span. In R. M. Lerner, M. A. Easterbrooks, & J. Mistry (Eds.), Handbook of Psychology, Volume 6: Developmental Psychology(pp. 13–41). New Jersey: John Wiley & Sons, Inc.
12. Puche-Navarro, R. (2008). Érase una vez el desarrollo. En J. Larreamendy-Joerns, R. Puche Navarro, & A. Restrepo Ibiza (Eds.), Claves para pensar el cambio: Ensayos sobre psicología del desarrollo(pp. 30–70). Bogotá: Ediciones Uniandes.
13. Brandone, A. C. (2015). Infants’ social and motor experience and the emerging understanding of intentional actions. Developmental Psychology, 51(4), 512-523. https://doi.org/10.1037/a0038844
14. Tomasello, M., & Rakoczy, H. (2007). What Makes Human Cognition Unique? From Individual to Shared to Collective Intentionality. Mind & Language, 18(2), 121-147. https://doi.org/10.1111/1468-0017.00217
Otra variante de la convergencia entre disciplinas más bien aisladas hacia finales del siglo XX se produjo desde modelos teóricos aplicados al estudio de las prácticas culturales como entidades sujetas a procesos de evolución darwiniana. Autores como Cavalli-Sforza y Feldman (1981) o Boyd y Richerson y (1985) plantearon que la cultura puede ser vista como un sistema hereditario paralelo al genético: las ideas, conocimientos o comportamientos se replican a través del aprendizaje social y sufren variaciones y selecciones (p. ej., ciertas herramientas se difunden porque son más eficientes). Inicialmente estos modelos enfrentaron escepticismo –¿tiene sentido darwinizar la cultura?– pero con el tiempo han ganado refinamiento.1, 2
De entrada no resulta descabellado un programa orientado a estudiar la evolución de organismos culturales, es decir, aquellas especies en las que se ha constatado transmisión cultural. Una teoría darwiniana al respecto busca predecir cosas tales como el efecto de diferentes estructuras de transmisión cultural en el proceso evolutivo y comprender mejor bajo qué condiciones podrían evolucionar tales estructuras. Boyd y Richerson se propusieron construir modelos matemáticos simples de transmisión cultural, incorporando resultados de la investigación empírica realizada por psicólogos y antropólogos; y comparar modelos de transmisión cultural con los modelos de evolución genética, para identificar las circunstancias en las cuales la selección natural pudo favorecer algunos modos de transmisión cultural observados entre los humanos contemporáneos.2, 3
Boyd y Richerson sostenían que la cultura, en tanto que comportamiento socialmente aprendido, puede influir en la selección genética y viceversa. Estudiaron varias formas de transmisión cultural: la transmisión vertical (de padres a hijos), horizontal (entre individuos de la misma generación) y oblicua (de una generación mayor a una menor). Cada uno se asocia con diferencias en la velocidad y dirección de la evolución cultural. La selección natural pudo favorecer ciertos modos de transmisión cultural que aumentan la adaptabilidad de los grupos humanos, como la adopción de pautas de aprendizaje conformista (seguir la regla o conducta mayoritaria) que pueden resultar ventajosas en contextos de incertidumbre. Comparada con la evolución genética, la evolución cultural puede ser mucho más rápida y acumulativa, permitiendo a las poblaciones humanas adaptarse a nuevos entornos antes de que ocurran cambios genéticos significativos.4, 5
El filósofo Chris Buskes argumenta que si bien la evolución cultural difiere en aspectos sustantivos y puede ser más lamarckiana, direccional y consciente que la biológica, en esencia se ajusta a los requisitos de un proceso darwiniano: variación, herencia y selección diferencial.6 Buskes destaca la importancia del efecto asociado con la construcción de nicho, puesto que los humanos modificamos nuestro entorno (físico y social) a través de la cultura, y esos entornos a su vez cambian las presiones selectivas sobre nosotros.7
Menciona cómo la invención de la agricultura hizo más frecuentes nuevas dietas que afectaron a la evolución de algunos genes, entre otros los asociados con la digestión de la lactosa. A su vez, esa adaptación biológica permitió expandir más la práctica cultural. Este ejemplo de coevolución gen-cultura refuerza el interés por un abordaje dual de la cognición humana: biológico —ya que nuestro cerebro es producto de millones de años de evolución— y cultural —porque el cerebro actual opera inserto en un ecosistema simbólico configurado durante miles de años—.
«Las formas cognitivas innatas tampoco son inmutables porque sean el resultado de la evolución y permanezcan expuestas a ella. Las intuiciones a priori relativas al espacio, el tiempo y la causalidad son, según Lorenz y otros epistemólogos evolucionistas, sólo «hipótesis de trabajo», únicamente fiables dentro de un determinado nicho cognitivo. Un nicho cognitivo (por analogía con nicho ecológico) es un determinado segmento del mundo objetivo en el que se ha adaptado el aparato cognitivo de una especie biológica durante la evolución. Fuera de este ámbito familiar, las «hipótesis de trabajo» dejarán pronto de ser válidas, por ejemplo en el ámbito de la mecánica cuántica o de la astrofísica. En tales situaciones, tendremos que reconsiderar los criterios a los que estamos acostumbrados en relación con el espacio, el tiempo, la causalidad, la masa, la velocidad y la fuerza de la gravedad. Por consiguiente, aunque nuestro conocimiento y nuestra imaginación se vean determinados y limitados en cierto sentido por nuestra constitución biológica, podemos corregir y superar la deformación innata de nuestro aparato cognitivo. El ser humano es de este modo el primer animal de la tierra que puede echar un vistazo detrás de las cámaras de su nicho cognitivo.»8
La aproximación dual que sugiere Buskes tiene implicaciones epistemológicas reseñables:
«...[U]na epistemología evolucionista presupone una forma de realismo. Si no existieran regularidades sólidas en el mundo, la evolución de aparatos cognitivos hubiese sido imposible. Ahora podemos dar un paso más. Desde la perspectiva evolucionista, se puede afirmar que no sólo los sentidos y el cerebro son formas de «conocimiento» acumuladas, sino que todas las adaptaciones encarnan «conocimientos» sobre el mundo. Una adaptación es una característica biológica con una determinada función (por ejemplo, los órganos, los miembros, la complexión física, la conducta, etcétera) que es el resultado de la selección natural. La adaptación es una forma de conocimiento. El algoritmo darwiniano de variación, selección y replicación es un proceso que recopila información y adquiere conocimientos, y que sondea las regularidades del mundo objetivo. Pongamos por ejemplo la forma aerodinámica de los tiburones, los delfines, los pingüinos, los calamares y del extinguido ictiosaurio que, de forma totalmente independiente entre sí, reflejan los principios elementales de la hidrodinámica. Es un buen ejemplo de lo que se denomina la evolución convergente: el hecho de que la evolución haya llegado a la misma solución a través de diferentes caminos. Del mismo modo, las alas de los albatros, del murciélago, de la libélula y del pterodáctilo reflejan diversos principios básicos de la aerodinámica: las diferentes especies de alas implican conocimientos sobre la densidad y la viscosidad de las capas de aire inferiores de la atmósfera.» (ibid., pp. 284-285)
Si la evolución biológica ocurre sobre todo mediante variaciones genéticas aleatorias y selección natural, la evolución del conocimiento involucra variaciones conceptuales parcialmente dirigidas y procesos de selección basados en criterios epistémicos como precisión predictiva, poder explicativo o consistencia lógica. El conocimiento humano está ciertamente restringido por nuestras capacidades cognitivas evolucionadas; pero también ha resultado potenciado de manera extraordinaria por el desarrollo cultural acumulativo, gracias al cual han surgido otras capacidades metacognitivas en la especie humana. Nuestra capacidad para la crítica racional, la evaluación sistemática de ideas y el filtro escéptico aplicado a nuevas creencias suponen un salto o despegue evolutivo, en la medida que permiten superar —al menos parcialmente— muchas de las limitaciones y sesgos cognitivos innatos.6
Evitando caer tanto en el reduccionismo biológico simplificador como en un constructivismo radical, Buskes enfatiza la dimensión social del conocimiento en su análisis de las capacidades cognitivas observadas en la especie humana. La cognición humana se desarrolla en contextos sociales y culturales que amplifican dramáticamente las capacidades epistémicas individuales, en línea con otros desarrollos recientes relativos a la cognición distribuida y la epistemología social.9, 10
Según Buskes, nuestra tendencia a realizar inferencias inductivas refleja adaptaciones a regularidades estadísticas en entornos ancestrales, proporcionando una base evolutiva para comprender por qué tales inferencias, aunque lógicamente problemáticas, resultan cognitivamente naturales y frecuentemente nos parecen fiables. Adopta una especie de realismo evolutivo en el debate entre realismo y antirrealismo científico: las capacidades perceptivas y cognitivas evolucionaron en los homínidos para detectar aspectos relevantes del mundo, aunque de manera incompleta y filtradas por necesidades adaptativas específicas.7
Esta conceptualización naturalizada del conocimiento humano proporciona un marco integrador para comprender las relaciones entre evolución biológica, desarrollo cognitivo y conocimiento cultural, situando la epistemología filosófica dentro de un continuo con las ciencias naturales sin reducirla completamente a estas. Tal enfoque no resta interés a otras cuestiones normativas sobre justificación o racionalidad; solo las reformula dentro de un marco naturalista que incorpora tanto elementos limitantes como potenciadores de las capacidades cognitivas humanas, desde su filogenia hasta su ontogenia.11
Etólogos como Lorenz y otros autores contemporáneos (Kevin Laland, Cecilia Heyes) destacan la importancia de introducir el componente cultural en la psicología evolucionista, dado su papel como principal factor en la explicación de nuestra mente y la importancia de ciertos gadgets cognitivos en el desarrollo de facultades humanas como la lectura, resultado principalmente de la transmisión cultural más que de módulos innatos.12, 13, 14
Asumir que los mecanismos cognitivos de nuestra especie –percepción, memoria, inferencia– fueron afinados por selección natural para lidiar con el entorno ancestral, permite entender la propensión a detectar rápidamente agentes animados y cierto tipo de contornos (serpientes, p. ej.) con claro valor adaptativo para sobrevivir. A su vez orienta sobre el riesgo de operar con sesgos sistemáticos (ilusiones perceptivas, heurísticas que sobrestiman ciertas amenazas) que, en definitiva, parecen el lastre inevitable de los atajos evolutivos. Los ideales epistémicos de objetividad y verdad quedan muy lejos del propósito y margen de fiabilidad de una mente evolucionada, cuyas facultades han sido producto de la selección para la supervivencia y ajustadas para permitirnos reaccionar y planificar sobre la base de creencias útiles, más que verdaderas.15
No obstante, un diseño biológico solo resulta efectivo si pone en funcionamiento habilidades que favorecen un ajuste razonable a elementos relevantes del entorno y refinan cierta capacidad para orientarse, gestionar con acierto los recursos disponibles y predecir o anticipar alguna clase de sucesos. Como señala Steven Pinker, los sesgos que lastran el funcionamiento de la mente humana no han impedido el desarrollo del razonamiento abstracto y del pensamiento científico, sin duda las herramientas más potentes para la extensión cultural de sus capacidades. De este modo las generaciones últimas han podido manejar una comprensión del mundo que trasciende sus limitaciones originales, y sacar un provecho extraordinario de esta circunstancia.16, 17
La convergencia entre ciencias cognitivas, biología evolutiva y etología ha proporcionado un marco sólido para entender la mente humana no como algo aislado o misteriosamente emergente, sino en continuidad con la naturaleza, forjada por presiones evolutivas y con algunos rasgos especiales si se compara con la de otras especies. Este modelo explica aspectos sustantivos acerca de cómo conocemos, por qué nuestras facultades son como son y cómo presentan ciertos límites resultantes de su historia evolutiva diferenciada. Evaluar su alcance supone todavía un desafío descomunal, en el que colaboran especialistas de ámbitos como la psicología evolutiva, la primatología, la neurociencia, la genética de la conducta, la antropología y la filosofía. Sus aportaciones han reforzado el interés por los estudios centrados en el comportamiento cooperativo humano y su comparación con el que estudian primatólogos. Los experimentos realizados por Frans de Waal y otros aportan resultados que han permitido entender (y extender) conceptos como la empatía, la reciprocidad o la justicia a otros animales, introduciendo elementos de gran interés en las teorías cognitivas sobre el origen de la moral.18, 19, 20
1. Cavalli-Sforza, L. L., & Feldman, M. W. (1981). Cultural Transmission and Evolution: A Quantitative Approach. Princeton University Press.
2. Boyd, R., y Richerson, P. J. (1985). Cultura y proceso evolutivo. University of Chicago Press.
3. Damasio, A. (2018). The strange order of things: Life, feeling, and the making of cultures. Pantheon.
4. Haselton, M. G., Nettle, D., & Murray, D. R. (2015). The evolution of cognitive bias. In D. M. Buss (Ed.), The handbook of evolutionary psychology (pp. 968-987). Wiley.
5. Henrich, J. (2015). *The secret of our success: How culture is driving human evolution, domesticating our species, and making us smarter*. Princeton University Press.
6. Buskes, C. (2013). Darwinism extended: A survey of how the idea of cultural evolution evolved. Philosophia, 41(3), 661-691.
7. Buskes, C. (2015). The evolution of knowledge: Rethinking science for the Anthropocene. Cambridge University Press.
8. Buskes, C. (2009). La herencia de Darwin: La evolución en nuestra visión del mundo. Herder. Págs. 283-284; 284-285.
9. Hutchins, E. (1996). Cognition in the Wild. MIT Press.
10. Goldman, A. I., & Blanchard, T. (2016). Social epistemology. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy. Stanford University. https://plato.stanford.edu/entries/epistemology-social/ 11. Lorenz, K. (1977). Behind the Mirror: A Search for a Natural History of Human Knowledge. Egmont Books (UK).
12. Heyes, C. (2018). Cognitive gadgets: The cultural evolution of thinking. Harvard University Press.
13. Laland, K. N., Odling-Smee, J., & Feldman, M. W. (2000). Niche construction, biological evolution, and cultural change. Behavioral and Brain Sciences, 23(1), 131-146. https://doi.org/10.1017/s0140525x00002417
14. Smaldino, P. E. (2014). The cultural evolution of emergent group-level traits. Behavioral And Brain Sciences, 37(3), 243-254. https://doi.org/10.1017/s0140525x13001544
15. Plantinga, A. (1993). Warrant and Proper Function. En Oxford University Press eBooks. https://doi.org/10.1093/0195078640.001.0001
16. Pinker, S. (1997). How the mind works. W. W. Norton & Company.
17. Pinker, S. (2021). Rationality: What It Is, Why It Seems Scarce, Why It Matters. Viking Books USA.
18. De Waal, F. B., & Ferrari, P. F. (2010). Towards a bottom-up perspective on animal and human cognition. Trends In Cognitive Sciences, 14(5), 201-207. https://doi.org/10.1016/j.tics.2010.03.003
19. De Waal, F. (2017). Are We Smart Enough to Know How Smart Animals Are? National Geographic Books.
20. Suchak, M., & De Waal, F. B. M. (2012). Monkeys benefit from reciprocity without the cognitive burden. Proceedings Of The National Academy Of Sciences, 109(38), 15191-15196. https://doi.org/10.1073/pnas.1213173109
Una tendencia constatada en el último lustro es la simbiosis entre inteligencia artificial y neurociencia cognitiva, con claro potencial para impulsar resultados y desarrollos en todas las disciplinas que estudian la cognición. El progreso notable en el desarrollo de modelos de aprendizaje profundo (deep learning) durante la última década ha proporcionado nuevas herramientas para la investigación cognitiva, además de ampliar el rango de intereses, cuestiones y enfoques posibles para el estudio de problemas relevantes. El entrenamiento de redes neuronales artificiales con grandes conjuntos de datos ha permitido disponer de sistemas cuyas prestaciones pueden equipararse al rendimiento humano promedio en tareas como el reconocimiento de imágenes, la comprensión del lenguaje natural, la traducción e incluso el razonamiento estratégico en juegos complejos.1, 2
Una ampliación gradual de funcionalidad y versatilidad (en el manejo de texto, imagen o voz que permiten los modelos más avanzados) ha resultado revolucionaria para individuos con visión reducida o limitaciones cognitivas y de movilidad, aparte de simplificar o facilitar el manejo de ciertos servicios al resto de usuarios. La clave está en el grado de madurez alcanzado por ciertas aplicaciones de tecnologías y modelos desarrollados desde una base interdisciplinar amplia, cuando se han podido entrenar y afinar con la infraestructura necesaria, grandes conjuntos de datos y bancos de prueba exigentes que han permitido consolidar modelos de grandes prestaciones, con capacidad incluso para transferir las estrategias de mejora y aprendizaje como base para optimizar procesos más exigentes, con texto, imagen o sonido de mayor complejidad. Incluso se han logrado extrapolar con éxito sus capacidades a ámbitos de problemas específicos, como la identificación de la estructura de proteínas, el análisis de secuencias de genes en bases de datos, el desarrollo de fármacos, la programación y depuración de código, o el diagnóstico de diversos tipos de tumores a partir de imágenes médicas.3, 4, 5, 6
En cada uno de estos dominios, los modelos generativos transformer preentrenados (GPT) han producido resultados que igualan o superan las capacidades de personas expertas en tareas consideradas intelectualmente exigentes; y, en ciertos casos, han resuelto desafíos y problemas pendientes durante décadas.4, 7, 8
Disponer de herramientas con alto potencial y versatilidad ha motivado al colectivo de investigadores en neurociencia a usarlas para mejorar los modelos computacionales del cerebro. Entre otros resultados, se comprobado que las capas de una red profunda entrenada para reconocer objetos pueden predecir con precisión sorprendente la activación de áreas visuales en la corteza cerebral de primates mientras realizan tareas que requieren atención visual.9
Algunas redes optimizadas para deep learning funcionan como modelos explícitos de la mente, y han permitido poner a prueba diversas teorías sobre cómo el cerebro procesa información. A su vez, los resultados de la neurociencia han servido para introducir mejoras y optimizar la arquitectura de los sistemas con IA avanzada, aplicando criterios plausibles de funcionalidad biológica.10
En los dos últimos años, el auge de los programas de investigación colaborativa en IA y neurociencia cognitiva han suscitado grandes expectativas, evocando otros contextos de transición acelerada como resultado de la aplicación de tecnologías emergentes. Esta nueva era se caracteriza por una estrecha relación interdisciplinar, donde la investigación en neurociencia y en IA se beneficia de aportaciones teóricas e ingenieriles en sus campos respectivos, lo que contribuye a mejorar tanto los diseños de las arquitecturas con las que se entrenan las redes neuronales como las prestaciones de algunas versiones complejas de estos sistemas en aplicaciones clínicas y de investigación, con éxitos notables a la hora de descifrar el aprendizaje por refuerzo en humanos y en el diseño de sistemas capaces de aprender estrategias complejas sin instrucciones explícitas.11 Sistemas de este tipo se han optimizado para su uso en diagnóstico médico, cirugía robótica, conducción autónoma y simulación o estrategia en juegos, en parte gracias a otros desarrollos en las interfaces cerebro-computador (brain-machine interfaces, abrev. BMI).12, 13
La introducción de nuevas herramientas y tecnologías de investigación en neurociencia ha incrementado su capacidad de obtener datos complejos sobre el cerebro y la conducta, cuyo análisis inteligente está permitiendo detectar patrones ocultos que escapaban al escrutinio humano en tareas normales o ligadas a trastornos cognitivos. Procesar con nuevas herramientas y algoritmos sofisticados la cantidad ingente de información obtenida genera expectativas justificadas de cambios notables en la comprensión de los mecanismos cerebrales que sustentan la cognición, incluyendo aspectos de gran complejidad sobre cómo se genera la percepción consciente a partir del funcionamiento de otros módulos que pueden analizarse con detalle (y emularse) mediante sistemas artificiales. La identificación de ciertos patrones y relaciones puede utilizarse también para anticipar la aparición de estados futuros como el progreso de una enfermedad o el deterioro de ciertas facultades.14
El potencial extraordinario de las nuevas herramientas obliga también a mantener una actitud informada y crítica sobre sus riesgos y limitaciones. Es posible que ciertas aplicaciones de la IA y sus modelos generen una impresión ficticia de eficacia y capacidad replicativa de procesos mentales genuinos, aunque en realidad se trate de casos o episodios de pseudocognición, equivalentes a las alucinaciones que producen los grandes modelos de lenguaje (LLM) al agregar información dispersa en cadenas de apariencia coherente. Gary Marcus y otros recomiendan cautela al respecto, para evitar errores como la confusión entre correlación y causalidad en la toma de decisiones sobre problemas clínicos, fenómenos sociales o planificación económica.15, 16
Ciertos aspectos característicos de la cognición humana (una simbología estructurada, la composicionalidad del pensamiento o el sentido común) presuponen componentes semánticos, de interacción sensorial directa con el mundo físico y de entrenamiento durante años en contextos complejos de cooperación social, difícilmente replicables con unos mínimos de fiabilidad en sistemas artificiales. Las redes profundas carecen de entendimiento genuino —el humano continúa siendo la referencia—, por lo que una mejor integración entre enfoques conexionistas y enfoques simbólicos podría aproximar los sistemas con IA avanzada a la cognición humana. El desarrollo de potentes modelos diseñados para emular el funcionamiento de la mente humana mediante patrones asociativos dista mucho de entender cómo la mente manipula representaciones simbólicas, por lo que la brecha entre cerebros biológicos y redes artificiales tiene implicaciones epistemológicas, clínicas e ingenieriles que requieren más investigación interdisciplinar.17, 18
1. Chen, Z., & Yadollahpour, A. (2024b). A new era in cognitive neuroscience: the tidal wave of artificial intelligence (AI). BMC Neuroscience, 25(1). https://doi.org/10.1186/s12868-024-00869-w
2. Yuxiu, Y. (2024). Application of Translation Technology based on AI in Translation Teaching. Systems and Soft Computing, 200072. https://doi.org/10.1016/j.sasc.2024.200072
3. Russe, M. F. et al. (2023). Performance of ChatGPT, human radiologists, and context-aware ChatGPT in identifying AO codes from radiology reports. Scientific Reports, 13(1), 14215. https://doi.org/10.1038/s41598-023-41512-8
4. Yang, Z., Zeng, X., Zhao, Y., & Chen, R. (2023). AlphaFold2 and its applications in the fields of biology and medicine. Signal Transduction and Targeted Therapy, 8(1), 115. https://doi.org/10.1038/s41392-023-01381-z
5. Callaway, E. (2020). ‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures. Nature, 588(7837), 203–204. https://doi.org/10.1038/d41586-020-03348-4
6. Chen, M. et al. (2021). Evaluating Large Language Models Trained on Code. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2107.03374
7. Kiela, D., et al. (2023). Test scores of the AI relative to human performance. Our World in Data. https://ourworldindata.org/grapher/test-scores-ai-capabilities-relative-human-performance
8. Goshisht, M. K. (2024). Machine Learning and Deep Learning in Synthetic Biology: Key Architectures, Applications, and Challenges. ACS Omega, 9(9), 9921-9945. https://doi.org/10.1021/acsomega.3c05913
9. Ullman, S. (2019). Uso de la neurociencia para desarrollar la inteligencia artificial. Ciencia, 363(6428), 692–693. https://doi.org/10.1126/science.aau6595
10. Prabhakar, S. K., & Won, D. (2024). A Methodical Framework Utilizing Transforms and Biomimetic Intelligence-Based Optimization with Machine Learning for Speech Emotion Recognition. Biomimetics, 9(9), 513. https://doi.org/10.3390/biomimetics9090513
11. Holmes, J. H., Sacchi, L., Bellazzi, R., & Peek, N. (2017). Artificial Intelligence in Medicine AIME 2015. Artificial Intelligence In Medicine, 81, 1-2. https://doi.org/10.1016/j.artmed.2017.06.011
12. Slutzky, M. W. (2018). Brain-Machine Interfaces: Powerful Tools for Clinical Treatment and Neuroscientific Investigations. The Neuroscientist, 25(2), 139-154. https://doi.org/10.1177/1073858418775355
13. Boulesnane, A. (2024). Evolutionary Dynamic Optimization and Machine Learning. En Computational intelligence methods and applications (pp. 67-85). https://doi.org/10.1007/978-981-99-9718-3_3
14. Roessner, V., Rothe, J., Kohls, G., Schomerus, G., Ehrlich, S., & Beste, C. (2021). Taming the chaos?! Using eXplainable Artificial Intelligence (XAI) to tackle the complexity in mental health research. European Child & Adolescent Psychiatry, 30(8), 1143-1146. https://doi.org/10.1007/s00787-021-01836-0
15. Chen, Z. et al. (2023). Evaluation of Risk of Bias in Neuroimaging-Based Artificial Intelligence Models for Psychiatric Diagnosis. JAMA Network Open, 6(3), e231671. https://doi.org/10.1001/jamanetworkopen.2023.1671
16. Marcus, G. (2024, 10 marzo). Two years later, deep learning is still faced with the same fundamental challenges. Marcus on AI. https://garymarcus.substack.com/p/two-years-later-deep-learning-is
17. Sublime, J. (2024). The return of pseudosciences in artificial intelligence: Have machine learning and deep learning forgotten lessons from statistics and history? arXiv. https://arxiv.org/html/2411.18656v1
18. Van Rooij, I., Guest, O., Adolfi, F., De Haan, R., Kolokolova, A., & Rich, P. (2024). Reclaiming AI as a Theoretical Tool for Cognitive Science. Computational Brain & Behavior. https://doi.org/10.1007/s42113-024-00217-5
Aunque menos frecuentes de lo que popularmente se cree, las revoluciones científicas y tecnológicas posteriores al Renacimiento han tenido un impacto profundo en la configuración del pensamiento y la cultura contemporánea. Como ejemplo paradigmático suele mencionarse la revolución copernicana, por su capacidad para transformar la comprensión del mundo natural heredada del medievo (ligada al modelo geocentrista aristotélico-ptolemaico) y otros aspectos cruciales asociados con la realidad, la verdad y el lugar de la humanidad en el cosmos.1
Como señala Kuhn en La revolución copernicana (1957), las aportaciones de matemáticos, físicos y astrónomos audaces en el siglo XVI (Copérnico, Galileo y Kepler, entre otros) no solo desplazaron a la Tierra del centro del universo y demostraron la mayor precisión del modelo heliocéntrico, con implicaciones que obligaron a reformular la astronomía de la época (las desarrolla con gran detalle en los caps. 4-5). Kuhn sostiene (caps. 6-7) que ese cambio radical supuso también un desafío para las creencias antropológicas tradicionales —cuestionando el presupuesto de la centralidad y significación humana— y contribuyó a desacreditar las metodologías exclusivamente deductivas o desvinculadas de la observación como enfoques epistémicos adecuados para comprender la complejidad de los procesos en el mundo natural y progresar intelectualmente en el estudio de la astronomía y otras disciplinas.2
Evandro Agazzi considera la síntesis realizada por Isaac Newton en el siglo XVII (unificando las leyes del movimiento y la gravitación universal) una revolución genuina, dado que estableció los fundamentos de la física clásica y proporcionó un marco conceptual y matemático para entender el movimiento de los objetos terrestres y celestes, desacreditando creencias milenarias acerca de la radical separación entre mundo sublunar y supralunar.3
La necesidad de cambio raramente se capta desde fuera del campo disciplinar donde afloran problemas para los que el marco tradicional no aporta soluciones satisfactorias. Según Thomas Kuhn, solo los afectados están en condiciones de entender como revolucionarios los cambios producidos en el tratamiento de ciertos problemas que, vistos desde fuera, no serían más que parte del proceso normal de desarrollo de la investigación en un dominio de conocimiento.4
La interpretación del cambio de paradigma como un proceso pacífico, esencialmente centrado en la persuasión intelectual, en la evidencia que aportan los resultados de observación con diversos instrumentos y en el poder de las demostraciones con determinadas herramientas de cálculo, parece encajar mejor en la categoría de idealización simplificadora que en el tipo de explicación detallada capaz de dar cuenta de lo ocurrido en la heterogeneidad de saberes y campos de conocimiento de la cultura y la ciencia de los siglos XVI y XVII.5
La teoría de la evolución de Darwin revolucionó la comprensión de los orígenes, las interrelaciones y la diversidad de la vida en el siglo XIX. Pero su aceptación no fue el resultado de un proceso de difusión pacífica y persuasiva. Charles Darwin fue plenamente consciente de que su teoría de la evolución por selección natural cuestionaba la visión teleológica de la naturaleza y la inmutabilidad de las especies, predominantes en la biología su época. La idea de que las especies podían cambiar con el tiempo sin una dirección predeterminada ni un propósito final socavaba las nociones filosóficas de un diseño intencional en la naturaleza; pero no era una excepción entre los científicos que metodológicamente asumían una visión mecanicista del mundo, independiente del papel que la cultura o la religión otorgaban al ser humano. Darwin conocía el vínculo estrecho de la comunidad científica inglesa con la Iglesia de Inglaterra, y que esta consideraba la ciencia parte de la teología natural. Era previsible que una defensa de la transmutación de las especies suscitase controversia, pues cuestionaba tanto la creencia de que las especies eran parte inmutable de una jerarquía prediseñada como la excepcionalidad de los seres humanos, supuestamente únicos y sin relación con otros animales.6
Aunque la transmutación no fue aceptada por la corriente científica, otras implicaciones políticas, culturales y teológicas de la obra de Darwin fueron objeto de intenso debate, facilitado por el hecho de que el libro había sido escrito para lectores no especializados y su publicación suscitó notable interés fuera de los círculos de la élite cultural.11, 12
Darwin era un científico eminente y la mayor parte de sus conclusiones fueron tomadas en serio, así como las pruebas y argumentos que fue presentando en distintas obras (El origen del hombre y la selección en relación al sexo, de 1871; La expresión de las emociones en el hombre y en los animales, de 1872; Diario de un naturalista alrededor del mundo, de 1839; Observaciones Geológicas en América del Sur, de 1846). Thomas Huxley y otros colegas aprovecharon la ocasión para manifestarse en favor de la independencia de la ciencia y promover el naturalismo científico.
Para comprender la importancia de la perspectiva evolucionista y sus profundas implicaciones para una comprensión actualizada de la naturaleza humana, la sociedad y la cultura (es decir, una parte significativa de lo que cabe considerar hoy pensamiento subyacente), basta echar un vistazo a diversas obras recientes centradas en la cuestión. Por mencionar solo las más conocidas:
El origen de las especies no aborda directamente la evolución humana; pero Darwin no podía ignorar sus implicaciones antropológicas. En obras como El origen del hombre (1871) Darwin exploró algunas líneas de trabajo, aplicando su teoría de la selección natural a los seres humanos para sugerir que la especie humana compartía ancestros comunes con otros animales. Un motivo de cautela adicional, antes de dar difusión a su trabajo, tenía que ver con su convicción de que las especies podían evolucionar a través de procesos naturales, sin una intervención divina directa (y en abierta contradicción con las interpretaciones literales del relato de la creación en el Génesis). En correspondencia privada dejó constancia de su preocupación al respecto, mencionando cómo su teoría podría ser recibida en el círculo social externo más conservador y entre su propia familia.14
Si bien el acuerdo científico sobre el hecho evolutivo parecía generalmente asumido apenas dos décadas después de publicarse El origen de las especies, eran pocos los científicos que atribuían a la selección natural la importancia que Darwin reclamaba. Se explica así un largo periodo de «eclipse del darwinismo» (1880-1930), con aportaciones centradas en otros problemas y mecanismos de evolución. Fue el desarrollo de la síntesis evolutiva moderna (1930-1940) la aportación que consolidó la idea de Darwin (la adaptación evolutiva por selección natural) como componente fundamental en la teoría moderna de la evolución, necesario para integrar o unificar la teoría de la evolución de las especies por la selección natural de Charles Darwin, la teoría genética de Gregor Mendel (base de la herencia genética), la mutación aleatoria como fuente de variación y la genética de poblaciones, gracias a las grandes aportaciones teóricas de Dobzhansky, Mayr y Simpson, junto con otras de Fisher, Haldane y Wright.7, 8, 9, 10
Conviene recordar que tampoco la genética mendeliana —cuya articulación conceptual, teórica y explicativa permitió entender cómo se transmiten rasgos discretos y características de los organismos progenitores a su descendencia, y constituye el núcleo fundamental de la genética clásica— estuvo exenta de polémica. Las leyes, resultados y principios explicativos que Gregor Mendel fue derivando durante años de trabajo metódico, realizando cruces entre plantas y anotando las características resultantes, se publicaron en 1865 y 1866; pero fueron ignorados hasta 1900.13
Sin embargo, hay consenso en la historiografía de la ciencia en considerar sus aportaciones un hito en la evolución teórica de la biología, comparable sin duda al impacto que tuvieron las leyes de Newton en el desarrollo de la física. Sus aportaciones introdujeron rigor y precisión en la nueva teoría de la herencia, ampliando las nociones básicas y los instrumentos formales con los que se enseñaba hasta entonces la biología. Al interés del trabajo teórico desarrollado por Mendel hay que sumar su enfoque innovador de los aspectos epistemológicos y metodológicos en los que sustentó su investigación, dando prioridad a la experimentación rigurosa y sistemática —es decir, libre de prejuicios— y buscando la expresión cuantitativa de los resultados observacionales mediante recursos estadísticos. De este modo logró inferir inductivamente las leyes que constituirían los fundamentos de la genética. La revisión posterior de su obra y métodos de trabajo descartó que fabricara sus datos, confirma que diseñó correctamente sus experimentos y que dedujo las leyes de la herencia de manera coherente con la información disponible, sin vinculación con los trabajos de Darwin.13
La integración de las aportaciones de Darwin y Mendel en la teoría sintética de la evolución (o síntesis moderna), y en particular la asociación entre los genes como unidad de la evolución y la selección natural como mecanismo evolutivo, ha demostrado un notable potencial heurístico, abriendo nuevas vías de investigación y proporcionando un marco conceptual unificador para comprender diversos fenómenos biológicos y relacionar estrechamente varias ramas de la biología que anteriormente tenían poco en común, especialmente la genética, la citología, la sistemática, la botánica y la paleontología.
En genética de poblaciones, la integración de la genética mendeliana con la teoría de la evolución de Darwin logra explicar cómo las variaciones genéticas se distribuyen y cambian en las poblaciones a lo largo del tiempo, en función de procesos evolutivos (selección natural, deriva genética, mutación y migración) que afectan a la frecuencia de los alelos. De este modo es posible predecir —y poner a prueba con diversos diseños experimentales de selección artificial en laboratorio— que la frecuencia de un alelo favorable aumentará en una población si confiere una ventaja reproductiva. En organismos como la mosca de la fruta (Drosophila melanogaster) es relativamente fácil observar cambios en la frecuencia de los alelos que confieren ventajas adaptativas en condiciones controladas.25, 26, 27
La teoría sintética explica también cómo las secuencias de ADN y proteínas pueden evolucionar mediante mutaciones y selección natural, gracias al desarrollo de nuevas herramientas cuantitativas que permiten comparar secuencias de ADN presentes en diferentes especies y probar la ascendencia común o el efecto de los mecanismos de la evolución en el nivel molecular.28
Se ha podido comprobar que las tasas de mutación en regiones no codificantes del ADN son más altas que en las regiones codificantes debido a la menor presión selectiva, por lo que tales segmentos muestran una mayor variabilidad genética (y mayor tasa evolutiva) en comparación con las regiones codificantes, lo que cabe interpretar como evidencia de que la selección natural actúa más intensamente sobre las secuencias que afectan directamente la función de proteínas. Incluso en una misma proteína, ciertas partes pueden estar sujetas a más restricciones funcionales y tendrán una tasa de evolución menor que el resto de la proteína. Kimura y Ohta dedujeron correctamente que las cadenas alfa y beta en la superficie de una proteína de hemoglobina evolucionan a un ritmo casi diez veces más rápido que las bolsas interiores, lo que implica que la estructura molecular general de la hemoglobina es menos significativa que la del interior, donde se encuentran el hierro y los grupos hemo.29
Otro aspecto que la teoría de la evolución ha ayudado a explicar son las complejas interacciones entre especies que dan lugar a relaciones simbióticas y procesos de co-evolución, como la relación entre flores y sus polinizadores, o entre parásitos y sus hospedadores. La hipótesis de que las especies que co-evolucionan mostrarán adaptaciones recíprocas que optimizan su interacción cuenta con numerosos ejemplos de mutualismo entre plantas y sus polinizadores, además de numerosos estudios experimentales y observacionales centrados en ciertas características de las flores (como la forma y el color) con adaptaciones específicas para atraer a sus polinizadores, mientras que los polinizadores han desarrollado adaptaciones morfológicas y comportamentales para acceder a las flores de manera más eficaz.30, 31, 32
Pocas teorías científicas pueden equiparar su potencial heurístico al logrado mediante la integración de la teoría de la evolución de Darwin en la teoría sintética de la evolución. El resultado ha sido un marco teórico-conceptual único para entender la diversidad biológica y los mecanismos subyacentes a la evolución, con desarrollos y aplicaciones que han permitido esclarecer aspectos fundamentales de la genética de poblaciones, la evolución molecular y la complejidad de las relaciones ecológicas, posibilitando predicciones audaces que han obtenido confirmación experimental y demostrado su robustez en múltiples ramas de la biología.
A principios del siglo XX, la teoría de la relatividad de Albert Einstein y diversas contribuciones de Louis de Broglie, Paul Dirac, Wolfgang Pauli, Enrico Fermi y Max Planck, sentaron las bases para las contribuciones decisivas de Niels Bohr, Werner Heisenberg, Max Born, Pascal Jordan y Erwin Schrödinger a la mecánica ondulatoria, primero, y a la articulación de la mecánica cuántica (interpretación de Copenhague, 1925-1927), que supuso la ruptura con la física clásica (mecánica newtoniana).15, 16, 17
Dado que la mecánica cuántica no incorporaba a la relatividad en su formulación matemática, otras contribuciones se centraron en incorporar elementos relativistas para abordar diversos problemas que carecían de solución satisfactoria (mecánica cuántica relativista). En su versión más acabada, se conoce como teoría cuántica de campos (incluye la electrodinámica cuántica, la cromodinámica cuántica y la teoría electrodébil dentro del modelo estándar) y, en su variante más general, la teoría cuántica de campos en espacio-tiempo curvo, una primera aproximación de gravedad cuántica cuando se tienen en cuenta situaciones en las que la gravedad es lo suficientemente fuerte como para influir en la materia.18, 19
Entre otros conceptos, la comprensión del espacio, el tiempo, la materia y la causalidad han sido redefinidos por teorías que revolucionaron los campos disciplinares asociados con la física, pero que cuestionaron y obligaron a revisar las nociones intuitivas acerca de la realidad objetiva y el carácter determinista de sus procesos. La teoría de la relatividad introdujo los conceptos de espacio-tiempo relativos y dependientes del observador, en oposición a la visión newtoniana de un universo estático con referencias absolutas. La mecánica cuántica reveló un mundo subatómico gobernado por la incertidumbre y la probabilidad, donde las partículas no tienen posiciones ni velocidades definidas hasta que son observadas, y los eventos pueden estar conectados a través de fenómenos no locales, como el entrelazamiento cuántico.
Se trata de innovaciones teórico-conceptuales que han transformado la física, la ciencia y la tecnología del último medio siglo (electrónica, computación cuántica, criptografía cuántica, etc.), y que han calado profundamente en el pensamiento filosófico y en la cultura contemporánea. Introdujeron una nueva manera de concebir el universo como un sistema interrelacionado y dinámico, donde la realidad misma depende de las interacciones observacionales. Este trasfondo teórico ha influido en diversas disciplinas, desde la cosmología hasta la filosofía, reforzando el interés por enfoques más integrados de la ciencia y el conocimiento y por modelos explicativos aptos para incorporar la incertidumbre y la probabilidad.20, 21
La noción intuitiva de que los objetos tienen propiedades definidas independientemente de la observación resulta hoy problemática, como también sus implicaciones epistémicas y la dificultad para elegir herramientas conceptuales adecuadas para abordar la complejidad inherente a una comprensión de la naturaleza de la realidad científicamente informada. Diversas interpretaciones de la teoría cuántica dificultan articular otras perspectivas referidas al mesocosmos por sus implicaciones ontológicas y metafísicas. Sin embargo, han inspirado innumerables obras de ciencia ficción, explorando conceptos como universos paralelos, viajes en el tiempo y teletransportación, con ramificaciones en distintas manifestaciones de la literatura, el arte moderno y la estética contemporánea en las que la incertidumbre, la dualidad y la superposición pueden servir como recursos expresivos o creativos.
Cabe hablar también de una revolución de la información (en expresión de Paul Boccara) y desarrollo de las tecnologías digitales como parte de un fenómeno único y gradual que ha transformado significativamente la cultura y el acceso al conocimiento en las sociedades avanzadas. Este fenómeno se caracteriza por una transición gradual pero profunda hacia una era en la que la información y la tecnología digital desempeñan un papel central en casi todos los aspectos de la vida humana.33
La revolución informacional se refiere a la transformación radical en la forma en que se genera, almacena, accede y comparte la información. Esta revolución ha sido impulsada por el rápido avance de las tecnologías digitales, incluyendo la informática, Internet y las tecnologías de comunicación móvil. La perspectiva informacional —derivada de las aportaciones teóricas fundamentales de Claude Shannon, y combinada con las aplicaciones ingenieriles de Norbert Wiener, en su obra Cybernetics (1948)— ha influido en campos tan diversos como la biología, la psicología, la sociología y las humanidades, dando lugar a nuevas formas de pensar sobre los sistemas complejos, la cognición, las redes y los flujos de información.22, 23
La digitalización ha facilitado que grandes cantidades de información estén disponibles al instante y a escala global, reduciendo significativamente las barreras geográficas y temporales para acceder al conocimiento. En muchos aspectos, se ha democratizado el aprendizaje y se han popularizado herramientas, plataformas y servicios que posibilitan a personas de todo el mundo contribuir y participar en la creación y difusión del conocimiento.24
En un sentido más amplio, las tecnologías digitales han transformado la forma en que nos comunicamos, trabajamos, aprendemos y nos entretenemos. Han facilitado el surgimiento de nuevos canales y medios de comunicación —la blogosfera—, redes sociales —espacios de interacción virtual para fines profesionales o de entretenimiento— y plataformas de aprendizaje en línea, que permiten una mayor interacción, colaboración —la sociedad red— y acceso a una amplia gama de contenidos y recursos educativos, compatibles con enfoques pedagógicos innovadores y mayor diversidad de opciones metodológicas.33
La cultura también se ha visto profundamente afectada por esta revolución. La tecnología digital ha permitido fusionar diversas formas de arte, música y literatura, originando nuevas formas de expresión cultural y producción creativa. La convergencia de soportes en el formato digital ha transformado de manera radical la distribución y el consumo de contenido cultural, favoreciendo la consolidación de plataformas en línea que dan acceso inmediato a una mayor variedad de contenido que los canales analógicos, reduciendo los intermiediarios y posibilitando una mayor interacción entre creadores y consumidores.34
Digitalización y revolución informacional han servido de vectores para consolidar un ecosistema de servicios y desarrollos tecnológicos —dispositivos móviles, redes de banda ancha, computación y almacenamiento en la nube, protocolos de comunicación y lenguajes de programación, etc.— que han tenido un impacto significativo en la economía, dando lugar a nuevos modelos de negocio, industrias o servicios con alto valor añadido y oportunidades de empleo. Su difusión y rápida evolución ha transformado la naturaleza del trabajo, reforzando la necesidad de nuevas competencias (destrezas digitales) que suponen un agregado de procesos cognitivos y habilidades técnicas sin las cuales no es posible adaptarse el ritmo vertiginoso de evolución tecnológica.35, 36, 37
Las tecnologías digitales han supuesto una transformación gradual pero profunda de la forma en que las sociedades avanzadas acceden, comparten y generan conocimiento, y de las formas de interactuar y participar en la dinámica cultural. Este fenómeno único, sin duda la mayor transformación desde la invención de la imprenta, sigue evolucionando y dando forma a las sociedades avanzadas. Pero abre la puerta a nuevas formas de manipulación, desinformación, propaganda y control social que amenazan el núcleo de valores y derechos de las democracias liberales. El riesgo de instrumentalización de las tecnologías y servicios digitales por grupos de interés, grandes empresas y movimientos de corte autoritario ha sido sin duda subestimado, como también los escenarios de polarización y conflicto inducidos por líderes que actúan desconectados de la realidad.38, 39
Pese a los déficits de alfabetización científica y la eficacia limitada de las campañas de sensibilización sobre múltiples problemas —ambientales, económicos, de salud pública, geopolíticos, etc.— que requieren el manejo de conocimiento experto, no cabe subestimar el alcance que han tenido las revoluciones científicas en la cultura contemporánea. Combinadas o por separado, han cuestionado las cosmovisiones tradicionales sustentadas en elementos aportados por la autoridad religiosa o la filosofía especulativa, consolidando una visión del mundo más naturalista, empirista y escéptica ante ideas o propuestas metodológicas de connotaciones pseudocientíficas.
El debate especializado sobre resultados de investigación en etología comparada, evolución y psicología del desarrollo ha obligado a revisar presupuestos e ideas tradicionales sobre la naturaleza humana, inspirando movimientos culturales e intelectuales que cuestionan tanto los excesos del positivismo lógico —su pretensión de modelar todo el conocimiento según los métodos de la ciencia natural, en particular— como la desconexión de la realidad que una recepción acrítica del posmodernismo parece haber instigado.
Gran parte de la cultura humanística contemporánea se desarrolla sobre supuestos que cuestionan todo criterio de verdad o validez objetiva y dan por sentada la imposibilidad de lograr aproximaciones rigurosas a múltiples aspectos del mundo natural y social, empleando conocimientos bien establecidos y metodologías fiables. Su fácil instrumentalización por grupos de presión y colectivos negacionistas en múltiples estrategias de desinformación dan una idea cabal del riesgo de involución cultural y democrática que estos movimientos de contrailustración y pseudoescepticismo pueden suponer. 40, 41, 42, 43
El impacto cultural de las revoluciones científicas recientes —desde la Revolución Industrial y los desarrollos en automatización hasta la aparición de servicios propios de la era digital— va muy ligado a la dinámica de innovación tecnológica que sus aplicaciones suscitan, actuando como vectores decisivos de transformación social desde el sistema productivo y a través de los sistemas educativos y sus programas de capacitación profesional. La rápida sucesión de transformaciones disruptivas en pocas décadas es un fenómeno sin precedentes, con potencial constatado para modificar a escala mundial la forma en que vivimos, trabajamos y nos relacionamos.
El reverso de esta dinámica competitiva por liderar la innovación tecnológica en sectores clave ha sido la concentración de un poder desproporcionado en pocas megacorporaciones. Con medios y capacidades que superan a los de los actores estatales, imponen sus modelos de negocio, controlan las nuevas plataformas de interacción social y los cauces o herramientas de producción cultural. Conocer la influencia de estos actores y su modelo de negocio es esencial para descifrar las tendencias o corrientes subyacentes del pensamiento y la cultura contemporánea.
1. Gómez, C. (s. f.). La revolución científica. La revolución copernicana. Museo Virtual de la Ciencia del CSIC. https://museovirtual.csic.es/salas/universo/universo7.htm
2. Kuhn, T. S. (1996, orig. de 1957). La revolución copernicana: la astronomía planetaria en el desarrollo del pensamiento. Ariel, Barcelona.
3. Agazzi, E. (2011). A propósito del concepto de revolución científica (pp.37-43). En La Ciencia y el alma de Occidente. Tecnos: Madrid.
4. Kuhn, Thomas S. (1996). The Nature and Necessity of Scientific revolutions (pp. 92-110). En Curd, M., Cover, J.A., Pincock, C. (2013). Philosophy of Science. Nueva York.
5. Shapin, S. (2000). La revolución científica. Una interpretación alternativa. Paidós: Barcelona.
6. Darwin, Charles (1859). On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life. https://web.archive.org/web/20050718010317/http://embryology.med.unsw.edu.au/pdf/Origin_of_Species.pdf (vers. en español: 1877. Origen de las especies. Alicante : Biblioteca Virtual Miguel de Cervantes, 1999. https://www.cervantesvirtual.com/nd/ark:/59851/bmcd21v0).
7. Dobzhansky, T. (1937). Genetics and the Origin of Species. Columbia University Press.
8. Mayr, E. (1942). Systematics and the Origin of Species. Columbia University Press.
9. Simpson, G. G. (1944). Tempo and Mode in Evolution. Columbia University Press.
10. Huxley, J. S. (1942). Evolution: The Modern Synthesis. Allen and Unwin.
11. Pelayo, F. (2024, 15 abril). Darwin y el origen de las especies. https://historia.nationalgeographic.com.es/a/darwin-origen-especies_20218
12. Buskes, C. (2015). Darwinizing culture: Pitfalls and promises: Peter J. richerson and Morten H. christiansen (eds): Cultural evolution: Society, technology, language, and religion. The MIT press, Cambridge, MA, 2013. Acta Biotheoretica, 63(2), 223–235. https://doi.org/10.1007/s10441-015-9247-y
13. Fairbanks, D. J., & Rytting, B. (2001). Mendelian controversies: A botanical and historical review. American Journal of Botany, 88(5), 737-752. https://doi.org/10.2307/2657027
14. Darwin, C. (2015). The correspondence of Charles Darwin: 1875 volume 23 (F. H. Burkhardt, J. A. Secord, & The Editors of the Darwin Correspondence Project, Eds.). Cambridge University Press. pp. xviii, xix, xxiv. https://assets.cambridge.org/97811071/34362/frontmatter/9781107134362_frontmatter.pdf
15. Einstein, A. (1916). Die Grundlage der allgemeinen Relativitätstheorie. Annalen der Physik, 354(7), 769-822.
16. Heisenberg, W. (1958). Physics and philosophy: The revolution in modern science. Harper & Row.
17. Greene, B. (2016). El tejido del cosmos. Editorial Crítica.
18. Penrose, R. (2007). The road to reality: A complete guide to the laws of the universe. Random House.
19. Parker, L., & Toms, D. (2009). Cambridge monographs on mathematical physics: Quantum field theory in curved spacetime: Quantized fields and gravity. Cambridge University Press.
20. Greene, B. (2011). La realidad oculta: Universos paralelos y las profundas leyes del cosmos. Grupo Planeta (GBS).
21. Hawking, S., & Mlodinow, L. (2010). The Grand Design. Random House.
22. Shannon, C. E. (1948). A mathematical theory of communication. The Bell System Technical Journal, 27(3), 379–423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x (Disponible con algunas correcciones en: https://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf).
23. Wiener, Norbert (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. Paris, (Hermann & Cie) & Camb. Mass. 2nd revised ed. 1961.
24. BBVA Research (2019, 9 octubre). ¿A qué nos referimos con revolución de la información? BBVA NOTICIAS. https://www.bbva.com/es/a-que-nos-referimos-con-revolucion-de-la-informacion/
25. Fisher, R. A. (1999, orig. 1930). The genetical theory of natural selection: A complete variorum edition (H. Bennett, Ed.). Oxford University Press.
26. Wright, S. (1990, orig. 1931). Evolution in mendelian populations. Bulletin of Mathematical Biology, 52(1–2), 241–295. https://doi.org/10.1007/bf02459575
27. Haldane, J. B. S. (1968, orig. 1932). Causes of Evolution. Cornell University Press.
28. Kimura, M. (1983, orig. 1968). The neutral theory of molecular evolution. Cambridge University Press.
29. Kimura, M. (1969). The rate of molecular evolution considered from the standpoint of population genetics. Proceedings of the National Academy of Sciences of the United States of America, 63(4), 1181–1188. https://doi.org/10.1073/pnas.63.4.1181
30. Thompson, J. N. (1994). The Coevolutionary Process (2a ed.). University of Chicago Press.
31. Thompson, J. N. (2005). The geographic mosaic of coevolution. University of Chicago Press.
32. Woolhouse, M. E. J., Webster, J. P., Domingo, E., Charlesworth, B., & Levin, B. R. (2002). Biological and biomedical implications of the co-evolution of pathogens and their hosts. Nature Genetics, 32(4), 569–577. https://doi.org/10.1038/ng1202-569
33. Castells, M. (2005). Era de la informacion, la - vol. 1 la Sociedad red. Alianza.
34. Moreno Muñoz, M. (2012): "Propiedad intelectual, seguridad y control de las comunicaciones en Internet. Impacto sociocultural del fenómeno Megaupload". Gazeta de Antropología, 28 (2), art. 10 (pp. 1-18). http://hdl.handle.net/10481/23357
35. OECD. (2019). Measuring the Digital Transformation: A Roadmap for the Future. OECD Publishing. https://www.oecd.org/digital/measurement-roadmap.pdf
36. Tapscott, D. (2014). The digital economy ANNIVERSARY EDITION: Rethinking promise and peril in the age of networked intelligence (2a ed.). McGraw-Hill Professional.
37. Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. W W Norton & Co.
38. Moreno Muñoz, M. (2021): "Negacionismo y conflicto social", en Gazeta de Antropología 37 (3), art. 09. http://doi.org/10.30827/Digibug.70333
39. Howard, P., & Bradshaw, S. (2018). The global organization of social media disinformation campaigns. Journal of International Affairs, 71(1.5). https://ora.ox.ac.uk/objects/uuid:67cd8a98-8b3c-45c0-b07f-5e25b25ea67a/files/madb637c676fc7e1c0d8bd552a32751bc
40. Carnap, R. (1998). Der logische Aufbau der Welt. Meiner Verlag.
41. Lyotard, J.-F. (1979). La condition postmoderne: Rapport sur le savoir. Editions de Minuit.
42. Harris, Marvin (1980, orig. 1974). Vacas, cerdos, guerras y brujas: los enigmas de la cultura. Alianza Editorial.
43. Harris, Marvin (2000, orig. 1998). Teorías sobre la cultura en la era posmoderna. Critica.
La historia de la humanidad está marcada por discontinuidades tecnológicas y culturales que han transformado radicalmente las estructuras de la sociedad y los modos de pensar. Desde la invención de la agricultura hasta el desarrollo de la inteligencia artificial, las discontinuidades han causado alteraciones drásticas del entorno natural, modificado la base material que hace viables nuevos modos de vida y reconfigurado las redes cognitivas y los sistemas sociales, junto con las herramientas y tecnologías asociadas.
A diferencia de las aproximaciones continuistas que subrayan la evolución gradual de los sistemas sociotécnicos, el análisis de las discontinuidades permite identificar los puntos de inflexión que han desencadenado transformaciones estructurales en la configuración del pensamiento humano y sus manifestaciones culturales.1, 2
La noción de discontinuidad puede ser entendida extrapolando su sentido físico —imperfección o defecto en los materiales, detectable como una grieta o separación en la estructura— para referirse a un fenómeno multidimensional causado por la irrupción de tecnologías que originan nuevos sistemas de mediación entre el ser humano y su entorno, lo que a su vez provoca una reconfiguración de las estructuras sociales y de poder, transforma los sistemas simbólicos y representacionales y modifica de manera sustancial los procesos cognitivos individuales y colectivos.3, 4, 5
Hace aproximadamente 10.000-12.000 años, la transición de sociedades cazadoras-recolectoras a agrícolas marcó una de las primeras grandes discontinuidades en la historia humana. La agricultura permitió la sedentarización de las poblaciones y el desarrollo de excedentes alimenticios, lo que llevó a una mayor complejidad social y al surgimiento de las primeras ciudades y estados.6, 7
La modificación de los sistemas ligados a la subsistencia supuso una reconfiguración completa de la relación humana con el tiempo, el espacio y la naturaleza. La secuencia temporal determinante de la actividad humana pasa a depender de ciclos ligados a las estaciones, y el margen que estas permiten para intervenir sobre un espacio demarcado y reapropiado para su transformación sistemática, como medio de subsistencia.8
Tiene sentido asociar con este proceso modificaciones neuroplásticas capaces de modular de manera significativa la cognición humana. Entre otras, las que hicieron posible la emergencia de capacidades de planificación a largo plazo, la habilidad para manejar sistemas complejos de categorización y jerarquización, y el desarrollo de sistemas simbólicos para la contabilidad y la representación espacial.9
La domesticación de especies vegetales y animales probablemente funcionó como catalizador para la aparición de nuevas formas de organización sociopolítica, facilitando esquemas de división social del trabajo cada vez más complejos y, eventualmente, sistemas inéditos de estratificación grupal y dominación.10
Las transformaciones en este periodo hacen verosímil el surgimiento de cosmovisiones estructuradas en torno a ciclos agrícolas. Las nuevas estructuras de poder hacen plausible la emergencia de sistemas religiosos institucionalizados para su legitimación. Y diversas necesidades administrativas y contables sobrevenidas impulsaron la aparición de los primeros sistemas de escritura. A lo largo de un periodo iniciado diez mil años antes de la aparición de las primeras ciudades-estado, la revolución neolítica aportó los elementos necesarios para transformar tanto los modos de producción material como los sistemas de producción simbólica y las estructuras cognitivas colectivas, sentando las bases para las primeras civilizaciones urbanas que se desarrollaron en zonas especialmente aptas para afrontar las variaciones climáticas.11, 12, 13
La discontinuidad ocasionada por la invención y difusión de sistemas de escritura deriva de su potencial para trascender la función comunicativa inmediata. Además de un sistema de registro de información, la escritura se consolidó como un dispositivo cognitivo que permitía exteriorizar la memoria cultural y funcionar como herramienta eficaz para reconfigurar, entrenar y potenciar las capacidades mentales humanas.14
Los primeros sistemas de escritura —cuneiformes y jeroglíficos— surgieron inicialmente como tecnologías administrativas en sociedades complejas. Pero su transformación en herramientas para la transmisión intergeneracional de la memoria cultural y la creación de repositorios de conocimiento colectivo fue rápida, proporcionando ventajas —a efectos de consolidar capacidades cognitivas diferenciadas— entre sociedades orales y escriturales.
Se asocia esta discontinuidad con una bifurcación cognitiva sustancial en los procesos de pensamiento. Las culturas orales se caracterizaban por modos de cognición situados, concretos y contextuales, mientras que la escritura posibilitó el desarrollo del pensamiento abstracto, descontextualizado y analítico, lo que pudo favorecer formas más complejas de razonamiento lógico-deductivo con nuevas herramientas conceptuales y de cálculo. Su difusión en los focos de intercambio comercial se considera la base epistemológica para el desarrollo posterior del pensamiento filosófico y científico, ligado a la cultura cosmopolita y en abierta discontinuidad con la mentalidad rural y las cosmovisiones predominantes en las zonas más aisladas.15
No resulta descabellado asociar con el dominio de la escritura la irrupción de asimetrías de poder entre poblaciones alfabetizadas y no alfabetizadas, y el interés plausible por consolidar estructuras jerárquicas de control del conocimiento. Pero, en un sentido amplio, las sociedades alfabetizadas pudieron incrementar la eficacia de sus dinámicas de cooperación mediante la acumulación sistemática del saber, de conocimientos prácticos y a la larga de tradiciones intelectuales capaces de sortear las limitaciones espacio-temporales inherentes a la oralidad.16, 17
La invención de la imprenta con tipos móviles por Johannes Gutenberg a mediados del siglo XV supuso una discontinuidad con impacto decisivo en las estructuras cognitivas, sociales y políticas de la civilización occidental. Revolucionó la transmisión del conocimiento, al facilitar la reproducción masiva de libros en una escala imposible de igualar por copistas humanos. La imprenta —y la producción en molinos papeleros de un papel a base de fibras vegetales mucho más barato que el pergamino o la vitela— democratizó el acceso al saber, propiciando el Renacimiento, la Reforma y eventualmente la Ilustración. Este cambio tecnológico fomentó la alfabetización y modificó las estructuras del pensamiento, promoviendo un pensamiento más crítico y analítico.18, 20
Además de una innovación técnica cuyo uso se intentó mantener en secreto por los beneficios asociados en términos estrictamente mercantiles —su ventaja para producir copias más baratas y con alta calidad de obras a las que previamente solo una élite muy reducida podía tener acceso—, la imprenta funcionó como un dispositivo sociotécnico con potencial para reconfigurar los sistemas de producción, distribución y recepción del conocimiento. Este invento, junto con la caída del Imperio Romano de Oriente y el descubrimiento de América, fue un impulsor clave de la modernidad.18
La disponibilidad de textos idénticos y estandarizados facilitó la comparación crítica, el desarrollo de sistemas de referencias cruzadas y la emergencia de comunidades epistémicas sin fronteras políticas, jurídicas ni religiosas. El hábito de lectura silenciosa individual sustituyó a la lectura en voz alta de libros escasos y caros, y a las fuentes aportadas por docentes o recomendadas —también filtradas o censuradas— desde las instituciones se sumaron textos adquiridos por miles de usuarios en función de sus intereses y preferencias personales, lo que potenció una mayor diversidad en la interiorización del conocimiento, eliminó barreras de acceso a las bibliotecas y facilitó muchos procesos de aprendizaje reflexivo previamente limitados.19, 20
En pocas décadas, la imprenta aceleró la fragmentación de la hegemonía intelectual eclesiástica y propició el surgimiento de múltiples perspectivas, así como la difusión de ideas heterodoxas. Esta dinámica alimentó en parte la Reforma Protestante, el Renacimiento y la Revolución Científica que cristalizó en la Ilustración. La estandarización lingüística promovida por la imprenta resultó fundamental en la construcción de identidades nacionales y en la consolidación de los estados-nación modernos. La imprenta no solo permitió articular nuevas herramientas de acceso al conocimiento (textos sin errores con gran aparato de cálculo y símbolos matemáticos, muy demandados en campos como la astronomía moderna) sino que modificó sustancialmente su estructura: el formato del libro impreso, con sus índices, paginación, referencias cruzadas y organización temática, contribuyó a instaurar una nueva arquitectura del saber caracterizada por la sistematización, la categorización y la linealidad.21
Iniciada en Gran Bretaña a finales del siglo XVIII, la Revolución Industrial constituye una discontinuidad cuyo impacto trasciende la dimensión productiva. Las transformaciones asociadas reconfiguraron de manera profunda y duradera las estructuras temporales y espaciales con las que se asociaba el trabajo humano, alterando así otros componentes clave de la experiencia subjetiva y de la existencia humana. La mecanización de los procesos productivos fue la base para instaurar un nuevo régimen de temporalidad —el tiempo mecánico, homogéneo y cuantificable del reloj industrial— que desplazó las concepciones cíclicas vinculadas a ritmos naturales, predominantes hasta entonces.22
La experiencia humana comenzó a estructurarse según principios de regularidad, precisión y cuantificación, ligados sobre todo a las horas de sol disponibles y al imperativo de dedicar el mayor tiempo posible a tareas productivas según la lógica de la producción industrial. Se asocia con el capitalismo y la mecanización industrial un potencial sin precedentes para reconfigurar el espacio urbano y la experiencia individual, originando nuevas formas de subjetividad caracterizadas por la fragmentación de la experiencia, la especialización funcional y la abstracción de las relaciones sociales.22, 1
Los modelos comunitarios tradicionales quedaron fragmentados por el impacto de la industrialización, con una brecha creciente entre la clase obrera industrial y la burguesía capitalista. El proceso originó dinámicas de tensión y conflicto que estimularon el desarrollo de nuevos marcos interpretativos de la realidad social, como el liberalismo económico, el socialismo y diversas formas de pensamiento utópico.23, 24, 25
Se considera efecto colateral de la industrialización el vínculo sistemático entre investigación científica, innovación tecnológica y aplicación industrial, el cual contribuyó al desarrollo de disciplinas científicas aplicadas, aportó prestigio a sus practicantes y reforzó la institucionalización del conocimiento técnico.1, 26
La emergencia y consolidación de los medios de comunicación masiva durante los siglos XIX y XX —prensa industrial, radio, cine, televisión— instauró una discontinuidad caracterizada por la sincronización de las experiencias colectivas y la construcción de relatos e imaginarios compartidos, primero a escala nacional y después global. Por sus características técnicas, los medios masivos permitieron la diseminación simultánea de contenidos idénticos a audiencias dispersas geográficamente, generando comunidades culturales y afinidades entre destinatarios que trascendían las limitaciones de la experiencia inmediata.27
La recepción simultánea de estímulos e información estandarizada originó nuevas formas de cognición social, amplió el potencial para la construcción de marcos interpretativos comunes e hizo posible la sincronización de agendas temáticas colectivas, contribuyendo a modelar activamente los esquemas perceptivos y los sistemas de categorización social de sus audiencias.28
Los nuevos canales de comunicación de masas contribuyeron a unificar experiencias y reforzaron nexos de interconexión cultural que posibilitaron fenómenos de homogeneización cultural y lingüística a gran escala, así como nuevas formas de control social a través de la propaganda y la construcción mediática de la opinión pública. Esta dinámica sin duda favoreció la consolidación de estados-nación modernos; pero generó nuevos espacios para articular formas de resistencia y dar voz a discursos contrahegemónicos.29
Según Marshall McLuhan, los nuevos medios de masas operan como extensiones del ser humano, puesto que cada medio reconfigura las relaciones sensoriales y cognitivas, modificando tanto el contenido de la comunicación como la estructura misma del pensamiento. En referencia a la televisión, su capacidad para transmitir imágenes potenció una epistemología centrada en el formato visual, priorizando la inmediatez, la fragmentación y la estimulación sensorial (entretenimiento) en detrimento del análisis lógico-secuencial característico de la cultura impresa.30
Desde su expansión en los años 90, Internet ha sido seguramente la discontinuidad con mayor impacto en términos de comunicación y acceso a la información. Ha cambiado radicalmente las industrias, desde el comercio o el entretenimiento hasta la educación, y ha reestructurado las interacciones sociales y políticas a una escala global. A diferencia de los medios unidireccionales, Internet constituye un metasistema comunicativo que integra múltiples modalidades de interacción, difuminando las fronteras entre productores y consumidores de información.31
El paradigma cognitivo resultante se caracteriza por la hiperconectividad, la multimodalidad y la simultaneidad, lo que permite externalizar gran parte de los procesos cognitivos humanos. Los procesos de atención fluctúan entre estímulos ligados a la experiencia directa y los que proceden de sistemas tecnológicos interconectados, cuya escala implica potencial suficiente para modificar de manera sustancial los mecanismos de atención, memoria y procesamiento informativo. La sobrecarga informativa y la multiplicación de estímulos se asocian con formas de cognición en las que la capacidad de procesamiento paralelo, la atención dividida y la integración de múltiples canales informativos simultáneos no necesariamente repercuten en un mejor desempeño a la hora de realizar tareas intelectualmente exigentes.32
Internet probablemente ha acelerado otros procesos complejos de desterritorialización, fragmentación identitaria y reconfiguración de las esferas pública y privada. Un aspecto interesante de las redes sociales digitales que proliferaron tras la generalización del acceso a Internet de millones de usuarios en todos los continentes son las dinámicas de tribalización sin limitaciones geográficas, articuladas como comunidades basadas en afinidades electivas sin las limitaciones de los determinantes territoriales.33
Aunque el acceso a Internet desde dispositivos móviles baratos ha permitido a muchos grupos de zonas empobrecidas acceder a servicios digitales que inicialmente estuvieron reservados a usuarios de los países más ricos, el fenómeno de la digitalización lleva asociados indicadores específicos de exclusión social. Entre otros, los obstáculos derivads de los procesos de alfabetización compleja que forma parte del agregado de destrezas comúnmente denominado competencia digital.34
Junto a la conectividad permanente y la no-linealidad en las interacciones, el hipertexto y la naturaleza interconectada de la información en soporte digital se considera el elemento clave de ruptura con la linealidad secuencial característica de la cultura impresa. Las estructuras cognitivas reticulares que privilegian la asociación sobre la secuencialidad han sido potenciadas con el desarrollo de la digitalización y la proliferación de plataformas de servicios en línea. Pero su desarrollo se asocia también con nuevas formas de desigualdad social y fenómenos como el de la obsolescencia profesional acelerada, donde las capacidades individuales para el uso y aprovechamiento de tecnologías digitales en contextos profesionalmente exigentes constituyen una fuente de inseguridad y ansiedad constante incluso para trabajadores y personal especializado, con dificultades para adaptarse a la evolución de los contenidos y herramientas que continuamente se introducen en los flujos de trabajo.35, 36, 37, 38, 39
El Internet de las Cosas (IoT) constituye una discontinuidad emergente caracterizada por la integración sistemática de elementos del mundo físico y digital mediante dispositivos interconectados, con capacidades sensoriales y comunicativas en grado variable de complejidad y funcionalidad. Si la Internet convencional estaba centrada en la interconexión de personas y contenidos, la IoT se constituye por la integración de una red de objetos físicos que recopilan, procesan y transmiten información automáticamente, difuminando las fronteras entre entidades materiales e informacionales.40
La ubicuidad de los elementos computacionales hace posible nuevas formas de interacción entre seres humanos y dispositivos ciberfísicos, reduciendo la tasa de errores en la captación de aspectos decisivos del contexto relevante (demanda de ciertos bienes en tiempo real, dinámica de los sistemas logísticos, hábitos de consumidores, etc.). Representaciones más fiables y granulares del entorno se asocian con procesos más eficientes de toma de decisiones. Y la IoT hace posible que la cognición humana se potencie en ecosistemas tecnológicos que integran capacidades sensoriales, comunicativas y analíticas sin precedentes. La IoT reconfigura la experiencia del espacio y la materialidad, construyendo entornos capaces de responder dinámicamente al comportamiento humanos: ciudades inteligentes, hogares conectados y sistemas de transporte autónomos se mencionan habitualmente como manifestaciones donde se alteran los modos conocidos de experimentar el espacio y la agencia humana.41, 42
Su contrapartida deriva del potencial que tienen los dispositivos de la IoT para recopilar datos personales de los usuarios y permitir a terceros identificar patrones de comportamiento que pueden ser explotados para obtener ventaja competitiva en nichos de mercado disputados o en dinámicas más complejas de control social, seguridad y vigilancia. La recopilación masiva de datos sobre comportamientos cotidianos aparentemente neutros posibilita nuevas formas de vigilancia y control que tanto empresas como actores estatales pueden aprovechar para incrementar la dependencia de ciertos sistemas o servicios y, eventualmente, explotar en su favor las vulnerabilidades y puertas traseras conocidas.43, 44
La evolución reciente de la IA, acelarada con la mejora de los modelos de aprendizaje profundo y algoritmos de procesamiento del lenguaje natural, representa una discontinuidad emergente con un potencial extraordinario para redefinir los límites tradicionales de las capacidades humanas. A diferencia de otras tecnologías diseñadas para optimizar o ampliar capacidades físicas o cognitivas específicas, los sistemas dotados con IA avanzada son capaces de superar bancos de pruebas exigentes, con resultados en traducción, análisis de gráficas o razonamiento prospectivo que igualan o superan el desempeño promedio de humanos expertos en ámbitos multidisciplinares.45
Al menos desde finales del 2022, los modelos preentrenados como GPT-4, Copilot, Claude 3 y otros exhiben formas de autonomía en sus respuestas y en el modo de entender tareas complejas que se pueden interpretar razonablemente como réplicas —y, en ciertos dominios, versiones superiores— de capacidades consideradas exclusivamente humanas pocos años atrás.46
La aplicación de modelos altamente especializados de IA en tares como la gestión del tráfico en vehículos autónomos, en sistemas de diagnóstico médico avanzados o en entornos híbridos de producción industrial ilustra un proceso complejo de redefinición de la agencia humana en interacción con máquinas y sistemas dotados de capacidad agencial en grados diversos. Esta integración progresiva genera inquietudes fundadas sobre posibles transformaciones en el entorno laboral y riesgos para la privacidad y la seguridad, al tiempo que abre nuevas posibilidades creativas y consolidan modelos de aprendizaje y desarrollo profesional viables sin la inversión de tiempo y recursos requerida por las instituciones responsables de ofertar formación reglada.47
Su impacto en la comprensión de nuevas formas de cognición y agencia está por ver, dado que los sistemas de IA avanzada no constituyen meras herramientas, sino un nuevo tipo de entidades cuyos niveles de autonomía les cualifican para ser algo más que instrumentos pasivos en procesos exigentes de análisis y toma de decisiones, en la creación cultural y en la producción de conocimiento.48, 49
Con la IA avanzada se inaugura un periodo único en la evolución de la cultura humana, determinado por la aparición de herramientas y servicios con potencial para reconfigurar nociones, procesos y referencias epistémicas tradicionales. Resultan verosímiles las expectativas de operar en dinámicas colaborativas de cognición, donde humanos y sistemas artificiales aportan elementos diferenciados para abordar tareas de creciente complejidad.36, 37, 38
Si la automatización de procesos mecánicos supuso una revolución de largo recorrido, desde la máquina de vapor hasta las fábricas con más robots industriales que operadores humanos, la automatización de procesos cognitivos que solían requerir formación especializada introduce elementos complejos de incertidumbre. Por primera vez parecen amenazados los programas de capacitación laboral con los que se asocian todavía las oportunidades de empleo masivo y salarios decentes, afectando incluso al tipo de habilidades (profesionales, creativas y analíticas) que parecían restringidas a sectores de la élite laboral, y por cuyo talento compiten las empresas e instituciones que aspiran al liderazgo mundial.39
El debate en contexto académico ha servido para amplificar muchas especulaciones filosóficas sobre cómo la IA podría modular los supuestos comunes sobre la singularidad de la cognición humana, la naturaleza de la actividad consciente y los fundamentos de la agencia moral. La viabilidad de sistemas artificiales capaces de exhibir formas de autonomía, creatividad, autoaprendizaje y agencia comparables —y en muchos aspectos superiores— a las de personas expertas resulta hoy verosímil con las tecnologías disponibles, siendo previsible el choque con prejuicios antropocéntricos muy arraigados en las tradiciones filosóficas occidentales.50
1. Mumford, L. (2010, orig. 1934). Technics and Civilization. Ch. 4 (151-211). University of Chicago Press. [Trad. esp.: Técnica y civilización. Alianza, 2000.]
2. Kuhn, T. S. (2012, orig. 1962). The structure of scientific revolutions (4a ed.). Ch. IV-V, X, XIII. University of Chicago Press. https://doi.org/10.7208/chicago/9780226458106.001.0001
3. Hutchins, E. (2013). The cultural ecosystem of human cognition. Philosophical Psychology, 27(1), 34–49. https://doi.org/10.1080/09515089.2013.830548
4. Tomasello, M. (2001). The cultural origins of human cognition. Harvard University Press.
5. Luhmann, N. (2012). Theory of society. Stanford, CA: Stanford University Press.
6. Fernández, È. R. (2019, July 11). L’hypothèse de Diamond. https://eric-roca.github.io/courses/comparative_development/papers/diamond__1997/
7. Bleaney, M., & Dimico, A. (2011). Biogeographical conditions, the transition to agriculture and long-run growth. European Economic Review, 55(7), 943–954. https://doi.org/10.1016/j.euroecorev.2011.03.003
8. García-Agüero, A., Teran-Yepez, E., Batlles-delaFuente, A., Belmonte-Ureña, L. J., & Camacho-Ferre, F. (2023). Intellectual and cognitive structures of the agricultural competitiveness research under climate change and structural transformation. Oeconomia Copernicana, 14(4), 1175–1209. https://doi.org/10.24136/oc.2023.035
9. Menary, R. (2015). Mathematical Cognition - A Case of Enculturation. In T. Metzinger & J. M. Windt (Eds). Open MIND: 25(T). Frankfurt am Main: MIND Group. http://dx.doi.org/10.15502/9783958570818
10. Scott, J. C. (2017). Against the Grain: A Deep History of the Earliest States. Yale University Press.
11. Schmandt-Besserat, D. (2010). How writing came about. University of Texas Press.
12. Olsson, O. (2024). Theories of the Transition to Agriculture. In Paleoeconomics (pp. 191–207). https://doi.org/10.1007/978-3-031-52784-5_9
13. Dow, G. K., & Reed, C. G. (2023). Economic prehistory: Six Transitions That Shaped The World. Ch. 1, 6-8, 11. Cambridge University Press.
14. Ong, W. J., & Hartley, J. (2012, orig. 1982). Orality and literacy: The Technologizing of the Word. Ch. 1-3. Routledge. https://doi.org/10.4324/9780203103258
15. Havelock, E. A. (1986). The muse learns to write: Reflections on Orality and Literacy from Antiquity to the Present. Ch. 5, 9-10. Yale University Press.
16. Palmer, F. R. (2001). Realis and irrealis. In Cambridge University Press eBooks (pp. 145–184). https://doi.org/10.1017/cbo9781139167178.008
17. Goody, J. (1975, orig. 1968). Literacy in traditional societies. Ch. 1, pp. 27-68. Cambridge University Press.
18. Eisenstein, E. L. (2013). The printing revolution in early modern Europe (2a ed.). Cambridge University Press. Ch. 1-4, pp. 1-120. https://doi.org/10.1017/CBO9781139197038
19. Chartier, R. (1994). The order of books: Readers, Authors, and Libraries in Europe Between the 14th and 18th Centuries. Ch. 1, 3. Stanford University Press.
20. Febvre, L., & Martin, H. (2010, orig. franc. 1958; ing. 1976). The coming of the book: The Impact of Printing, 1450-1800. Ch. 1-2, 6-8. Verso, Third Edition (1st: NLB, London).
21. Blair, A. M. (2011). Too much to know: Managing scholarly information before the modern age. Ch. 1-2, 5. Yale University Press.
22. Thompson, E. P. (1967). Time, Work-Discipline, and Industrial Capitalism. Past & Present, 38(1), 56–97. https://doi.org/10.1093/past/38.1.56
23. Polanyi, K. (2001). The Great Transformation: The Political and Economic Origins of Our Time. Ch. 4, 6, 9-10. Beacon Press.
24. Owen, R. (1813). A new view of society. Londres: Cadell and Davies.
25. Saint-Simon, C.-H. (2014). L'industrie Tome 1, Parties 2. Hachette Livre BNF.
26. Mokyr, J. (2017). A culture of growth: The Origins of the Modern Economy. Ch. 9, 11, 14-15. Princeton University Press.
27. Anderson, B. R. O. (1991, orig. 1983). Imagined communities: Reflections on the Origin and Spread of Nationalism. Ch. 3, 6, 8, 11. Verso (edición revisada).
28. Lippmann, W., & Curtis, M. (2017, orig. 1991). Public opinion. Ch. IV, VI-VII, IX,XI, XVII, XXIV. Routledge eBooks. https://doi.org/10.4324/9781315127736
29. Habermas, J. (1991, orig. 1989). The structural transformation of the public sphere: An Inquiry into a Category of Bourgeois Society. Ch. 20-24. MIT Press.
30. Mcluhan, M. (1994, orig. 1964). Understanding media: The Extensions of Man. MIT Press.
31. Castells, M. (2010). The rise of the network society: The Information Age: Economy, Society, and Culture. ch. 5. Wiley-Blackwell.
32. Carr, N. (2020, orig. 2010). The Shallows: What the internet is doing to our brains. Ch. 3, 8-9. W. W. Norton & Company.
33. Bauman, Z. (2013). Liquid modernity. Ch. 1-5. John Wiley & Sons.
34. White, J. (2015). Digital literacy skills for FE teachers. Ch. 4-5, 8. SAGE Publications.
35. van Dijk, J. (2020). The digital divide. Cambridge/Medford: Polity.
36. Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. W W Norton & Co.
37. Ford, M. (2015). Rise of the robots: Technology and the threat of a jobless future. Oneworld Publications.
38. Susskind, R., & Susskind, D. (2015). The future of the professions. In Oxford University Press eBooks. https://doi.org/10.1093/oso/9780198713395.001.0001
39. Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280. https://doi.org/10.1016/j.techfore.2016.08.019
40. Mitew, T. (2014). FCJ-168 Do objects dream of an internet of things? The Fibreculture Journal. https://fibreculturejournal.org/wp-content/pdfs/FCJ-168Teodor%20Mitew.pdf
41. Miller, V. (2020, orig. 2015). Understanding digital culture (3a ed.). SAGE Publications.
42. De Waal, M. (2021, orig. 2014). The city as interface: How new media are changing urban life (2a ed.). NAi010 Publishers.
43. Gubbi, J., Buyya, R., Marusic, S., & Palaniswami, M. (2013). Internet of Things (IoT): A vision, architectural elements, and future directions. Future Generation Computer Systems, 29(7), 1645–1660. https://doi.org/10.1016/j.future.2013.01.010
44. Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs - Hachette Book Group.
45. Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
46. Russell, S., & Norvig, P. (2016). Artificial Intelligence: A Modern Approach (3rd ed.). Ch. 3-6, 14-22, 24-27. Pearson.
47. Dafoe, A. et al. (2020). "Open problems in cooperative AI". arXiv (Cornell University). https://doi.org/10.48550/arxiv.2012.08630
48. Baker-Brunnbauer, J. (2022). Trustworthy artificial intelligence implementation: Introduction to the TAII framework (1a ed.). Springer International Publishing. https://doi.org/10.1007/978-3-031-18275-4
49. Floridi, L. (2019). The logic of information. In Oxford University Press eBooks. https://doi.org/10.1093/oso/9780198833635.001.0001
50. Gunkel, D. J. (2018). Robot Rights. In The MIT Press eBooks. https://doi.org/10.7551/mitpress/11444.001.0001
Esta sección contiene varios estudios de caso:
→ Se trata de identificar los elementos que indican el uso de algún modelo de IA generativa en el contenido y estructura de los párrafos que siguen, aportando las instrucciones necesarias para obtener un resultado (output) similar.
I. Elementos de inteligibilidad en la investigación de la dinámica cultural
La investigación de la dinámica cultural implica comprender cómo las culturas emergen, se transforman y a veces desaparecen. Este campo abarca diversos elementos de análisis que facilitan la inteligibilidad de procesos complejos y multidimensionales. Los elementos claves incluyen el análisis de símbolos y prácticas, las estructuras de poder, los flujos de comunicación y los impactos de la tecnología.
Símbolos y prácticas: Los símbolos y prácticas culturales son fundamentales para entender cómo los individuos y grupos expresan sus identidades y valores. Investigar estos elementos implica explorar lenguajes, rituales, arte y comportamientos que son distintivos de grupos particulares. Geertz (1973) argumenta que la cultura es un sistema entrelazado de símbolos interpretativos, y su estudio requiere una descripción densa que revele las significaciones subyacentes.
Estructuras de poder: La cultura también está profundamente influenciada por las estructuras de poder dentro de una sociedad. Foucault (1978) sostiene que el poder no solo reprime sino que también produce realidad, conocimiento y discursos que forman la base de nuestras experiencias culturales y sociales. Comprender estas estructuras es esencial para analizar cómo se crean, perpetúan y cambian las prácticas culturales.
Flujos de comunicación: Los modos en que la información se transmite dentro de y entre culturas son cruciales para entender la dinámica cultural. La teoría de la globalización de Appadurai (1996) destaca cómo los flujos de medios y las migraciones influyen en las identidades culturales contemporáneas. Estos flujos permiten la mezcla de culturas y la emergencia de nuevas formas culturales que pueden ser híbridas y transnacionales.
Impactos de la tecnología: En la era moderna, ninguna investigación cultural puede ignorar el impacto de las tecnologías. Desde la imprenta hasta Internet y la IA, tecnologías disruptivas han reconfigurado las prácticas culturales y las relaciones sociales. Investigar cómo estas tecnologías afectan las normas, los valores y las estructuras sociales es crucial para comprender los cambios culturales actuales.
Metodologías interdisciplinares: Dada la complejidad de la cultura, su estudio requiere un enfoque interdisciplinario que combine perspectivas de la antropología, la sociología, la historia, la comunicación y la ciencia política. Este enfoque permite una comprensión más holística y rica de cómo las culturas operan y evolucionan.
En resumen, la investigación de la dinámica cultural es un campo amplio y complejo que requiere un análisis profundo y variado de numerosos factores. La comprensión de estos elementos proporciona una base sólida para interpretar las continuidades y discontinuidades dentro de las culturas a lo largo del tiempo.
Referencias:
- Geertz, C. (1973). The Interpretation of Cultures: Selected Essays. Basic Books.
- Foucault, M. (1978). The History of Sexuality: An Introduction, Volume I. Pantheon Books.
- Appadurai, A. (1996). Modernity at Large: Cultural Dimensions of Globalization. University of Minnesota Press.
II. IA generativa y nuevos condicionantes de la producción cultural
La dinámica cultural, entendida como los procesos de cambio y continuidad en las creencias, valores, normas y prácticas de una sociedad, constituye un ámbito de estudio difícil de perfilar para su ajuste a las metodologías de investigación social. Su complejidad inherente exige aproximaciones interdisciplinares multinivel, identificando primero elementos que proporcionan inteligibilidad y coherencia a la investigación. Uno de estos elementos es la perspectiva histórica.
La cultura no surge de la nada, sino que es el producto de un largo proceso de desarrollo y evolución. Para entender la dinámica cultural contemporánea, es esencial examinar las raíces históricas de las prácticas y creencias culturales, trazando su genealogía y transformaciones a lo largo del tiempo (Burke, 2008).
Otro elemento crucial es el contexto social y económico. La cultura no existe en un vacío, sino que está profundamente entrelazada con las estructuras sociales y económicas de una sociedad. Los cambios en estas estructuras, como la industrialización, la urbanización o la globalización, pueden tener un impacto profundo en la dinámica cultural, alterando patrones de vida, relaciones sociales y sistemas de valores (Appadurai, 1996).
Un tercer elemento es la agencia humana. Si bien las fuerzas sociales y económicas dan forma a la cultura, los individuos no son receptores pasivos, sino agentes activos que interpretan, negocian y transforman las prácticas culturales. La investigación de la dinámica cultural debe tener en cuenta las formas en que las personas navegan y dan sentido a su mundo cultural, a veces resistiendo o subvirtiendo las normas dominantes (Giddens, 1984).
La transmisión y el aprendizaje cultural son otro elemento clave. La cultura se perpetúa a través de procesos de enseñanza y aprendizaje, tanto formales como informales. Investigar cómo se transmiten las prácticas y valores culturales de una generación a otra, y cómo se adaptan y transforman en el proceso, es esencial para entender la dinámica cultural (Tomasello, 1999).
La interacción intercultural es otro elemento importante en un mundo cada vez más globalizado. A medida que las culturas entran en contacto, se influyen y se transforman mutuamente. La investigación de la dinámica cultural debe considerar los procesos de intercambio, hibridación y sincretismo cultural que surgen de estos encuentros (Burke, 2009).
La inteligencia artificial (IA) generativa tiene el potencial de aportar elementos significativos a la inteligibilidad cultural y convertirse en un condicionante de la dinámica cultural, aunque también plantea desafíos y riesgos. El uso de grandes modelos de lenguaje preentrenados (LLM/GPT) puede aportar, en términos de inteligibilidad cultural:
Nuevas formas de expresión artística: Los modelos de IA generativa pueden ser utilizados para crear obras de arte visuales, música, literatura y otras formas de expresión creativa, ampliando el repertorio cultural y ofreciendo nuevas perspectivas estéticas.
Preservación y difusión del patrimonio cultural: La IA puede ayudar a preservar y diseminar el patrimonio cultural, generando representaciones digitales de sitios arqueológicos, obras de arte o tradiciones culturales en riesgo de desaparecer.
Análisis y comprensión de patrones culturales: Los algoritmos de aprendizaje automático pueden analizar grandes cantidades de datos culturales (textos, imágenes, audio) y descubrir patrones y relaciones que ayuden a comprender mejor los fenómenos y dinámicas culturales.
Accesibilidad y democratización cultural: La IA generativa puede facilitar la creación y diseminación de contenido cultural, haciendo que sea más accesible y fomentando una mayor participación e intercambio cultural.
No obstante, es importante estar al día del debate sobre los riesgos de su aplicación en diversos contextos, que pueden sesgar y distorsionar múltiples aspectos de la dinámica cultural:
Sesgos y limitaciones de los modelos: Los algoritmos de IA generativa pueden incorporar sesgos y limitaciones presentes en los datos de entrenamiento, lo que podría perpetuar estereotipos o visiones parciales de la cultura.
Desafíos éticos y legales: Surgen preocupaciones sobre la propiedad intelectual, la privacidad y la responsabilidad por el contenido generado por IA, lo que puede requerir nuevos marcos legales y éticos.
Impacto en las industrias creativas: La IA generativa podría transformar las industrias creativas, como el cine, la música o la publicidad, lo que implica adaptaciones y cambios en los modelos de negocio.
Cambios en los patrones de consumo cultural: La facilidad de generar contenido personalizado podría alterar los patrones de consumo cultural, promoviendo una mayor fragmentación o una homogeneización de los gustos y preferencias.
Redefinición de la autoría y la creatividad: La IA generativa plantea interrogantes sobre la autoría y la naturaleza de la creatividad humana, lo que podría llevar a replantear los conceptos y las prácticas culturales.
Las iniciativas destinadas a monitorizar y analizar cuidadosamente el impacto de la IA generativa en la cultura son la base para fomentar un desarrollo ético y responsable, eficaz para garantizar el acceso equitativo a sus beneficios potenciales y mitigar sus riesgos. La colaboración entre expertos en IA, investigadores en el ámbito de las humanidades y creadores culturales parece inevitable, considerando el papel creciente de la creación y producción científica asistida por IA en la dinámica cultural (Zylinska, 2020).
El componente interdisciplinar es irrenunciable en cualquier intento de entender la cultura como un fenómeno complejo y multidimensional, desde lo simbólico hasta lo material. Integrar perspectivas de la antropología, la sociología, la historia, la psicología y otras disciplinas permite una visión más completa y sofisticada de los procesos culturales (Shweder, 1991).
Ampliar el margen de inteligibilidad y coherencia en la investigación de la dinámica cultural obliga a utilizar metodologías complejas, adecuadas para analizar las interacciones complejas entre sus ámbitos, red de actores, incentivos y niveles de actividad involucrados. En términos de perspectiva histórica, la interdisciplinariedad es ineludible como esquema de comprensión de los complejos procesos de cambio y continuidad cultural que transforman las sociedades.
Referencias:
- Appadurai, A. (1996). Modernity At Large: Cultural Dimensions of Globalization. University of Minnesota Press.
- Burke, P. (2008). What is Cultural History? (2nd ed.). Polity Press.
- Burke, P. (2009). Cultural Hybridity. Polity Press.
- Giddens, A. (1984). The Constitution of Society: Outline of the Theory of Structuration. University of California Press.
- Shweder, R. A. (1991). Thinking Through Cultures: Expeditions in Cultural Psychology. Harvard University Press.
- Tomasello, M. (1999). The Cultural Origins of Human Cognition. Harvard University Press.
- Arrieta-Ibarra, I. et al. (2017). Should We Treat Data as Labor? Moving Beyond «Free». https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3093683.
- Zylinska, J. (2020). AI Art: Machine Visions and Warped Dreams. Open Humanities Press.
III. La irrupción de agentes con IA avanzada y desempeño propio de especialistas con doctorado
1. Contextualización y presentación del caso
Información de partida
- Edwards, B., & Edwards, B. (2025, 7 marzo). What does “PhD-level” AI mean? OpenAI’s rumored $20,000 agent plan explained. Ars Technica. > - https://arstechnica.com/ai/2025/03/what-does-phd-level-ai-mean-openais-rumored-20000-agent-plan-explained/
- Johnson, D. (2025, 6 marzo). OpenAI’s PhD-Level AI Agent for $20,000 Per Month Sparkes Debate. Medium. https://medium.com/@derrickjswork/openais-phd-level-ai-agent-for-20-000-per-month-sparkes-debate-2cb26be7cb69
Detalles relevantes
- Se presentan tendencias emergentes en la IA avanzada, incluyendo desarrollos recientes de OpenAI.
- Repercusión mediática del anuncio de agentes altamente especializados, capaces de desempeñar actividades cognitivas complejas.
- El desarrollo proyectado por OpenAI de agentes AI altamente sofisticados, con capacidades cognitivas y de desempeño equiparables a las de un experto humano especializado con formación doctoral, se podría comercializar mediante suscripciones mensuales elevadas (aproximadamente 20,000 dólares).
- Supone un escenario novedoso y complejo, interesante desde la perspectiva epistemológica, social y laboral.
2. Aspectos centrales del caso
Dimensión epistémica
- Análisis comparativo entre la concepción tradicional del conocimiento experto humano y la idea emergente de conocimiento artificial avanzado indisputable.
- Indagación informada sobre si las máquinas realmente pueden "pensar" o si simplemente ejecutan simulaciones de procesos cognitivos.
- Discusión crítica sobre la redefinición del concepto de experto e investigador en el marco de sistemas artificiales con desempeño avanzado.
Dimensión socio-laboral
- Posibles efectos disruptivos en el mercado laboral, riesgo de desplazamiento de trabajos altamente calificados y oportunidades en nuevas áreas profesionales.
Categorías en la oferta de servicios iniciales
- Agente de trabajadores del conocimiento de altos ingresos ($2000/mes): diseñado para ayudar a los profesionales a ordenar y clasificar clientes potenciales de ventas, agilizando los flujos de trabajo y mejorando la toma de decisiones.
- Agente desarrollador de software ($10,000/mes): dirigido a ingenieros de software, ofrece funciones como asistencia de codificación, depuración y automatización de tareas de desarrollo repetitivas.
- Agente de investigación de nivel de doctorado ($20,000/mes): la IA más avanzada en la línea de OpenAI, capaz de realizar investigaciones académicas profundas, analizar conjuntos de datos masivos e incluso sugerir nuevas teorías y modelos científicos.
→ Fuente: D. Johnson, Medium
- Implicaciones socioculturales ligadas a la percepción cambiante sobre la autoridad epistémica y la expertise humana, en comparación con las capacidades avanzadas de la inteligencia artificial.
- Reflexión sobre la democratización o posible concentración del poder cognitivo debido al control exclusivo por parte de las empresas tecnológicas que más han invertido en su desarrollo.
3. Prejuicios y estereotipos sobre la IA
- Evaluación crítica de ciertas percepciones negativas de la IA, por desconocimiento técnico o simplificaciones excesivas.
- Argumentación fundamentada sobre la función complementaria de la inteligencia artificial avanzada respecto a las capacidades humanas, mostrando un marco posible de sinergia o colaboración entre humanos e IA.
- Prospectiva informada sobre la coexistencia productiva entre humanos e inteligencias artificiales altamente avanzadas.
4. Cuestiones para el debate
- ¿Qué transformaciones epistemológicas podrían derivarse del reconocimiento formal a entidades artificiales de capacidades cognitivas altamente especializadas, en grado igual o superior al desempeño del humano experto?
- ¿Existen aspectos fundamentales del conocimiento humano, como la creatividad o la intuición, que podrían permanecer inaccesibles para la IA? ¿Qué otros elementos de la ontogénesis humana son relevantes?
- Desde una perspectiva ética, ¿cuáles serían las implicaciones y riesgos de delegar en sistemas artificiales decisiones críticas, en programas de investigación avanzada o ante dilemas morales complejos?
- ¿De qué manera podría redefinirse la identidad y el rol profesional humano ante el avance significativo de estos agentes?
5. Consideraciones fundamentales sobre cognición artificial
- Análisis detallado de cómo las máquinas pueden ejecutar tareas cognitivas complejas mediante modelos probabilísticos sofisticados y aprendizaje profundo, aunque sus procesos internos difieran sustancialmente del pensamiento humano.
- Discusión informada sobre las diferencias fundamentales entre el pensamiento consciente humano y la ejecución funcional y técnica realizada por sistemas artificiales avanzados.
Lecturas sugeridas
- Floridi, L. (2023). The Ethics of Artificial Intelligence: Philosophical Perspectives. Oxford University Press.
- Bostrom, N. (2024). Superintelligence: Paths, Dangers, Strategies (Updated Edition). Oxford University Press.
- Tegmark, M. (2023). Life 3.0: Being Human in the Age of Artificial Intelligence (2nd ed.). Vintage.
Las comunidades de práctica profesional (colectivos que representan los distintos ámbitos de actividad en el ejercicio de una profesión) comparten un objetivo común, centrado en el desarrollo y mejora de habilidades, conocimientos y prácticas requeridas para el ejercicio competente de una profesión específica. Para conseguirlo intercambian ideas, colaboran en proyectos, realizan tareas de mentoría y planifican procesos de aprendizaje horizontal, entre pares con distintos grados de experiencia. Aunque cada integrante difiera del resto en otros intereses, valores y puntos de vista, no se cuestiona el objetivo básico (avanzar en la práctica profesional y mejorar los estándares de calidad en el trabajo), ni se subestima el nuevo conocimiento o las innovaciones técnicas potencialmente útiles para dicho fin. Son comunes en entornos de actividad profesional como la enseñanza preuniversitaria, la programación informática y las profesiones sanitarias; pero pueden constituirse y operar (compartiendo o generando conocimiento para resolver problemas) en múltiples sectores de actividad económica y voluntariado, no necesariamente vinculados a profesiones tradicionales.1, 2, 3, 4
Estos grupos tienen interés para la epistemología filosófica en tanto que instancias de aprendizaje situacional, donde la percepción y acción ocurren a menudo antes de la conceptualización. Es un tipo de aprendizaje basado en actividades cotidianas, inseparables de los entornos complejos en los que se aplica el conocimiento. Y es el resultado de procesos sociales orientados a la resolución colaborativa de problemas, con colegas que comparten la convicción de que el conocimiento se adquiere a través de la experiencia y se transfiere a otras situaciones similares. Se trata, por tanto, de modos de aprendizaje que surgen de la actividad real desarrollada en un ámbito profesional, es decir, conectados con la realidad.5
La investigación científica, en tanto que ámbito profesional, se puede caracterizar por varios aspectos que definen sus prácticas, sus procesos de intercambio de conocimientos y solución de problemas, y su relación con la realidad:
Conjunto de conocimientos compartidos: Los miembros de una comunidad científica comparten un cuerpo de conocimientos, teorías, métodos y técnicas que constituyen el paradigma o tradición de investigación en su campo. Este conocimiento compartido permite la comunicación efectiva y el avance colectivo en la solución de problemas relevantes.
Metodologías y estándares: Existen metodologías y estándares aceptados por la comunidad (no solo guías de buenas prácticas) para llevar a cabo la investigación, recopilar y analizar datos, y evaluar las evidencias y resultados. Estos estándares garantizan el rigor, la objetividad y la fiabilidad del trabajo científico, se utilizan para validar resultados o tecnologías y se incorporan en la cadena de prácticas de aprendizaje que merece la pena transmitir a las nuevas promociones de principiantes.
Escepticismo organizado: En la comunidad científica las afirmaciones y teorías deben estar respaldadas por evidencias sólidas y ser sometidas a un escrutinio crítico por parte de otros miembros de la comunidad, antes de su aceptación generalizada.
Revisión por pares: Los nuevos hallazgos, teorías y publicaciones son evaluados y revisados por otros expertos en el campo antes de ser aceptados y difundidos. Este proceso de revisión por pares asegura la calidad y validez del conocimiento, aunque tenga lagunas y limitaciones (en cuyo caso cabe la retractación total o parcial de los artículos cuestionados).
Apertura al debate y la crítica: La comunidad científica fomenta el debate abierto, la crítica constructiva y la refutación de ideas y teorías, lo que permite el avance y la corrección de errores.
Relación con la realidad: A través de la observación, la experimentación y la recopilación de datos empíricos, la investigación científica busca comprender y explicar fenómenos o aspectos de la realidad. Las teorías y modelos científicos deben ser consistentes con las observaciones y sometidos a pruebas empíricas. Su aceptación es siempre provisional, aunque formen parte de núcleos teóricos bien consolidados.
Progreso y autocorrección: La investigación científica es un proceso acumulativo y autocorrectivo, donde los nuevos descubrimientos y evidencias pueden llevar a la modificación o reemplazo de teorías existentes, lo que permite un avance continuo en la comprensión de la realidad.
Aunque la comunidad científica resulte en muchos aspectos indistinguibles de otros grupos interesados en lograr reconocimiento social, mejores condiciones de trabajo y garantías de estabilidad, su rasgo cualitativamente distintivo es la interacción de individuos (e instituciones a las que pertenecen) orientada a la resolución de problemas reales, el intercambio de experiencias y la construcción colectiva de conocimiento. Su actividad y resultados prácticos constituyen un potente vector de cambio e innovación social.6
Conocimientos, metodologías y estándares compartidos, junto con cierta forma de escepticismo organizado y disposición a la crítica y la corrección constante, son el tipo de prácticas que garantizan un grado razonable de objetividad y fiabilidad en los resultados del conocimiento adquirido sobre determinados fenómenos o aspectos de la realidad, que sirven de base para el avance o progreso frente a estadios previos de mayor incertidumbre o menos evidencia. Caracterizan, en definitiva, la actividad de comunidades de práctica profesional ancladas en la realidad, integradas por lo general en asociaciones profesionales de ámbito estatal o internacional.7, 8, 9
En contraste con las comunidades articuladas sobre prácticas y procedimientos de transmisión y mejora de conocimiento especializado, los grupos de afinidad ideológica se aglutinan sobre creencias y valores compartidos, a menudo abstractos y subjetivos, y por lo general refractarios a la crítica y la corrección o revisión basada en evidencia. Representan dos formas distintas de organización y colaboración dentro de la sociedad, que a menudo entran en conflicto (pero no excluyen ciertos esquemas de hibridación ocasional).10
En los grupos de afinidad ideológica, los individuos no buscan mejorar su competencia a través de la reflexión crítica, la excelencia en el manejo de las técnicas de su profesión y la innovación en la resolución de problemas. El objetivo de las interacciones individuales es colaborar y prestarse apoyo mutuo en la promoción de una causa común o para la difusión de un conjunto de creencias. Sus reglas de funcionamiento son menos formales, comparadas con las comunidades profesionales, y refuerzan sus dinámicas de cohesión cuando identifican oportunidades de cambio social o político. Su liderazgo no depende de criterios de excelencia y competencia profesional, sino de la identificación sin fisuras con la ideología compartida y el compromiso con los objetivos del grupo.
En síntesis, sus rasgos distintivos son:
Los grupos de afinidad ideológica pueden ser poderosos agentes de cambio social en contextos donde persisten prácticas discriminatorias e injusticia estructural. Su capacidad para movilizar a grandes sectores de la población en torno a una causa común ("mentalidad de clase oprimida por las élites metropolitanas" es el ejemplo que utiliza Michael Lind en The new class war: Saving democracy from the metropolitan elite, 2020), puede potenciar la formación de movimientos sociales con representación suficiente para tomar el control efectivo de instituciones decisivas en las dinámicas de cambio social.11
Estos grupos ofrecen un espacio para la expresión de identidades y la solidaridad entre personas con creencias similares. Pero es frecuente su vinculación con agendas involutivas y programas regresivos —autoritarios— de acción política. Sus características les hacen propensos a la polarización y al sometimiento irreflexivo a reglas e ideas de grupo, lo que puede limitar el diálogo y, en la práctica, excluir cualquier forma de colaboración con quienes tienen puntos de vista diferentes.12
La falta de un enfoque práctico, centrado en la realidad y ajustado a la complejidad de los problemas que les conciernen, genera obstáculos a menudo insuperables para el cumplimiento de sus objetivos. Pero sería imprudente subestimar su capacidad para introducir vectores de irracionalidad en las dinámicas de cambio de las democracias liberales, con potencial para bloquear o distorsionar, en la práctica, los mecanismos de cooperación social en aspectos tan básicos como la prevención de enfermedades, la reducción de la contaminación y la adaptación a nuevos escenarios de riesgo ambiental o geopolítico.13
Si se tiene en cuenta la cantidad de asuntos dependientes de conocimiento científico-técnico especializado sobre los que las instituciones democráticas legislan, regulan o incentivan y coordinan, es obvio el peligro que supone la acción de grupos no anclados en la realidad ni dispuestos a operar con criterios basados en la evidencia o en el mejor conocimiento disponible.14
Como señala Jonathan Rauch en The Constitution of Knowledge (2021), el caos epistémico —un contexto cultural y político que considera cualquier creencia tan válida como los hechos establecidos— representa una grave amenaza para la democracia liberal y deteriora la capacidad de las sociedades para abordar desafíos complejos con herramientas y procedimientos basados en conocimiento objetivo. Sus motivos de preocupación se asocian con las características que observa en estos grupos:
Rechazo de la autoridad epistémica: Los grupos de afinidad ideológica tienden a desafiar y desacreditar las fuentes de conocimiento autorizado, como las instituciones científicas, académicas y los procesos de revisión por pares, en favor de sus propias "verdades" basadas en creencias compartidas, sea cual sea su proceso de aceptación o justificación.
Erosión del compromiso con los hechos: Estos grupos a menudo operan con narrativas alternativas que desafían los hechos establecidos y la evidencia empírica. Lo hacen creando una realidad paralela impermeable a la corrección a través de plataformas propias de difusión o cooptando y financiando la actividad de otras ya establecidas, para dar apariencia de profesionalidad a sus estrategias de desinformación.
Polarización y fragmentación del espacio público: Atrincherados en sus propias "cámaras de eco" ideológicas, estos grupos contribuyen a la polarización del discurso público y a la fragmentación de la sociedad en comunidades herméticas e irreconciliables, incapaces de optimizar recursos y colaborar en la resolución eficaz de problemas comunes.
Desconfianza hacia las instituciones y colectivos de expertos: Los grupos de afinidad ideológica fomentan la desconfianza sistemática hacia las instituciones democráticas, los medios de comunicación tradicionales y los grupos de personas expertas, socavando la autoridad de la razón y el conocimiento establecido. De esta manera consiguen introducir en la opinión pública la convicción preilustrada de que todo punto de vista es igualmente subjetivo, arbitrario y sesgado por intereses o emociones, incluyendo los canales y medios donde se expresan.
Riesgo de deriva autoritaria: En casos extremos, estos grupos pueden promover narrativas y políticas que erosionan los principios democráticos, los derechos individuales y el Estado de Derecho, abriendo la puerta a formas de autoritarismo y negación de la realidad incompatibles con el debate público sosegado, plural y orientado al consenso.
Para contrarrestar este riesgo, Rauch y otros autores abogan por fortalecer las instituciones y procesos que salvaguarden la integridad del conocimiento, promoviendo una educación centrada en el desarrollo del pensamiento crítico y mejores habilidades de alfabetización técnica y digital, necesarias para detectar las campañas de desinformación. Su objetivo sería fomentar una cultura de respeto por la verdad y el diálogo o la argumentación racional en el espacio público.14
Tom Nichols señala en The Death of Expertise (2024) cómo la accesibilidad de información sin contrastar a través de Internet ha llevado a una erosión del respeto por el conocimiento experto y la autoridad profesional en campos especializados. Argumenta con profusión de detalles sobre el potencial de este fenómeno para socavar la capacidad de las sociedades de tomar decisiones informadas, agravada por la deriva de los sistemas educativos y universidades hacia "sistemas donde el cliente siempre tiene la razón" (cap. 3) y nuevas formas de periodismo donde la investigación de los hechos importa menos que entretener o retener usuarios con cualquier contenido.15, 16
En Post-Truth (2018), Lee McIntyre analiza las consecuencias sociales y políticas del proceso de cambio donde la emoción y las creencias personales sustituyen a la evidencia y la verdad en el discurso público. El auge de las fake news y los hechos alternativos se produce por el declive de los medios profesionales y la popularidad de las redes sociales y medios digitales. Sostiene que las narrativas posmodernas —difíciles de encajar en una caracterización común— pueden haber facilitado en parte esta deriva sociocultural, socavando cualquier noción de verdad universal. Pero identifica como principal impulsor de la "posverdad" actual la actividad de grupos de afinidad ideológica (Trump’s minions, p. 174) involucrados en propagar deliberadamente mentiras y desinformación con fines políticos, de cabildeo u otros.17
Bergstrom y West proponen en Calling Bullshit: The Art of Skepticism in a Data-Driven World (2021) diversas herramientas y una guía práctica para identificar y combatir la desinformación y las medias verdades, analizando cómo la estadística y los datos pueden ser manipulados para engañar. A los problemas que ocasionan unos niveles limitados de alfabetización general entre la población hay que sumar el déficit de herramientas para el pensamiento crítico derivado del anumerismo. Paradójicamente, esta carencia no se percibe tan problemática como otros tipos de ignorancia; pero explica cómo incluso audiencias cultivadas sucumben a los engaños e interpretaciones sesgadas en el discurso político. La incompetencia para realizar cálculos básicos en la interpretación (gráfica, bioestadística y probabilística) de datos, tendencias y márgenes de incertidumbre distorsiona la percepción de riesgo en decisiones que afectan a la salud, a la planificación del gasto o al desarrollo personal, con resultados a menudo indistinguibles de la conducta irreflexiva basada en emociones y desconocimiento.18, 19, 20
Las estrategias de comunicacion empleadas por los grupos de afinidad ideológica se adecuan en muchos aspectos a pautas compatibles con diversas aportaciones de la sociología contemporánea, tan eficaces o más que las narrativas posmodernas para convencer a sectores de la población con amplia formación posobligatoria de que la realidad es socialmente construida por los individuos. Una obra clásica en la interpretación sociológica de cómo se forman, mantienen y cambian las creencias y el conocimiento en la sociedad es The Social Construction of Reality: A Treatise in the Sociology of Knowledge (1966), de Peter Berger y Thomas Luckmann. Su influencia fue considerable, reforzando los enfoques que relativizaban el conocimiento (una construcción social desligada de cualquier noción de verdad objetiva) y enfatizando los procesos intersubjetivos (interacción, negociación y construcción de significados compartidos) para comprender la formación del conocimiento y la realidad social, cuyas estructuras no son más que productos históricos y contingentes de las acciones humanas.21
La recepción crítica de esta obra se produjo tanto desde perspectivas posmodernas y post-estructuralistas (por su énfasis excesivo en la intersubjetividad, en detrimento del estudio de las relaciones de poder, las narrativas marginadas y los procesos de deconstrucción del conocimiento establecido) como desde la sociología. La influencia que Berger y Luckmann otorgaban a la socialización primaria (proceso en el que a los individuos se les inculca la cultura del grupo social al que pertenecen, donde aprenden conocimientos específicos y desarrollan sus habilidades para participar en la vida social como algo dado, a lo que se adaptan mimetizando las formas de comportamiento organizado característico de su grupo) deja en segundo plano las dinámicas de cambio social que más contribuyen a la transformación de lo dado (toma de conciencia por parte de grupos y colectivos marginados, a partir de condicionantes de género, etnia o clase social, por ejemplo),22 y que se asocian con los procesos de socialización secundaria en los que instituciones específicas (institutos, universidades, centros de especialización profesional, etc.) proporcionan competencias más abstractas y sofisticadas. Estas se orientan al desempeño de tareas en el mundo objetivo, compatibles con márgenes amplios de innovación y creatividad, en función de características, habilidades y preferencias individuales que determinan la adquisición de nuevos recursos e itinerarios de aprendizaje como factor socializante. Los nuevos elementos de socialización se superponen a las estructuras cognitivas, habilidades, valores, reglas y significados previos, aportando al sujeto nuevos modos de conectar con la realidad y capacidad para manejar contenidos significativos más extensos e intelectualmente complejos que los aportados por la dinámica convencional de las instituciones implicadas en la socialización primaria.21
El margen de innovación en los procesos de construcción social del conocimiento es amplio pero limitado, como Ian Hacking expuso en The Social Construction of What? (1999). Su crítica detallada al concepto de "construcción social" tuvo en cuenta que no todas las categorías están igualmente construidas desde el punto de vista social. Hacking analiza los "tipos interactivos" (interactive kinds), categorías que interactúan con los objetos que etiquetan y los alteran, para explicar cómo un fenómeno puede ser a la vez socialmente construido y real. A partir de diversos estudios de caso (incluye la caracterización de algunas enfermedades mentales como el trastorno de personalidad múltiple; y el largo proceso de comprensión de cómo se formaron las dolomitas y el papel de las nanobacterias, entre otros) concluye Hacking que es necesario distinguir entre "formas de conocimiento" y "contenido del conocimiento" para comprender el desarrollo del conocimiento científico.23
Las tesis de Berger y Luckmann reforzaron todas las posiciones afines al relativismo epistémico, no solo en filosofía y sociología. Sostener que la verdad y la validez del conocimiento dependen de contextos sociales específicos, más que de criterios objetivos y decisiones metodológicas cualificadas, minaba la confianza en los resultados de investigación obtenidos con metodologías y protocolos estandarizados. En la práctica, dificulta distinguir entre creencias justificadas y meras opiniones, incluyendo en estas las producidas con algún componente de información rigurosa y las acríticamente heredadas del subsistema social al que se pertenece.24
Entre relativismo y universalismo podrían encuadrarse posiciones como la de Ronald N. Giere en Science without Laws (1999) y Scientific Perspectivism (2006), cuya perspectiva de la ciencia no se centra tanto en la búsqueda de leyes universales como en la construcción de modelos que representan aspectos limitados del mundo. Giere argumenta que estos modelos son generalizaciones restringidas, diseñadas para servir a fines humanos y que corresponden a partes del mundo de maneras que pueden ser consideradas genuinamente objetivas. Por importantes que resulten los aspectos sociales que condicionan la actividad científica, Giere no pierde de vista que «el conocimiento científico es conocimiento del mundo y que hay una diferencia entre el conocimiento y la mera opinión, incluso la opinión generalizada» (SWL, p. 3). La ciencia puede reflejar los valores culturales predominantes; pero esto de ninguna manera impide un contacto significativo y efectivo con el mundo.38, 39
La capacidad constatada de la ciencia y sus aplicaciones para producir tecnologías efectivas y predicciones precisas desafían, no obstante, la idea de que el conocimiento es puramente una construcción social. El realismo científico constituye el paradigma subyacente a gran parte de la investigación contemporánea en física y biología, por ejemplo, con distintos grados de sofisticación y sensibilidad a los sesgos epistémicos más comunes. Los realistas científicos (y materialistas en diverso grado, como Mario Bunge)25 sostienen que la eficacia de la ciencia en interactuar con el mundo apunta a una realidad objetiva independiente de nuestras construcciones sociales, por más que en estas influyan los determinantes estructurales que limitan la agencia individual y el poder de influencia que ciertos actores tienen para atenuar la capacidad que cada individuo se atribuye de cuestionar y cambiar las estructuras sociales. Berger y Luckmann argumentan desde una perspectiva antropocéntrica, que no presta la debida consideración a las agencias y fuerzas no humanas como los organismos, los fenómenos meteorológicos, los objetos o artefactos tecnológicos y los procesos materiales, los cuales desempeñan un papel fundamental en la configuración del conocimiento y los modos de conexión con la realidad. La distinción radical entre naturaleza y cultura en la obra de Berger y Luckmann impide captar el grado de dependencia que tienen los procesos de construcción social de otros procesos materiales y naturales.26, 27, 28
Esta dependencia permite entender por qué el negacionismo científico resulta socialmente peligroso, cuando se propaga en un contexto de creciente influencia de los grupos de afinidad ideológica activamente orientados al dominio social y con estrategias que persiguen desacreditar a las instancias independientes de conocimiento experto. Sin el contrapeso de datos fiables y conocimiento especializado, los actores negacionistas tienen más probabilidades de neutralizar los intentos de probar cómo la contaminación ambiental ocasionada por la actividad industrial en ciertas zonas supone para la población local expuesta a la acción tóxica de ciertas moléculas en el aire, el agua o los alimentos un mayor riesgo de padecer enfermedades, trastornos del desarrollo y muerte prematura. Aunque el daño en la naturaleza o para la salud humana quede finalmente establecido en procesos judiciales largos y costosos, el efecto dilatorio de las campañas negacionistas en salud pública, en la lucha contra el tabaquismo o contra la vulnerabilidad a fenómenos climáticos extremos supone para millones de personas daños irreparables y pérdida de oportunidades vitales, cuando tendrían el mismo derecho que las élites privilegiadas a disfrutar de los beneficios de un entorno natural saludable y de las muchas oportunidades de interacción beneficiosa que ofrecen los ecosistemas.29
El relativismo epistémico ha tenido sus efectos de cola larga también en sociología y en la teoría política. La pérdida de credibilidad de investigadores e instituciones científicas ha dañado el reconocimiento y prestigio de las ciencias sociales, dificultado la comunicación y difusión efectiva de sus resultados de investigación sobre polarización y fragmentación social como efecto de las cámaras de eco ideológicas. Esta dinámica se asocia con la ruptura o desaparición de los marcos de diálogo y de los protocolos para lograr consensos basados en hechos, ajustados a la gravedad de los problemas y a la urgencia de los periodos de reacción. El escenario resultante pone en pie de igualdad, en los medios generalistas y en las plataformas de interacción social en línea, las ideas o recomendaciones sustentadas en conocimiento especializado y las opiniones o creencias preilustradas de grupos reaccionarios. De este modo la ignorancia pasa a ser una virtud, y el concepto de ciudadanía se asocia más con una actitud de resistencia a los hechos científicos en la defensa de las creencias de grupo que con la capacidad de actuar de manera reflexiva a informada en la búsqueda del bien común.32
Dificultando o retrasando la implementación de políticas basadas en evidencias científicas sobre salud pública, cambio climático, lucha contra la corrupción y prevención de conflictos, los actores negacionistas han logrado politizar y transformar en batalla ideológica cualquier proceso de toma de decisiones informadas orientadas a la cooperación, minando prácticamente todas las propuestas de progreso y mejora colectiva en salud reproductiva, libertades civiles, derecho de asilo, igualdad y oportunidades educativas, entre otras causas. Considerando la dimensión de las amenazas, no debe extrañar el encuadre distópico, catastrofista o colapsista del asunto en la literatura.29, 30, 31, 33, 34
En comparación con la segunda década del siglo XX, se dispone hoy de más perspectiva para detectar la debilidad estructural inherente a las democracias. El auge del populismo de derechas no se explica sin el protagonismo de las redes sociales, las plataformas digitales y los canales de propaganda en línea que amplifican sus mensajes con mayor eficacia que las opiniones de comunidades o grupos anclados en la realidad. Sin necesidad de incitar a la revolución o al golpe de estado —como intentaron D. Trump (6 de enero de 2021) o J. Bolsonaro (8 de enero de 2023) con su narrativa de fraude electoral—, basta una acción lenta y continuada de debilitamiento progresivo del sistema judicial, prensa y medios profesionales, instancias reguladoras y comités de asesoramiento experto, para erosionar de modo irreverible las instituciones centrales del sistema político democrático.33, 36
Autores como Shawn Rosenberg (Democracy devouring itself, 2019) analizan la democracia como un experimento fallido, cuya debilidad estructural no solo compromete su continuidad, sino que fracasa en promover el tipo de ciudadanía capaz de valorar sus logros y ventajas, por lo que no cabe ser optimistas acerca de su futuro. El intento de las élites de mantener bajo control los impulsos autoritarios de la población mediante crecimiento económico no deja de ser una ilusión de elección, como en las campañas exitosas de mercadotecnia que logran sesgar la elección del consumidor sin que este perciba la manipulación de la que ha sido objeto. La gobernabilidad democrática tiene una debilidad estructural asociada con la paradoja de la tolerancia, según la propuso Karl Popper en La sociedad abierta y sus enemigos (1945): una sociedad que sea excesivamente tolerante y permita la proliferación de ideas intolerantes podría socavar las bases de su propia tolerancia, puesto que tolerar a quienes promueven la intolerancia conlleva el riesgo de que los intolerantes aprovechen esa libertad para impulsar agendas totalitarias y socavar los valores democráticos, las libertades civiles y la convivencia pacífica.37
Según Rosenberg, el problema se agrava porque los sistemas democráticos no han contribuido lo necesario a crear la ciudadanía que necesitan, es decir, con las capacidades cognitivas y emocionales necesarias para entender sus obligaciones en la esfera pública, las normas culturales de referencia y sus vínculos con organizaciones e instituciones.36
Las diferencias entre el comportamiento de las comunidades de práctica profesional y los grupos de afinidad ideológica se hacen más acusadas en los procesos y campañas electorales. Mientras las redes de funcionarios y personal involucrado en garantizar la normalidad del proceso en países democráticos cooperan mayoritariamente para asegurar la limpieza y objetividad de los resultados, los grupos de afinidad ideológica con creencias autoritarias conspiran para desacreditar a sus rivales y denunciar fraude desde que conocen los primeros resultados desfavorables. A continuación desacreditan a todos los órganos responsables de velar por la limpieza del proceso, ignorando toda evidencia en el recuento de votos. Es la actitud que caracteriza a los colectivos fascistas, elitistas y supremacistas, sin respeto alguno por las instituciones de la democracia ni por los resultados de las urnas: cuando no les favorecen, solo reflejan la voluntad de los ineptos.
1. Grout, G. (2022). What are communities of practice? Nursing Older People, 34(2), 15–15. https://doi.org/10.7748/nop.34.2.15.s6.
2. Patton, K., & Parker, M. (2017). Teacher education communities of practice: More than a culture of collaboration. Teaching and Teacher Education, 67, 351–360. https://doi.org/10.1016/j.tate.2017.06.013.
3. Cho, H. (2016). Under co-construction: An online community of practice for bilingual pre-service teachers. Computers & Education, 92–93, 76–89. https://doi.org/10.1016/j.compedu.2015.10.008.
4. James-McAlpine, J., Larkins, S., & Nagle, C. (2023). Exploring the evidence base for Communities of Practice in health research and translation: a scoping review. Health Research Policy and Systems, 21(1), 55. https://doi.org/10.1186/s12961-023-01000-x.
5. Terry, D. R. et al. (2020). Communities of practice: A systematic review and meta‐synthesis of what it means and how it really works among nursing students and novices. Journal of Clinical Nursing, 29(3–4), 370–380. https://doi.org/10.1111/jocn.15100.
6. Kellam, H., Cook, C., Smith, D. L., & Haight, P. (2023). The Virtual Community of Practice Facilitation Model. International Journal of Technology and Human Interaction, 19(1), 1–14. https://doi.org/10.4018/IJTHI.328578.
7. Metzger, M. J. et al. (2019). Knowledge sharing, problem solving and professional development in a Scottish Ecosystem Services Community of Practice. Regional Environmental Change, 19(8), 2275–2286. https://doi.org/10.1007/s10113-019-01537-0.
8. Lahenius, K. (2012). Communities of practice supporting doctoral studies. The International Journal of Management Education, 10(1), 29–38. https://doi.org/10.1016/j.ijme.2012.02.003.
9. Schimel, J. (2023). Professional Communities. In Your Future on the Faculty (pp. 160–165). Oxford University PressNew York. https://doi.org/10.1093/oso/9780197608821.003.0013.
10. Kyle, M. et al. (2016). Community of practice or affinity space: A case study of a professional development MOOC. Education for Information, 32(1):101-119. doi: 10.3233/EFI-150965.
11. Myers, K., Trull, L. H., Bryson, B. J., & Yeom, H. S. (2019). Affinity Groups: Redefining Brave Spaces. Journal of Baccalaureate Social Work, 24(1), 1–18. https://doi.org/10.18084/1084-7219.24.1.1.
12. Arwid, Lund. (2017). The Ideological Formations Take Shape. 263-329. doi: 10.1007/978-3-319-50690-6_7.
13. Oreskes, Naomi (2021). Why Trust Science? Stephen Macedo (ed.). Princeton, NJ: Princeton University Press.
14. Rauch, Jonathan (2021). The Constitution of Knowledge: A Defense of Truth. Brookings Institution Press. Caps. 1-6.
15. Nichols, T. (2024). The Death of Expertise. Oxford University PressNew York. https://doi.org/10.1093/oso/9780197763827.001.0001.
16. Barton, C. C. (2019). Critical Literacy in the Post-Truth Media Landscape. Policy Futures in Education, 17(8), 1024–1036. https://doi.org/10.1177/1478210319831569.
17. McIntyre, Lee (2018). Post-Truth. Londres, Inglaterra: MIT Press. Caps.
18. Bergstrom, Carl T., y Jevin D. West (2021). Calling Bullshit: The Art of Skepticism in a Data-Driven World. Nueva York, NY: Random House Trade Paperbacks.
19. Marín, Bernardo (2011). “El ‘anumerismo’ también es incultura”. EL PAÍS. 6/04/2011. https://elpais.com/diario/2011/04/06/sociedad/1302040801_850215.html.
20. Paulos, John Allen (1994). El Hombre Anumerico. TusQuets.
21. Berger, Peter L., y Thomas Luckmann (2011, orig. de 1966). Social construction of reality, the: A treatise in the sociology of knowledge. Open Road Media.
22. Bourdieu, P. (1989). Social Space and Symbolic Power. Sociological Theory, 7(1):14. https://doi.org/10.2307/202060.
23. Hacking, Ian. (1999). The Social Construction of What? Harvard University Press.
24. Luhmann, Niklas. (1995). Social Systems. Stanford University Press.
25. Bunge, M. (1981): Materialismo y ciencia. Barcelona: Ariel.
26. Alaimo, S. (2010). Bodily natures: Science, environment, and the material self. Indiana University Press. Caps. 1, 3, 5.
27. Braidotti, R. (2019). Posthuman knowledge. Polity Press.
28. Coole, D. H., & Frost, S. (Eds.). (2010). New materialisms: Ontology, agency, and politics. Duke University Press.
29. Moreno Muñoz, M. (2021). Negacionismo y conflicto social. Gazeta de antropología. https://doi.org/10.30827/digibug.70333.
30. Moerland, R., Nelen, H., & Willems, J. C. M. (2016). Denialism and Human Rights. Intersentia.
31. Kunreuther, H., G. Heal (2012). Managing Catastrophic Risk. National Bureau of Economic Research, Cambridge, M. A. https://www.nber.org/system/files/working_papers/w18136/w18136.pdf.
32. Lewis, M. (2018). The fifth risk: undoing democracy. Londres, Allen Lane-Penguin Books.
33. Levitsky, S., & Ziblatt, D. (2018). Cómo mueren las democracias. Editorial Ariel.
34. Kolbert, E. (2014). La sexta extinción: una historia nada natural. Grupo Planeta (GBS).
35. Coates, J. F. (2009). Risks and threats to civilization, humankind, and the earth. Futures, 41(10), 694–705. https://doi.org/10.1016/j.futures.2009.07.010.
36. Rosenberg, Shawn (2019). “Democracy devouring itself: The rise of the incompetent citizen and the appeal of right wing populism”. https://escholarship.org/uc/item/8806z01m.
37. Popper, K. (2011). The open society and its enemies. Routledge.
38. Giere, R. N. (1999). Science without laws. University of Chicago Press.
39. Giere, R. N. (2010). Scientific perspectivism. University of Chicago Press.
Esta sección contiene enlaces a artículos, manifiestos y otras piezas informativas, más un estudio de caso centrado en el acoso y amenazas a científicos e investigadores por parte de actores políticos vinculados a la administración estadounidense durante el segundo mandato de Donald Trump.
El éxodo científico como termómetro de la democracia
En un sorprendente giro que evoca las sombras de regímenes autoritarios del siglo XX, estamos presenciando el surgimiento de una nueva categoría social en el panorama global: los "refugiados intelectuales". Científicos, académicos e investigadores que abandonan sus países no por guerras o desastres naturales, sino huyendo de la censura ideológica, los recortes presupuestarios estratégicos y la intimidación política. Este fenómeno, particularmente visible en los Estados Unidos tras la victoria republicana en 2024, obliga a reflexionar sobre la fragilidad de las instituciones científicas incluso en las democracias más consolidadas.
El caso estadounidense: cuando la ciencia es considerada ideología
El documento "To the American People" revela una situación alarmante en Estados Unidos durante la administración Trump (apenas tres meses después de jurar el cargo, en enero de 2025). Casi 2,000 científicos, miembros de las prestigiosas Academias Nacionales de Ciencias, Ingeniería y Medicina, han firmado una carta abierta denunciando una "decimación" sistemática del aparato científico nacional. La carta, descrita como una "señal SOS", advierte sobre:
- Despidos masivos de científicos federales (aproximadamente 10,000 solo en el Departamento de Salud y Servicios Humanos)
- Eliminación del acceso público a datos científicos
- Presiones para alterar o abandonar investigaciones por motivos ideológicos
- Recortes drásticos en financiamiento para instituciones académicas
- Un "clima de miedo" generalizado en la comunidad científica
La situación ha provocado que investigadores europeos y latinoamericanos que habían emigrado a EE.UU. atraídos por su liderazgo científico estén ahora buscando posiciones en otros países. Como señala Soledad Gallego-Díaz, estos científicos "acudieron en tropel a Estados Unidos atraídos por sus inversiones en investigación y por la libertad y riqueza de pensamiento que imperaba en sus centros universitarios". Ahora, esos mismos investigadores están huyendo.
Las raíces del problema: más allá de los recortes presupuestarios
Lo que hace particularmente preocupante este caso es que no se trata simplemente de ajustes económicos. La documentación revela un ataque desde varios frentes contra la independencia científica:
Censura temática: Según los reportes, agencias federales están "marcando como objetables" términos científicamente precisos como "cambio climático". Un estudio sobre salud pública fue retirado de publicación cuando los editores, citando órdenes ejecutivas presidenciales, exigieron eliminar referencias a orientación sexual y género.
Politización de la financiación: Cuestionarios enviados a investigadores canadienses que solicitan subvenciones estadounidenses incluyen preguntas como "¿Puede confirmar que este no es un proyecto DEI o que no contiene elementos DEI?" y "¿Puede confirmar que este no es un proyecto climático o de 'justicia ambiental'?".
Intimidación institucional: La administración ha notificado a la Universidad de Columbia que se retendrían sus fondos federales a menos que adoptara políticas disciplinarias específicas y deshabilitara un departamento académico señalado por el gobierno.
Autocensura generalizada: Los científicos están "eliminando sus nombres de publicaciones, abandonando estudios y reescribiendo propuestas de subvenciones y artículos para eliminar términos científicamente precisos" por miedo a represalias.
Las consecuencias: un daño que trasciende fronteras
El impacto de estas políticas va mucho más allá de las fronteras estadounidenses. Como señala la carta abierta, "si se desmantela la empresa de investigación de nuestro país, perderemos nuestra ventaja científica. Otros países liderarán el desarrollo de tratamientos novedosos para enfermedades, fuentes de energía limpia y las nuevas tecnologías del futuro".
Las universidades de Canadá ya están reportando efectos directos. Peter McInnis, presidente de la Asociación Canadiense de Profesores Universitarios, destaca el dilema que enfrentan los investigadores que dependen de financiación estadounidense: "¿Cómo respondo? ¿Si no respondo, retirarán mi fondos? ¿Si respondo con sinceridad, denegarán mi proyecto?".
Sin embargo, esta crisis también presenta oportunidades para otros países. Gabriel Miller, presidente de Universidades de Canadá, señala que muchos académicos de primer nivel están considerando Canadá como un destino potencial. El profesor de Yale y crítico abierto de Trump, Jason Stanley, ya ha anunciado su decisión de trabajar en el Centro Munk de la Universidad de Toronto.
Un fenómeno global: cuando la historia se repite
Aunque el caso estadounidense es particularmente visible, el fenómeno de los "refugiados intelectuales" tiene antecedentes históricos profundos y paralelos contemporáneos:
La Alemania nazi provocó una fuga masiva de cerebros en los años 30, incluyendo a científicos de la talla de Albert Einstein, Enrico Fermi y Hannah Arendt, que encontraron refugio principalmente en Estados Unidos.
La Hungría actual bajo Viktor Orbán ha visto un éxodo de académicos tras intervenciones gubernamentales en instituciones como la Academia Húngara de Ciencias y la Universidad Centroeuropea, que se vio obligada a trasladar la mayoría de sus operaciones a Viena.
La Rusia de Putin ha experimentado oleadas de emigración académica, especialmente tras la invasión de Ucrania, con miles de científicos e investigadores huyendo de la represión y el aislamiento internacional.
Turquía vivió una purga académica tras el intento de golpe de 2016, con más de 7,500 académicos despedidos y muchos obligados a buscar asilo en el extranjero.
Reflexión: la ciencia como pilar democrático
El caso de los refugiados intelectuales nos obliga a reconsiderar la relación entre ciencia y democracia. La búsqueda de la verdad basada en evidencia —el núcleo del método científico— es fundamentalmente incompatible con sistemas que imponen verdades oficiales o castigan el pensamiento independiente.
Como señala la carta de los científicos estadounidenses: "La búsqueda de la verdad —la misión de la ciencia— requiere que los científicos exploren libremente nuevas preguntas e informen sus hallazgos con honestidad, independientemente de intereses especiales". Cuando un gobierno intenta controlar qué preguntas pueden hacerse o qué respuestas son aceptables, no solo daña la ciencia; socava un pilar esencial de la sociedad democrática.
La metáfora del canario en la mina de carbón resulta oportuna: cuando los científicos e intelectuales comienzan a huir de un país, es una señal de alarma que va más allá del ámbito académico. Indica una erosión de los espacios de pensamiento libre y crítico que son esenciales para cualquier sociedad que aspire a ser genuinamente democrática.
Preguntas para el debate y la reflexión
¿Existe una diferencia fundamental entre la censura científica en regímenes autoritarios tradicionales y la que ocurre en democracias bajo gobiernos populistas?
¿Qué responsabilidad tienen las instituciones académicas y científicas de resistir presiones políticas, incluso cuando arriesgan una parte importante de sus fondos?
¿Cómo pueden los países que reciben "refugiados intelectuales" aprovechar esta situación sin explotar la vulnerabilidad del colectivo de investigadores y académicos desplazados?
¿Qué mecanismos internacionales podrían desarrollarse para proteger la independencia científica como un bien público global?
¿Puede la ciencia ser verdaderamente apolítica, o toda investigación contiene inevitablemente dimensiones políticas que deben ser reconocidas abiertamente?
¿Cómo puede la ciudadanía común distinguir entre legítimas preocupaciones sobre el sesgo ideológico en la ciencia y ataques oportunistas contra la investigación científica que produce resultados políticamente inconvenientes?
Enlaces asociados:
- Ansede, M. (2025, 1 abril). Dos millares de los mejores científicos del mundo denuncian “el peligro real” de Trump: “El sistema de ciencia está siendo destruido”. El País. https://elpais.com/ciencia/2025-04-01/dos-millares-de-los-mejores-cientificos-del-mundo-denuncian-el-peligro-real-de-trump-el-sistema-cientifico-esta-siendo-destruido.html
- El País (2025, 2 abril). Casi 2.000 científicos de élite alertan del “peligro real” de los ataques de Trump a la ciencia. https://elpais.com/expres/2025-04-02/casi-2000-cientificos-de-elite-alertan-del-peligro-real-de-los-ataques-de-trump-a-la-ciencia.html
- Están huyendo de Estados Unidos científicos europeos y latinoamericanos que acudieron atraídos por sus inversiones en investigación y libertad. https://cadenaser.com/nacional/2025/04/02/estan-huyendo-de-estados-unidos-cientificos-europeos-y-latinoamericanos-que-acudieron-atraidos-por-sus-inversiones-en-investigacion-y-libertad-cadena-ser/?primarySection=/cadena-ser/hora-25/hora-25-punto-y-25
- TO THE AMERICAN PEOPLE. https://docs.google.com/document/d/13gmMJOMsoNKC4U-A8rhJrzu_xhgS51PEfNMPG9Q_cmE/preview?pli=1&tab=t.0
- Nearly 2,000 Scientists Write Open "SOS" Letter To American People Over Trump's Attacks On Science https://www.iflscience.com/top-us-scientists-write-open-letter-to-the-american-people-we-see-real-danger-in-this-moment-78642
- Scientists say Trump policies are causing a 'climate of fear' in research https://www.npr.org/2025/04/01/nx-s1-5347411/scientists-trump-research-national-academies-open-letter
- Canadian researchers are being asked politically charged questions when trying to secure U.S. grants https://www.cbc.ca/news/canada/canadian-researchers-us-grants-political-questions-1.7493820
La tendencia a adoptar comportamientos, creencias o decisiones que van en contra de la lógica, la razón o el interés común es un fenómeno recurrente a lo largo de la historia de la humanidad. Ningún colectivo o esquema de liderazgo parece inmune a las dinámicas de agitación guiadas por emociones, prejuicios o desinformación, ni a las graves consecuencias ocasionadas por estos vectores de irracionalidad en la configuración de eventos históricamente significativos, en muchos casos determinantes para comprender la transformación —o involución— de las sociedades.
En episodios de irracionalidad política, el germen de la irracionalidad colectiva se asocia con acusaciones infundadas, bulos o percepciones distorsionadas de hechos o acciones que se atribuyen a determinados grupos o individuos, favorecidas por un contexto cercano o remoto de agravios y conflictos sin resolver que obstaculiza cualquier estrategia orientada a la cooperación. El genocidio de Ruanda —que ocasionó entre 500.000 y 800.000 víctimas, además de cientos de miles de violaciones y abusos— se explica por una compleja mezcla de factores históricos, sociales y políticos, cuyos antecedentes se remontan al periodo colonial. El arbitrario sistema de distribución del poder impuesto por los belgas como potencia colonial tras la primera guerra mundial exacerbó las diferencias entre los grupos étnicos hutu y tutsi, segregando en función de características raciales imaginarias que agravaron el resentimiento, la tensión y los episodios de hostilidad hasta después de la independencia.
El detonante inmediato de la matanza fue el derribo del avión del presidente ruandés Juvénal Habyarimana, de etnia hutu, el 6 de abril de 1994, cuya muerte sirvió de pretexto para que milicianos hutus armados iniciaran la masacre de los tutsis (y gran parte de los hutus "moderados"). Pero con bastante antelación al genocidio se venía orquestado una intensa campaña de propaganda política y desinformación —con un papel destacado de la emisora Radio Télévision Libre des Mille Collines (RTLM)— que incitaba al odio indiscriminado contra los tutsis. Sus mensajes facilitaron o indujeron el estallido de múltiples episodios de violencia, desencadenantes cercanos del genocidio.1, 2, 3
La manipulación de testigos y las coacciones en procesos probatorios sin garantías es otro componente habitual en muchos de los episodios históricos representativos de la irracionalidad colectiva. El juicio y condena a Sócrates en el siglo V a.C. se produce a partir de rumores y acusaciones de corromper a la juventud y de introducir nuevas deidades en Atenas. Sin fundamentos sólidos, las acusaciones tenían que ver más con la reacción pacata de algún sector influyente de la opinión pública que con pruebas o testimonios solventes de conducta contraria a las leyes, pese a lo cual el proceso culminó con la ejecución de uno de los pensadores más influyentes de su época.4, 5, 6
La caza de brujas en Europa entre los siglos XVI y XVII sumó múltiples episodios de auténtica paranoia y desvarío colectivo, suscitados por un temor irracional hacia supuestas practicantes de artes y ritos de magia o brujería, que culminó en persecuciones, juicios y ejecuciones masivas. La ola renacentista de ilustración y progreso en las artes y las ciencias apenas tuvo influencia en las creencias populares, lastradas por la ignorancia, el analfabetismo y la superstición. Pero la creencia en la brujería y en la existencia de pactos con el diablo era algo común entre amplios sectores de la sociedad, por lo que no resultó complicado el paso de los prejuicios infundados a la tortura y la violencia extrema, incluyendo la hoguera como forma habitual de ejecución para los condenados por brujería (en Europa Central, sobre todo). Aunque el fenómeno se produce en un periodo de profunda crisis económica, social y cultural —en parte provocada por la Peste Negra; y agravada, quizá, por la crisis religiosa que ocasionó el Cisma de Occidente—, la clave de interpretación ineludible apunta a la reacción institucional dirigida a evitar cualquier doctrina o práctica que pudiera perjudicar a la sociedad cristiana. Un objetivo en el que coincidían sin fisuras actores católicos y protestantes.7, 8
El surgimiento del nacionalsocialismo en Alemania durante la década de 1930 no se explica sin la propagación de ideas basadas en mitos nórdicos de la superioridad racial de los pueblos arios, con su correlato de odio hacia determinados grupos étnicos, la obsesión por la "pureza" del linaje y la expansión imperialista hacia otros pueblos germanos. Engastadas la seudociencia y la superstición en ideología, y articulada esta en movimiento político totalitario, la dinámica social resultante multiplicó una serie de eventos de violencia y acoso contra judíos y otros grupos, antesala de una de las mayores tragedias de la historia de la humanidad. El Holocausto dejó un balance de entre 15 y 22 millones de personas asesinadas —de las que unos seis millones fueron judíos—, víctimas de una ideología irracional y extremista. Aproximadamente dos tercios de los judíos residentes en Europa antes del Holocausto fueron asesinados. Teorías de la conspiración, rumores o prejuicios infundados y discursos de odio contribuyeron a materializar una maquinaria con instalaciones por toda Europa para trasladar, confinar y matar a las víctimas, cuya planificación y ejecución implicó a cientos de miles de colaboradores directos.
En el siglo XXI, un ejemplo de irracionalidad colectiva puede encontrarse en el surgimiento y expansión de teorías de la conspiración y planteamientos negacionistas a través de las redes digitales. El acceso fácil a diversas fuentes o canales de información, combinado con la difusión rápida a través de las redes sociales, puede contribuir a propagar creencias infundadas y puntos de vista delirantes en momentos decisivos para la toma de decisiones colectivas, con capacidad para alterar las garantías de juego limpio que facilita la alternancia de grupos de poder en las instituciones democráticas.
El caso de manipulación social de la consultora británica Cambridge Analytica, desarrollado a través de la plataforma Facebook, se produjo a partir de los datos recopilados mediante una aplicación denominada This Is Your Digital Life. Desarrollada por el informático Aleksandr Kogan y su empresa Global Science Research, la aplicación permitía elaborar perfiles psicológicos de usuarios a partir de una serie de preguntas, incluyendo detalles personales cuya recopilación resultaba incompatible con las políticas de privacidad que los usuarios aceptaban. Los datos y perfiles individuales de 87 millones de usuarios de Facebook, obtenidos sin su consentimiento, fueron utilizados por Cambridge Analytica para proporcionar asistencia analítica en las campañas de Ted Cruz y Donald Trump para las elecciones presidenciales de 2016. Además, se utilizaron para distribuir propaganda política personalizada o segmentada, lo que pudo contribuir a la ligera ventaja con la que el candidato republicano consiguió la presidencia. Christopher Wylie, ex-empleado de Cambridge Analytica, filtró los datos que evidenciaban la actuación delictiva y provocaron el escándalo en 2018, seguido de la caída en bolsa de las acciones de Facebook y una investigación abierta en el Congreso que obligó a declarar a Mark Zuckerberg. Las irregularidades y malas prácticas de la compañía se sancionaron con multas cuantiosas (más de 5.000 millones de dólares) por violaciones de las políticas de privacidad y el uso indebido de datos personales.
La desinformación y manipulación política a través de las redes digitales se considera una amenaza real, y potencialmente mucho más seria que los incidentes de ciberseguridad aislados (los que afectan a empresas y particulares), aunque dependa de otros factores ligados al marco regulador, la credibilidad de los medios tradicionales y la responsabilidad o disposición a rendir cuentas de múltiples intermediarios implicados en la gestión de las plataformas digitales. El caso Cambridge Analytica-Facebook pone de manifiesto los problemas que puede suscitar el uso indebido de datos personales de millones de usuarios de las grandes plataformas digitales con fines de manipulación política, en un contexto de absoluta opacidad sobre las fuentes de financiación y el alcance de la propaganda personalizada. A gran escala, puede suponer una seria amenaza para la integridad de los procesos democráticos y la calidad del debate público en momentos decisivos de la dinámica social. Resulta crucial el papel de las instancias reguladoras, así como la capacidad disuasoria de los procedimientos de supervisión y sanción en caso de malas prácticas. Al mismo tiempo, es fundamental que cada ciudadano adopte una actitud crítica ante la información que recibe a través de las redes.
Cuando Orson Welles aprovechó un programa radiofónico de gran audiencia (On the Air, en la CBS) para dramatizar La guerra de los mundos de Herbert George Wells, simulando la retransmisión en directo de una invasión marciana ficticia el 30 de octubre de 1938, desató el pánico entre miles de oyentes que confiaban en la credibilidad de la emisora como canal informativo y no dudaron de que la invasión era real. Este caso, suscitado por la actividad profesionalmente cuestionable en un canal analógico unidireccional de referencia, constituye un ejemplo clásico de la facilidad con la que pueden suscitarse episodios de caos e irracionalidad colectiva en el nuevo contexto de la digitalización, cuando millones de usuarios de todo el mundo interaccionan en plataformas y servicios digitales en los que proliferan las malas prácticas y los canales creados para difundir bulos y ofuscar la responsabilidad de quienes los promueven. En muchos casos, los montajes, memes y piezas informativas sin conexión con los hechos que aparecen en las redes son amplificados y legitimados por otros actores en la blogosfera y prensa ideologizada a quienes pueden beneficiar.
I. Minorías estigmatizadas por la difusión de bulos y teorías de la conspiración a través de redes sociales
Introducción
En la era digital, las redes sociales han transformado la manera en que se comparte la información, dando voz a grupos marginados pero también facilitando la rápida propagación de contenido falso o engañoso. Uno de los impactos más negativos de este fenómeno es la estigmatización de minorías mediante bulos y teorías de la conspiración. Estos grupos, ya de por sí vulnerables debido a su posición social, económica o cultural, se convierten en objetivos frecuentes de narrativas infundadas que, sin embargo, ganan tracción entre audiencias influenciadas por prejuicios y las dinámicas propias de las plataformas digitales. Este texto explora cómo las redes sociales contribuyen a esta estigmatización, los mecanismos que la impulsan y ejemplos concretos de las minorías afectadas.
Mecanismos de Estigmatización en Redes Sociales
Las redes sociales amplifican la difusión de bulos y teorías conspirativas gracias a una combinación de factores tecnológicos y sociales:
- Algoritmos de amplificación: Plataformas como X, Facebook y YouTube priorizan contenido sensacionalista para maximizar la interacción, lo que hace que las narrativas falsas sobre minorías se vuelvan altamente virales.
- Cámaras de eco: Los usuarios tienden a formar comunidades que refuerzan sus creencias, permitiendo que las teorías conspirativas se propaguen sin ser cuestionadas.
- Anonimato y desinformación coordinada: El anonimato protege a los creadores de bulos, mientras que bots y trolls amplifican su alcance de forma intencional.
- Sesgos cognitivos: Fenómenos como el sesgo de confirmación hacen que las audiencias acepten estas narrativas sin verificarlas, особенно si refuerzan prejuicios existentes.
Estos elementos crean un entorno donde la desinformación se expande con facilidad, convirtiendo a las minorías en chivos expiatorios de problemas sociales más amplios.
Ejemplos de Minorías Estigmatizadas
1. Inmigrantes y Refugiados
- Ejemplo: Durante la crisis migratoria europea de 2015-2016, se difundieron bulos en redes sociales que acusaban a refugiados sirios de cometer delitos masivos o introducir enfermedades, sin evidencia que lo respaldara.
- Impacto: Estas falsedades alimentaron el rechazo social y justificaron políticas migratorias más duras.
2. Comunidad LGBTQ+
- Ejemplo: En 2020, durante la pandemia de COVID-19, teorías conspirativas en Twitter y otras plataformas vincularon falsamente a esta comunidad con la propagación del virus, recordando estigmas asociados al VIH/SIDA.
- Impacto: Aumentó la discriminación y distrajo la atención de esfuerzos legítimos de salud pública.
3. Minorías Religiosas
- Ejemplo: En India, mensajes en WhatsApp y Facebook acusaron a la minoría musulmana de difundir el COVID-19 a propósito, bajo la narrativa de "corona jihad".
- Impacto: Esto provocó violencia física y agravó las tensiones entre comunidades.
4. Pueblos Indígenas
- Ejemplo: En América Latina, teorías conspirativas han señalado a comunidades indígenas como cómplices de ONG extranjeras para desestabilizar gobiernos o monopolizar recursos.
- Impacto: Estas narrativas han justificado la represión de sus derechos y movimientos.
Consecuencias de la Estigmatización
La difusión de estas narrativas tiene efectos graves y duraderos:
- Discriminación y violencia: Los bulos legitiman actos hostiles, desde agresiones físicas hasta políticas excluyentes.
- Desconfianza en instituciones: Al cuestionar fuentes oficiales, dificultan campañas de salud o programas sociales.
- Polarización social: Aumentan las divisiones, debilitando la cohesión entre comunidades.
Estos impactos perpetúan la marginalización de grupos vulnerables y agravan las desigualdades existentes.
Estrategias para Combatir la Estigmatización
Para mitigar este problema, se necesitan medidas coordinadas:
- Moderación de contenido: Las plataformas deben mejorar la detección y eliminación de desinformación antes de que se viralice.
- Alfabetización mediática: Enseñar a los usuarios a identificar bulos promueve un consumo más crítico.
- Colaboración con verificadores: Alianzas con organizaciones de fact-checking pueden desmentir narrativas falsas rápidamente.
- Regulación gubernamental: Normas que exijan transparencia en los algoritmos y sancionen la desinformación coordinada pueden reducir su alcance.
Conclusión
Aunque las redes sociales tienen un enorme potencial para conectar y empoderar, también se han convertido en herramientas de estigmatización de minorías mediante bulos y teorías conspirativas. Grupos como inmigrantes, la comunidad LGBTQ+, minorías religiosas y pueblos indígenas enfrentan las consecuencias de estas narrativas, que incluyen discriminación, violencia y exclusión. Combatir este fenómeno requiere esfuerzos conjuntos de plataformas, gobiernos y la sociedad, equilibrando la libertad de expresión con la protección de los más vulnerables. Solo así las redes sociales podrán convertirse en espacios de inclusión en lugar de división.
Contenido obtenido utilizando Grok3 Beta (opc. Think activa). 23/02/2025.
Nota: Este output se incluye a modo de ejemplo para articular la reflexión crítica sobre el problema planteado como estudio de caso.
II. Uso de X como herramienta de desinformación
Prompt (Grok3 Beta, 21/02/2025):
Consideras que X (antes Twitter) está siendo utilizada en el presente por ciertos actores como una herramienta clave en las estrategias de desinformación y difusión del negacionismo y la ignorancia sobre aspectos clave del mundo contemporáneo? Podrías especificar algunos actores que usan malévolamente dicha plataforma?
Respuesta obtenida:
Sí, considero que X (anteriormente Twitter) está siendo utilizada en la actualidad como una herramienta clave por ciertos actores para llevar a cabo estrategias de desinformación y difundir negacionismo e ignorancia sobre aspectos cruciales del mundo contemporáneo. La plataforma, gracias a su alcance global y su formato de microblogging, permite la rápida propagación de información, lo que la convierte en un terreno fértil para ser explotada por actores malintencionados. A continuación, detallo la evidencia que respalda esta afirmación y especifico algunos de los actores que usan malévolamente X.
Evidencia del Uso de X para la Desinformación y el Negacionismo
Alta prevalencia de desinformación: Estudios recientes, como un informe de la Unión Europea (UE), han identificado a X como la plataforma con la mayor proporción de desinformación entre las principales redes sociales, especialmente en temas como elecciones y eventos geopolíticos. Asimismo, el reporte de Climate Action Against Disinformation destacó a X como la peor plataforma en cuanto a moderación de contenido relacionado con la desinformación climática.
Campañas documentadas: Durante eventos significativos, X ha sido un canal para la difusión de narrativas falsas. Por ejemplo, en la pandemia de COVID-19, se propagaron afirmaciones falsas sobre vacunas y tratamientos, afectando las campañas de salud pública. De manera similar, durante la invasión de Ucrania, se han utilizado narrativas engañosas para manipular la opinión pública y justificar acciones militares.
Negacionismo específico: X ha facilitado la difusión de teorías conspirativas y negacionismo sobre temas como el cambio climático y el Holocausto, amplificando versiones distorsionadas de la ciencia y la historia. Falta de moderación: Desde la adquisición de X por Elon Musk, la reducción de los equipos de moderación y la reversión de políticas que anteriormente limitaban la desinformación han creado un entorno más permisivo para la propagación de contenido falso.
Actores que Usan Malévolamente X
Varios actores organizados y con intereses específicos explotan X para promover sus agendas. A continuación, algunos ejemplos concretos:
1. Estados
Rusia: Ha sido señalada por utilizar X para difundir narrativas que desacreditan a Occidente y justifican sus acciones, como en el caso de la invasión de Ucrania. Medios estatales como RT y Sputnik amplifican estas narrativas en la plataforma.China: Emplea X para promover propaganda que defiende sus políticas y cuestiona a sus críticos, a menudo mediante cuentas coordinadas.
2. Grupos Extremistas
Negacionistas del Holocausto: Figuras como David Irving han utilizado X para difundir argumentos pseudocientíficos que niegan o minimizan el Holocausto, encontrando eco en comunidades extremistas.
Negacionistas Climáticos: Grupos financiados por industrias fósiles usan X para cuestionar el consenso científico sobre el cambio climático.3. Think Tanks y Firmas de Relaciones Públicas
Heartland Institute: Este think tank conservador ha liderado campañas de desinformación climática, utilizando X para amplificar mensajes que niegan la gravedad del cambio climático o cuestionan las soluciones propuestas.Firmas de relaciones públicas: Contratadas por actores políticos y corporativos, estas organizaciones producen contenido falso para proteger intereses económicos o influir en elecciones.
4. Individuos Influyentes
Elon Musk: Como propietario de X y figura pública con millones de seguidores, Musk ha sido criticado por compartir contenido que promueve teorías conspirativas o cuestiona narrativas establecidas, lo que a menudo amplifica la desinformación en la plataforma.Factores que Facilitan este Uso Malévolo
Algoritmos y amplificación: El diseño de X tiende a priorizar contenido sensacionalista, lo que permite que la desinformación se viralice rápidamente.Anonimato y bots: La posibilidad de operar con cuentas anónimas y el uso de bots para amplificar mensajes facilita las campañas coordinadas de desinformación.
Alcance global: La naturaleza abierta de X permite que las narrativas falsas lleguen a audiencias masivas en poco tiempo.
Conclusión
En definitiva, X está siendo utilizada como una herramienta clave por actores como estados (Rusia, China), grupos extremistas (negacionistas del Holocausto y del clima), think tanks (como el Heartland Institute) e individuos influyentes (como Elon Musk) para difundir desinformación y negacionismo sobre temas críticos como el cambio climático, conflictos geopolíticos y eventos históricos. La falta de moderación efectiva y las características inherentes de la plataforma agravan esta situación, representando un desafío significativo para la integridad de la información y la toma de decisiones informada a nivel global.
Contenido obtenido utilizando Grok3 Beta (opc. Think activa). 22/02/2025.
Nota: Este output se incluye a modo de ejemplo para articular la reflexión crítica sobre el problema planteado como estudio de caso.
Las respuestas articuladas sobre componentes emocionales, decisiones impulsivas y comportamientos no basados en evidencia científica o razonamiento lógico pueden agravar los efectos de pandemias y emergencias sanitarias globales. Durante los picos de mortalidad por COVID-19, y de forma parecida en muchos países, la irracionalidad colectiva se manifestó de diversas maneras, que incluían el pánico masivo ante el riesgo de escasez de productos de primera necesidad, la propagación de teorías conspirativas, la resistencia a políticas públicas basadas en conocimiento riguroso y la xenofobia o el rechazo de pasajeros procedentes de países con altas tasas de infección.9, 10 Resulta oportuno examinar cómo ciertos vectores de irracionalidad impactan en la gestión de crisis sanitarias y en el tejido sociocultural más amplio, puesto que ponen a prueba la calidad de los procedimientos de participación democrática y la eficacia de los protocolos de deliberación colectiva en situaciones complejas, lastradas por una combinación de incertidumbre y premura.11
Durante la pandemia de COVID-19, uno de los ejemplos más notorios de irracionalidad colectiva fue el acaparamiento de productos como desinfectante de manos, mascarillas y papel higiénico, que llevó a la escasez en tiendas y supermercados. Este comportamiento fue impulsado por el miedo y la incertidumbre, a menudo exacerbado por la cobertura mediática sensacionalista que se centraba en la urgencia y la gravedad potencial de la situación, en lugar de proporcionar información precisa, basada en evidencia y criterio profesional.9, 12
Si bien los episodios de ansiedad podrían parecer justificados en personas con patologías previas y dependencia de bombonas de oxígeno o medicación para tratamientos de larga duración, la incertidumbre sobre su disponibilidad —cuando las cadenas de suministro estaban acusando los efectos de las restricciones impuestas a la movilidad— se fue agravando con la proliferación de teorías de la conspiración, incluyendo afirmaciones infundadas sobre el origen del virus, su capacidad infectiva y la utilidad de las vacunas. Estas teorías fueron amplificadas por figuras políticas y medios de comunicación que, en algunos casos, intentaron capitalizar políticamente el miedo y la desinformación, cuestionando por ejemplo la gravedad de la exposición al virus en lugares cerrados o promoviendo remedios no probados. Los mensajes contradictorios y las excepciones arbitrarias en las pautas de protección favorecieron la confusión, promoviendo la desconfianza de las instituciones sanitarias y la subestimación del valor de las recomendaciones de expertos en salud pública.13, 14, 15
Los esquemas de liderazgo político desempeñan un papel crucial en la modulación de la irracionalidad colectiva.16 Líderes que comunican de manera transparente, coherente y con mensajes basados en la evidencia científica tienden a mitigar el pánico y promover respuestas más racionales de la población. Por el contrario, la figuras políticamente relevantes que utilizan la retórica de la confrontación, subestiman el criterio experto o promueven agendas políticas de grupo a costa del bienestar colectivo, pueden exacerbar la irracionalidad y el comportamiento contraproducentes, incrementando el riesgo de volver inmanejables los escenarios de crisis.17
Los medios de comunicación tienen una doble responsabilidad en contextos de crisis sanitaria. Por un lado, tienen el deber de informar al público sobre la evolución de los parámetros de riesgo y del escenario general que motiva la situación de emergencia. Sin embargo, la forma en que presentan la información puede alimentar la irracionalidad colectiva y la estigmatización de grupos sin responsabilidad en el problema. Cuando los medios priorizan las narrativas dramáticas o conflictivas, amplificando mensajes sin rigor y equiparando opiniones políticamente sesgadas con las de expertos y profesionales de salud pública expresándose a través de sus asociaciones, pueden contribuir a una mayor ansiedad y a respuestas irracionales entre el público.18, 19, 13
Si bien la raíces de la irracionalidad colectiva pueden resultar muy complejas, en contexto de pandemias y emergencias sanitarias globales los actores con capacidad de liderazgo e influencia mediática deberían extremar la cautela en sus pronunciamientos públicos. Una deficiente cobertura mediática puede ser el mejor aliado del caos social y de la baja eficacia de medidas de salud pública arbitradas con celeridad y escasez de recursos, con un alto coste en pérdida evitable de vidas humanas y el deterioro duradero de la confianza en las instituciones sanitarias.11
Para contrarrestar el efecto potencialmente devastador de tales vectores de irracionalidad es necesario promover la educación científica, la comunicación efectiva anclada en la realidad y esquemas de liderazgo responsable, como bases para una respuesta colectiva más razonada, democrática y efectiva a las crisis de salud pública.
1. Lambourne, W. (2019). Ethnic Conflict and Genocide in Rwanda. In: Ratuva, S. (Ed.), The Palgrave Handbook of Ethnicity. (2019). En Springer eBooks.En Springer eBooks (pp. 1611-1642). https://doi.org/10.1007/978-981-13-2898-5_118.
2. Zeiher, C. (2019). Historical Memory and Ethnic Myths. In: Ratuva, S. (Ed.), The Palgrave Handbook of Ethnicity. Palgrave Macmillan, Singapore. https://doi.org/10.1007/978-981-13-2898-5_7.
3. Cuesta, J. (2014). La voz del genocidio ruandés: ‘Decíamos que eran los enemigos, que no debíamos vivir con ellos’. elDiario.es. https://www.eldiario.es/desalambre/voz-masacre-gesto-traves-radio_1_4917042.html.
4. Platón. (2014). Apología de Sócrates. Julio Calonge Ruiz (trad.). Gredos.
5. Irvine, A. D. (2007). Socrates on trial: A play based on aristophane’s clouds and Plato’s apology, crito, and phaedo adapted for modern performance. University of Toronto Press.
6. Stone, I. F. (1989). The trial of Socrates. Little, Brown & Company.
7. Levack, Brian P. (1995). La caza de brujas en la Europa moderna. Madrid: Alianza Editorial.
8. Cardini, Franco (1982). Magia, brujería y superstición en el Occidente medieval. Barcelona: Península.
9. Miah, M. S. et al. (2024). A qualitative exploration of purchasing, stockpiling, and use of drugs during the COVID-19 pandemic in an urban city of Bangladesh. Public Health in Practice, 7, 100477. https://doi.org/10.1016/j.puhip.2024.100477.
10. De Landsheer, C., & Walburg, V. (2022). Links between rational and irrational beliefs, trait anxiety and fear of COVID 19. Psychologie Française, 67(3), 305–316. https://doi.org/10.1016/j.psfr.2022.06.005.
11. Martín-Martín, J.-J. et al. (2024). Democratic quality and excess mortality during the COVID-19 pandemic. Scientific Reports, 14(1), 7948. https://doi.org/10.1038/s41598-024-55523-6.
12. Garrett, L. (2020). COVID-19: the medium is the message. The Lancet, 395(10228), 942–943. https://doi.org/10.1016/S0140-6736(20)30600-0.
13. De Landsheer, C., & Walburg, V. (2022). Links between rational and irrational beliefs, trait anxiety and fear of COVID 19. Psychologie Française, 67(3), 305–316. https://doi.org/10.1016/j.psfr.2022.06.005.
14. De Coninck, D. (2021). Beliefs in Conspiracy Theories and Misinformation About COVID-19: Comparative Perspectives on the Role of Anxiety, Depression and Exposure to and Trust in Information Sources. Frontiers in Psychology, 12. https://doi.org/10.3389/fpsyg.2021.646394.
15. Cinelli, M. et al. (2020). The COVID-19 social media infodemic. Scientific Reports, 10(1), 16598. https://doi.org/10.1038/s41598-020-73510-5.
16. Moreno Muñoz, M. (2021). Negacionismo y conflicto social. Gazeta de Antropología. https://doi.org/10.30827/Digibug.70333.
17. Nicola, M. et al. (2020). Health policy and leadership models during the COVID-19 pandemic: A review. International Journal of Surgery, 81, 122–129. https://doi.org/10.1016/j.ijsu.2020.07.026.
18. Brennen, J. S., Simon, F. M., Howard, P. N., & Nielsen, R. K. (2020). Types, sources, and claims of COVID-19 misinformation. *Reuters Institute*, 7, 3-13. https://reutersinstitute.politics.ox.ac.uk/types-sources-and-claims-covid-19-misinformation.
19. Chevalier, M. et al. (2024). Who’s To Blame for the COVID-19 pandemic? Perceptions of responsibility during the crisis using text mining and latent Dirichlet allocation. Social Sciences & Humanities Open, 9(100825), 100825. https://doi.org/10.1016/j.ssaho.2024.100825.
Perspectiva 1: Gestión de la pandemia en Brasil durante la presidencia de Jair Bolsonaro
La pandemia de COVID-19 ha puesto a prueba la capacidad de respuesta de los gobiernos y la confianza de la ciudadanía en las instituciones. En este contexto, la desinformación y los mensajes negacionistas, especialmente cuando provienen de líderes políticos, pueden tener consecuencias devastadoras. Un ejemplo paradigmático de este fenómeno se vivió en Brasil durante la presidencia de Jair Bolsonaro.
Desde el inicio de la pandemia, Bolsonaro minimizó la gravedad del virus, calificándolo de "gripecita", promovió medicamentos sin eficacia comprobada como la hidroxicloroquina, y desestimó el uso de mascarillas y el distanciamiento social, medidas recomendadas por la Organización Mundial de la Salud (OMS). Estas declaraciones, amplificadas por medios de comunicación y redes sociales, generaron confusión, polarización y desconfianza en la población, socavando los esfuerzos de las autoridades sanitarias por contener la pandemia.
Diversos estudios científicos han demostrado la correlación directa entre la exposición a la desinformación proveniente de Bolsonaro y el aumento de casos y muertes por COVID-19 en Brasil. Un estudio publicado en la revista "Nature Human Behaviour" (https://www.nature.com/articles/s41562-021-01165-x) analizó el impacto de la retórica de Bolsonaro en la adhesión a las medidas sanitarias y la evolución de la pandemia en diferentes regiones del país. Los resultados mostraron que las zonas con mayor apoyo al presidente y mayor exposición a su discurso negacionista registraron un mayor número de casos y muertes por COVID-19, incluso después de controlar por otros factores socioeconómicos y demográficos.
La falta de un liderazgo responsable y la proliferación de la desinformación tuvieron un costo humano devastador en Brasil. Según un estudio publicado en The Lancet (https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(21)00830-9/fulltext), se estima que más del 40% de las muertes por COVID-19 en Brasil podrían haberse evitado si el país hubiera seguido las recomendaciones de la OMS y hubiera implementado medidas de salud pública más efectivas. Esto equivale a cientos de miles de vidas perdidas innecesariamente debido a la inacción y la desinformación.
El caso de Brasil es un recordatorio trágico del impacto que la desinformación y la falta de un liderazgo responsable pueden tener en la salud pública. La negación de la ciencia, la promoción de curas milagrosas y la erosión de la confianza en las instituciones solo sirven para prolongar las crisis sanitarias y aumentar el sufrimiento humano. En un mundo interconectado, la lucha contra la desinformación y la promoción de una comunicación transparente y basada en la evidencia son esenciales para proteger la salud pública y construir sociedades más resilientes.
Hallal, P.C., Victora, C.G. Overcoming Brazil’s monumental COVID-19 failure: an urgent call to action. Nat Med 27, 933 (2021). https://doi.org/10.1038/s41591-021-01353-2.
Kerr, S. et al. (2024). Undervaccination and severe COVID-19 outcomes: meta-analysis of national cohort studies in England, Northern Ireland, Scotland, and Wales. Lancet, 403(10426), 554-566. https://doi.org/10.1016/s0140-6736(23)02467-4.
Massuda, A. et al. (2023). Bolsonaro’s Ministry of Health’s response to COVID-19 and other health challenges – Authors’ reply. Lancet, 402(10407), 1041-1042. https://doi.org/10.1016/s0140-6736(23)01363-6.
Londoño, E., & Milhorance, F. (2021, julio 6). Protestas en Brasil por un escándalo de vacunas ponen a Bolsonaro en una posición débil. The New York times. https://www.nytimes.com/es/2021/07/06/espanol/brasil-protestas-bolsonaro.html.
Gemini-1.5-Pro (5/06/2024)
Perspectiva 2: Impacto de los mensajes negacionistas durante la pandemia
Uno de los ejemplos más notorios del impacto negativo de los mensajes negacionistas de líderes políticos durante una emergencia sanitaria es el caso del expresidente de Estados Unidos, Donald Trump, durante la pandemia de COVID-19. A continuación, se presentan algunos ejemplos con sus respectivas fuentes:
En febrero de 2020, Trump minimizó la amenaza del virus, afirmando que estaba "bajo control" y que "desaparecería". Esto pudo haber llevado a una falsa sensación de seguridad entre la población. Fuente: https://www.nbcnews.com/politics/donald-trump/trump-calls-coronavirus-democrats-new-hoax-n1145721
Trump promocionó tratamientos no probados, como la hidroxicloroquina, lo que pudo haber llevado a la automedicación y a una falsa sensación de seguridad. Fuente: https://www.bbc.com/news/world-us-canada-52717161
En abril de 2020, Trump sugirió la posibilidad de inyectar desinfectantes para tratar el COVID-19, lo que pudo haber llevado a personas a intentar tratamientos peligrosos. Fuente: https://www.bbc.com/news/world-us-canada-52407177
Trump se burló del uso de mascarillas y se resistió a usarlas en público, lo que pudo haber desalentado a la población a adoptar esta medida preventiva. Fuente: Cathey, L. (2020, 3 octubre). Trump, downplaying virus, has mocked wearing masks for months. ABC News. https://abcnews.go.com/Politics/trump-downplaying-virus-mocked-wearing-masks-months/story?id=73392694#:~:text=As%20far%20back%20on%20April,and%20that%20%22you%20do%20not
En octubre de 2020, Trump afirmó que Estados Unidos estaba "doblando la esquina" en la pandemia, justo cuando los casos estaban aumentando. Esto pudo haber dado una falsa sensación de seguridad y llevado a la gente a bajar la guardia. Fuente: https://www.nbcnews.com/politics/donald-trump/fact-checking-president-donald-trump-s-claims-about-coronavirus-n1174356;
Estos ejemplos ilustran cómo los mensajes negacionistas o engañosos de los líderes políticos pueden tener un impacto negativo en la percepción y el comportamiento de la población durante una emergencia sanitaria, potencialmente obstaculizando los esfuerzos para controlar la propagación de enfermedades.
Otras referencias
Tollefson, J. (2020). How Trump damaged science — and why it could take decades to recover. Nature, 586(7828), 190-194. https://doi.org/10.1038/d41586-020-02800-9.
Myers, J., & Wallach, P. A. (2020, 31 marzo). The federal government’s coronavirus response—Public health timeline. Brookings. https://www.brookings.edu/articles/the-federal-governments-coronavirus-actions-and-failures-timeline-and-themes/.
Claude-3-Opus-200k (5/06/2024)
La historia de la vida en la Tierra está marcada por periodos de tiempo relativamente cortos, a escala geológica, en los que desaparece el 75% o más de las especies. Con los limitados datos disponibles en el registro fósil de invertebrados y familias de vertebrados, Raup y Sepkoski (1982) concluyen que al menos cuatro extinciones masivas en el ámbito marino resultan estadísticamente significativas con respecto a los niveles de extinción de fondo. Ocurrieron a finales de los períodos Ordovícico, Pérmico, Triásico y Cretácico, con porcentajes de extinción que varían entre el 75-85% (en el Pérmico pudo superar el 95%) y una duración variable (0,5-3 millones de años). Aunque es habitual mencionar un quinto evento de extinción masiva en el Devónico, Raup y Sepkoski no lo consideran estadísticamente significativo.1
El más breve, con los datos disponibles, fue la extinción del Ordovícico-Silúrico, que supuso la eliminación de alrededor del 85% de las especies marinas en menos de un millón de años. En cuanto a sus causas, se especula con una combinación de factores, incluyendo hipoxia o falta de oxígeno en los océanos, variaciones en el nivel de los océanos por glaciaciones, erupciones masivas y posible impacto de asteroides. La acción de microorganismos patógenos con ciertas mutaciones puede alterar de manera drástica la cadena trófica y provocar la muerte de una o más especies, afectando a toda la red de dependencias. La alteración de la cadena trófica puede producirse también por competencia entre especies, cuando aparece un nuevo depredador desconocido para las presas (como resultado de la deriva continental) o cuando alguna especie en particular adquiere la capacidad de obtener los mismos recursos que otras pero en mayor cantidad. Se discute todavía el papel que pudieron desempeñar otros factores como la explosión de supernovas, variaciones orbitales o fluctuaciones en el campo magnético terrestre.2
La extinción del Pérmico-Triásico hace 251 millones de años, que supuso la eliminación del 96% de las especies, coincide con un ciclo prolongado de calentamiento en la Tierra. La alternancia entre periodos muy fríos —con todo el planeta cubierto de hielo—, calentamiento y glaciaciones menores genera condiciones adversas que alteran la estabilidad del ecosistema e impiden que la biodiversidad prospere. Pero no hay datos definitivos para concluir que las grandes fluctuaciones climáticas se asocian más con extinciones masivas que con extinciones de fondo o terminales (las que ocurren a un ritmo constante y son parte del proceso natural de la evolución, pero que afectan solo a algunas especies).3
El que las tasas de extinción de fondo parezcan haber disminuido desde el Cámbrico es consistente con la predicción de que la optimización de la aptitud debería aumentar a lo largo del tiempo evolutivo. Pero este resultado depende del tamaño de las poblaciones, sobre las que el efecto de la selección natural (dispersando y fijando el rasgo adaptativo) aumenta a un ritmo mayor que la aparición de nuevas mutaciones (deriva genética).4
Los eventos catastróficos han contribuido a la remodelación de ecosistemas enteros y a la evolución de la vida. Pero la gravedad de sus impactos permite comprender la fragilidad de las condiciones en las que muchas especies proliferan y el delicado equilibrio que hizo posible la supervivencia del escaso porcentaje que garantizó la continuidad de la vida en el Pérmico (4%) o en el Cretácico (24%). Los cambios climáticos abruptos en el pasado, como efecto de erupciones volcánicas masivas que liberaron grandes cantidades de gases y cenizas a la atmósfera, causando enfriamiento global, lluvia ácida y acidificación de los océanos, pudieron agravarse con el impacto de asteroides y la secuencia de incendios forestales globales, terremotos y tsunamis devastadores.
Investigar los factores desencadenantes y comprender los escenarios de extinción masiva en el pasado sirve de base para predecir y mitigar posibles eventos futuros, que podrían afectar a la humanidad o comprometer su supervivencia. Muchos científicos consideran que estamos actualmente en medio de una sexta extinción masiva (podría ser la séptima, si se confirman datos recientes de un posible evento en el Pérmico Medio, hace 259.8 millones de años), impulsada o agravada principalmente por las actividades humanas. La evolución de muchos indicadores asociados con la pérdida de biodiversidad y el cambio climático (destrucción de hábitat, sobreexplotación de recursos, introducción de especies invasoras, contaminación y quema de combustibles fósiles) suponen un incremento en la frecuencia e intensidad de fenómenos catastróficos como sequías, inundaciones, huracanes, incendios y olas de calor, que están causando la extinción de especies a un ritmo sin precedentes. En su libro The Sixth Extinction: An Unnatural History (2014) Elizabeth Kolbert deduce de las entrevistas a expertos y de su revisión de la literatura que a finales del siglo XXI es altamente probable que desaparezcan entre el 20 y el 50 por ciento de todas las especies vivas de la tierra.5
Incluso a una escala moderada, la pérdida de biodiversidad tiene profundas implicaciones para las actividades que sostienen los modos de vida de gran parte de la población humana. Puede comprometer la seguridad alimentaria, la disponibilidad de recursos hídricos y la estabilidad climática, con repercusiones significativas en la economía, el turismo, los flujos migratorios y las pautas culturales. La prospectiva de escenarios de crisis ecológica requiere la colaboración de múltiples disciplinas, incluyendo la biología, la ecología, la geología, la climatología y las ciencias sociales. La investigación científica de las cuatro últimas décadas ha proporcionado abundante información y conocimiento sobre las causas desencadenantes de dinámicas de extinción, factores de aceleración y umbrales críticos que harían ineficaces las estrategias de mitigación.6, 7
El cambio ambiental ocurrido durante el Holoceno por causas naturales se dio dentro de los márgenes de la capacidad reguladora de la Tierra, que mantuvo condiciones compatibles con el desarrollo humano (temperaturas regulares, disponibilidad de agua dulce y flujos biogeoquímicos) en un estrecho margen. Con la dependencia actual de los combustibles fósiles y las formas industrializadas de agricultura, las actividades humanas han alcanzado un nivel de impacto capaz de alterar las condiciones que sirven de soporte a la vida en la Tierra.8
Jared M. Diamond advertía en 1989 sobre la posibilidad de que se estén subestimando las tasas de extinción en el presente, dado que los registros de especies amenazadas (Red Data Books, establecidos por la Unión Internacional para la Conservación de la Naturaleza) contienen todas las especies de animales, plantas y hongos en peligro de extinción en un país o estado, pero se limitan a ciertas especies que han atraído atención y han sido objeto de estudio. Los valores reales quedan ampliamente subestimados, puesto que en zonas tropicales con pocos biólogos residentes se extinguen muchas especies apenas conocidas y otras desaparecen incluso antes de ser descritas. Por otra parte, se tiene evidencia de cómo la primera llegada de humanos a cualquier isla oceánica sin habitantes humanos ha precipitado una extinción masiva en la biota, como pudo constatarse en los moas de Nueva Zelanda, los lémures gigantes de Madagascar y decenas de especies de aves en Hawaii y otras islas tropicales del Pacífico.6
El alcance de tales impactos puede compararse a las extinciones de grandes mamíferos del Pleistoceno tardío o del Holoceno, tras la llegada de los primeros humanos a América del Norte, América del Sur y Australia. En consecuencia, la asociación entre extinción masiva y actividad humana deja de ser una hipótesis en los ejercicios de prospectiva sobre escenarios futuros de crisis ecológica. Diamond lo interpreta como un evento de lenta gestación, con efectos constatables a lo largo de miles de años y vectores de aceleración (caza excesiva, introducción de especies invasoras, destrucción del hábitat y efectos secundarios) que la tecnología y la globalización amplifican a una escala sin precedentes, como años más tarde constata E. O. Wilson en The future of life (2003).6, 12
El abordaje de problemas globales como el cambio climático y las amenazas a la biodiversidad exigen instrumentos de gobernanza mucho más eficaces y ambiciosos que los existentes, sin los que difícilmente pueden coordinarse las acciones urgentes para proteger la vida en la Tierra y asegurar un futuro sostenible para las poblaciones humanas en zonas vulnerables.9, 10, 11
1. Raup, D. M., & Sepkoski, J. J. (1982). Mass Extinctions in the Marine Fossil Record. Science, 215(4539), 1501–1503. https://doi.org/10.1126/science.215.4539.1501.
2. Loper, D. E., McCartney, K., & Buzyna, G. (1988). A Model of Correlated Episodicity in Magnetic-Field Reversals, Climate, and Mass Extinctions. The Journal of Geology, 96(1), 1–15. https://doi.org/10.1086/629189.
3. Leahy, S. (2018). Biodiversity is in free fall. Here’s how we can fix it. Nationalgeographic.com. https://www.nationalgeographic.com/environment/article/news-biodiverity-tropics-climate-change-solutions.
4. Lanfear, R., Kokko, H., & Eyre-Walker, A. (2014). Population size and the rate of evolution. Trends in Ecology & Evolution, 29(1), 33–41. https://doi.org/10.1016/j.tree.2013.09.009.
5. Kolbert, E. (2014). The sixth extinction: An unnatural history. Henry Holt & Company.
6. IPBES (2019). Summary for Policymakers of the IPBES Global Assessment Report on Biodiversity and Ecosystem Services. https://files.ipbes.net/ipbes-web-prod-public-files/inline/files/ipbes_global_assessment_report_summary_for_policymakers.pdf.
7. Diamond, J. (1989). The present, past and future of human-caused extinctions. Philosophical transactions of the Royal Society of London. Series B, Biological sciences, 325 1228, 469-76; discussion 476-7 . https://doi.org/10.1098/RSTB.1989.0100.
8. Ceballos, G., Ehrlich, P., Barnosky, A., García, A., Pringle, R., & Palmer, T. (2015). Accelerated modern human–induced species losses: Entering the sixth mass extinction. Science Advances, 1. https://doi.org/10.1126/sciadv.1400253.
9. Barnosky, A. D. et al. (2011). Has the Earth’s sixth mass extinction already arrived? Nature, 471(7336), 51–57. https://doi.org/10.1038/nature09678.
10. Rockström, J. et al. (2009). A safe operating space for humanity. Nature, 461(7263), 472–475. https://doi.org/10.1038/461472a.
11. Ceballos, G., Ehrlich, P. R., & Dirzo, R. (2017). Biological annihilation via the ongoing sixth mass extinction signaled by vertebrate population losses and declines. Proceedings of the National Academy of Sciences, 114(30). https://doi.org/10.1073/pnas.1704949114.
12. Wilson, E. O. (2003). The future of life. Random House. Caps. 5, 6 y 7.
La lista roja de especies amenazadas de la UICN
Fuente: https://www.iucnredlist.org/
Introducción
La Unión Internacional para la Conservación de la Naturaleza (UICN) es una organización global dedicada a la conservación de la naturaleza y el uso sostenible de los recursos naturales. Su Lista Roja de Especies Amenazadas es una herramienta crucial para evaluar el estado de conservación de las especies de flora y fauna a nivel mundial. Esta lista proporciona información valiosa sobre las tendencias de las especies en peligro de extinción y sirve como base para desarrollar estrategias de conservación efectivas.
Estadísticas y tendencias
- Aumento en el número de especies evaluadas para la Lista Roja de Especies Amenazadas de la UICN™ (2000–2023; versión 2023-1).
- Proporción de especies existentes (es decir, excluidas las extintas) en la Lista Roja de Especies Amenazadas de la UICN.
- Número de especies amenazadas por grupos principales de organismos.
- Cambios en el número de especies en las categorías amenazadas.
Según los datos disponibles en la URL proporcionada, la Lista Roja de la UICN ha evaluado un total de 147,517 especies, de las cuales:
- 41,459 están en peligro de extinción (28.1%)
- 8,976 están en peligro crítico (6.1%)
- 11,798 están en peligro (8%)
- 20,685 están vulnerables (14%)
Estas cifras muestran una tendencia preocupante, ya que más de una cuarta parte de las especies evaluadas se encuentran en algún grado de amenaza.
Además, los datos revelan que los grupos taxonómicos con mayor porcentaje de especies amenazadas son:
- Anfibios (41.1%)
- Arácnidos (31.3%)
- Corales (31%)
Se trata de tendencias alarmantes, atribuidas a factores como la pérdida y degradación del hábitat, la sobreexplotación, la contaminación, las especies invasoras y el cambio climático.
Reflexión crítica
La pérdida de biodiversidad tiene consecuencias devastadoras para los ecosistemas y la vida en el planeta. Las especies desempeñan funciones cruciales en los ciclos naturales, y su desaparición puede desencadenar efectos en cascada que afectan a otros organismos y procesos ecológicos.
La Lista Roja de la UICN es una herramienta fundamental para sensibilizar sobre la crisis de la biodiversidad y orientar las acciones de conservación. Sin embargo, es crucial que esta información se traduzca en políticas y acciones concretas para proteger los hábitats, frenar la degradación ambiental y promover prácticas sostenibles.
Hochkirch et al. (2023) analizaron el estado de conservación de 14.669 especies europeas terrestres, de agua dulce y marinas (aproximadamente el 10% de la fauna y flora continental), incluidos todos los vertebrados y grupos seleccionados de invertebrados y plantas. Concluyen que el 19% de las especies europeas están amenazadas de extinción, con mayores riesgos de extinción para las plantas (27%) y los invertebrados (24%), en comparación con los vertebrados (18%).
Son cifras que empeoran las estimaciones de riesgo de extinción que IPBES (Plataforma Intergubernamental sobre Biodiversidad y Servicios de los Ecosistemas) hizo públicas 4 años antes. Los cambios en las prácticas agrícolas y la pérdida de hábitat, la sobreexplotación, la contaminación y el desarrollo asociados son amenazas importantes para la biodiversidad. Mantener y restaurar prácticas sostenibles de uso de la tierra y el agua es crucial para minimizar las futuras disminuciones de la biodiversidad.
Referencias
IPBES. (2019). Resumen para los responsables de la formulación de políticas del Informe de la evaluación mundial sobre la diversidad biológica y los servicios de los ecosistemas. https://ipbes.net/sites/default/files/2020-02/ipbes_global_assessment_report_summary_for_policymakers_es.pdf.
WWF. (2020). Informe Planeta Vivo 2020: Revertir la curva de la pérdida de biodiversidad. https://wwf.panda.org/wwf_news/?932116/Informe-Planeta-Vivo-2020.
Secretaría del Convenio sobre la Diversidad Biológica. (2020). Perspectiva Mundial sobre la Diversidad Biológica 5. https://www.cbd.int/gbo5.
Hochkirch, A., Bilz, M., Ferreira, C.C., Danielczak, A., Allen, D., Nieto, A. et al. 2023. A multi-taxon analysis of European Red Lists reveals major threats to biodiversity. PLoS ONE 18(11): e0293083. https://doi.org/10.1371/journal.pone.0293083.
El cambio climático, las pandemias o los escenarios de conflicto nuclear son el tipo de problema cuyo alcance e impacto potencial justifica la denominación de existencial, dado el elevado porcentaje de la población humana que podría resultar afectado en el escenario más desafortunado. La gestión de riesgos existenciales es improbable que resulte exitosa sin liderazgo efectivo, asesoramiento experto e instrumentos sólidos de gobernanza transfronteriza. De hecho, los esquemas de liderazgo se consideran con razón un factor de riesgo en sí mismos. Ligeros desajustes en la coordinación de las estrategias de prevención y tiempos de reacción pueden acarrear daños irreparables en las poblaciones humanas, los ecosistemas y la biodiversidad.1, 2
Mientras que las alianzas políticas y la delimitación de fronteras son fenómenos que obedecen a causas complejas de raíz social y cultural, con ritmos relativamente lentos de gestación y evolución, no ocurre lo mismo con los factores que desencadenan fenómenos extremos ligados al clima, brotes de enfermedades infecciosas o riesgo de accidente nuclear grave. La secuencia causal desencadenante de resultados catastróficos puede desarrollarse en intervalos breves de tiempo, por lo que los esquemas de prevención y anticipación de escenarios de riesgo dependen estrechamente del conocimiento disponible y, sobre todo, de la disponibilidad de instrumentos normativos e institucionales aptos para pasar de los datos y el conocimiento riguroso a la adopción de decisiones responsables, en tiempo y escala adecuados, pese a la incertidumbre.3, 4
La falta de liderazgo se manifiesta tanto en la ausencia de esquemas disuasorios para quienes podrían agravar el riesgo —de accidente o catástrofe industrial, supongamos— como en la incapacidad para adoptar y ejecutar las decisiones necesarias cuando la amenaza es inminente. Tanto la falta de liderazgo como las debilidades de las instancias con la responsabilidad de ejercerlo pueden pasar desapercibidas en circunstancias de relativa normalidad, donde a efectos prácticos pueden tener un peso mayor algunas instituciones transnacionales (la UE, p. ej.) y otros actores de la sociedad civil; pero salen a la luz cuando se afrontan imprevistos de gravedad o el periodo de emergencia de una crisis es extraordinariamente corto, como ocurre con los brotes epidémicos, las catástrofes naturales o los accidentes industriales. Cuando los daños son importantes y exceden la capacidad de respuesta organizada de las instituciones locales, el descontento y la frustración de los más perjudicados favorece el tipo de reacción social capaz de aglutinar a colectivos heterogéneos para exigir rendición de cuentas y responsabilidades por los daños o la imprevisión.4
Si bien la cooperación internacional para abordar problemas o crisis complejas puede funcionar razonablemente bien involucrando a organismos o instancias ajenos al sistema estatal en las fases iniciales, la gestión exitosa (con medidas preventivas acertadas y recursos suficientes para minimizar los daños) depende menos de la cooperación informal horizontal (con o sin el apoyo de organismos supranacionales) que de la eficacia de la administración pública y los medios efectivos que la política estatal asigna para prevenir cierto tipo de riesgos en el ámbito local y, llegado el caso, mitigar sus consecuencias.5
Esto es así pese a las dudas sobre la capacidad de los estados para afrontar problemas como la pobreza y el lastre de la corrupción en la baja percepción de eficacia. La falta de confianza en la autoridad estatal tradicional difícilmente queda compensada con una perspectiva realista de exigir transparencia y rendición de cuentas a nuevos actores transnacionales (G20 y G7, por ejemplo) u otras instancias de la sociedad civil (ONG), cuya legitimidad no resulta menos problemática (e insuficiente su capacidad económica para afrontar indemnizaciones en caso de catástrofe).6, 7
Las cumbres mundiales del clima y sus compromisos de mínimos ejemplifican el desajuste entre intereses nacionales cortoplacistas —agudizados por la acción de los grupos de presión que defienden los intereses de las industrias más contaminantes— y la necesidad de atender al interés común de la humanidad, infrarrepresentado desde las poblaciones más vulnerables o mediante voces que velen por los intereses de las generaciones futuras. El resultado son compromisos internacionales poco ambiciosos, medidas insuficientes y retrasos en la acción, en una dinámica agravada por cambios frecuentes de gobierno que dificultan arbitrar políticas coherentes en el tiempo.8
Sin embargo, los mayores riesgos existenciales son antropogénicos (o están relacionados con tecnologías de alto riesgo en desarrollo). Difícilmente cabe imaginar prioridades más importantes, en términos de bienes públicos globales, que la reducción del riesgo existencial. Este objetivo redefine conceptos como el de sostenibilidad —más una trayectoria que un estado— o el de mitigación. Ciertos riesgos existenciales (el impacto de un asteroide, p. ej.) pueden mitigarse directamente o indirectamente (creando la red de medios de apoyo y reservas para aumentar la capacidad de supervivencia en una variedad de escenarios extremos). Pero afrontar los fenómenos climáticos extremos y otros riesgos que previsiblemente se agravarán en este siglo exige coordinar acciones a gran escala y sabiduría colectiva, conocimiento y prospectiva tecnológica, junto con una capacidad demostrada de movilizar recursos para identificar cuanto antes la amenaza y dar una respuesta global coordinada.9
Se trata en todo caso de una perspectiva reflexiva, informada y a largo plazo, para la cual resultan poco ágiles las instituciones de gobernanza transfronteriza como Naciones Unidas (incluso si su falta de recursos y capacidad para adoptar decisiones vinculantes no fuera un problema). La facilidad con la que algunos estados hacen valer sus intereses mediante vetos y bloqueos solo agrava la inacción por falta de mecanismos efectivos de supervisión, sin capacidad disuasoria ni medios para sancionar el incumplimiento de los acuerdos. En la práctica, la calidad y eficacia de las acciones para abordar problemas graves de alcance global dependen en exceso de la voluntad política de muy pocos actores en la arena mundial, lo que provoca respuestas fragmentadas, descoordinadas y a menudo reactivas. Es muy probable que a mitad del siglo XXI la humanidad se aproxime a puntos de no retorno, donde el escepticismo y la desconfianza pública en las instituciones impidan una acción global concertada y preventiva frente a las amenazas existenciales.10, 11, 12
Como ejemplo de descoordinación con graves cosecuencias cabe mencionar la retirada de Estados Unidos del Acuerdo de París contra el cambio climático durante la administración Trump (2017), pese a que había sido firmado por 200 países en 2015; el incumplimiento de los objetivos de reducción de emisiones por parte de numerosos países (China, Brasil, España y Australia, entre otros); o las dificultades para lograr una distribución global equitativa de vacunas durante la pandemia de COVID-19, según la OMS.
En conclusión, es impensable gestionar con alguna perspectiva de éxito los riesgos existenciales sin fortalecer los esquemas de liderazgo y gobernanza transfronteriza inspirados en conocimiento riguroso. Aparte de involucrar a personas con visión de futuro y compromiso con los intereses de las generaciones futuras (conscientes de lo que Bostrom denomina la hipótesis del mundo vulnerable), es preciso arbitrar instancias capaces de aglutinar voluntades más allá de la colaboración puntual basada en el interés mutuo e inmediato. Las instituciones implicadas en la gobernanza internacional deben disponer de mayor autonomía, capacidades y recursos, incluyendo la relación fluida con órganos de asesoramiento científico independiente, agencias especializadas en la monitorización de ciertos riesgos y fondos globales que incentiven la acción de los estados (y sancionen la inacción, el negacionismo o el unilateralismo irresponsable).13, 14
Considerando las tendencias que podrían materializar un escenario caótico de comunidad internacional desorganizada a medio plazo, parece razonable aprovechar mejor los tiempos de relativa paz para construir mecanismos más sólidos de resolución de problemas y conflictos internacionales.13, 15
1. Dodds, K. (2019). Geopolitics: A very short introduction (3a ed.). Oxford University Press. Ch. 1.
2. Lewis, M. (2019a). The fifth risk the fifth risk: Undoing democracy. WW Norton. Ch. I, III.
3. Förster, C. et al. (2022). Leading in the Paradoxical World of Crises: How Leaders Navigate Through Crises. Schmalenbachs Zeitschrift FüR Betriebswirtschaftliche Forschung/ZFBF. Schmalenbachs Zeitschrift Für Betriebswirtschaftliche Forschung, 74(4), 631-657. https://doi.org/10.1007/s41471-022-00147-7.
4. Fukuyama, F. (2016). Governance: What Do We Know, and How Do We Know It? Annual Review of Political Science, 19, 89-105.
5. Wilson, C., Morrison, T. H., & Everingham, J. (2017). Linking the ‘meta-governance’ imperative to regional governance in resource communities. Journal Of Rural Studies, 50, 188-197. https://doi.org/10.1016/j.jrurstud.2017.01.003.
6. Slaughter, S. (2019). The power of the G20: The politics of legitimacy in global governance. Routledge.
7. Archibugi, D. (2020). Cosmopolitan Democracy. En Cosmopolitanism in Hard Times (pp. 167–180). Brill.
8. Bostrom, N. (2013). Existential Risk Prevention as Global Priority. Global Policy, 4(1), 15–31. https://doi.org/10.1111/1758-5899.12002.
9. Ord, T. (2020). The Precipice: Existential risk and the future of humanity. Hachette Books. Caps. 2, 4 y 6.
10. Bostrom, N. (2002). Existential risks: Analyzing human extinction scenarios and related hazards. Journal of Evolution and technology, 9.
11. Posner, R. A. (2004). Catastrophe: risk and response. Oxford University Press.
12. Farquhar, S. et al. (2017). Existential Risk Diplomacy and Governance. Global Priorities Project. https://www.fhi.ox.ac.uk/wp-content/uploads/Existential-Risks-2017-01-23.pdf.
13. Bostrom, N. (2019). The Vulnerable World Hypothesis. Global Policy, 10(4), 455–476. https://doi.org/10.1111/1758-5899.12718.
14. OECD (2010). OECD Risk Management: Strategic Crisis Management (Working papers on public governance). Organisation for Economic Co-Operation and Development. https://www.oecd-ilibrary.org/governance/oecd-risk-management_5k41rbd1lzr7-en.
15. Spratt, D., & Dunlop, I. (2019). Existential climate-related security risk: A scenario approach (Issue May). Breakthrough - National Centre for Climate Restoration. https://docs.wixstatic.com/ugd/148cb0_a1406e0143ac4c469196d3003bc1e687.pdf.
Spratt, D., & Dunlop, I. (2019). Existential climate-related security risk: A scenario approach (Issue May). Breakthrough - National Centre for Climate Restoration. https://docs.wixstatic.com/ugd/148cb0_a1406e0143ac4c469196d3003bc1e687.pdf.
A 2050 SCENARIO (pp. 8-9)
«By 2050, there is broad scientific acceptance that system tipping-points for the West Antarctic Ice Sheet and a sea-ice-free Arctic summer were passed well before 1.5°C of warming, for the Greenland Ice Sheet well before 2°C, and for widespread permafrost loss and large-scale Amazon drought and dieback by 2.5°C. The “hothouse Earth” scenario has been realised, and Earth is headed for another degree or more of warming, especially since human greenhouse emissions are still significant.
While sea levels have risen 0.5 metres by 2050, the increase may be 2–3 metres by 2100, and it is understood from historical analogues that seas may eventually rise by more than 25 metres.
Thirty-five percent of the global land area, and 55 percent of the global population, are subject to more than 20 days a year of lethal heat conditions, beyond the threshold of human survivability. The destabilisation of the Jet Stream has very significantly affected the intensity and geographical distribution of the Asian and West African monsoons and, together with the further slowing of the Gulf Stream, is impinging on life support systems in Europe. North America suffers from devastating weather extremes including wildfires, heatwaves, drought and inundation. The summer monsoons in China have failed, and water flows into the great rivers of Asia are severely reduced by the loss of more than one-third of the Himalayan ice sheet. Glacial loss reaches 70 percent in the Andes, and rainfall in Mexico and central America falls by half. Semi-permanent El Nino conditions prevail.
Aridification emerges over more than 30 percent of the world’s land surface. Desertification is severe in southern Africa, the southern Mediterranean, west Asia, the Middle East, inland Australia and across the south-western United States.
Impacts: A number of ecosystems collapse, including coral reef systems, the Amazon rainforest and in the Arctic.
Some poorer nations and regions, which lack capacity to provide artificially-cooled environments for their populations, become unviable. Deadly heat conditions persist for more than 100 days per year in West Africa, tropical South America, the Middle East and South-East Asia, contributing to more than a billion people being displaced from the tropical zone.
Water availability decreases sharply in the most affected regions at lower latitudes (dry tropics and subtropics), affecting about two billion people worldwide. Agriculture becomes nonviable in the dry subtropics.
Most regions in the world see a significant drop in food production and increasing numbers of extreme weather events, including heat waves, floods and storms. Food production is inadequate to feed the global population and food prices skyrocket, as a consequence of a one-fifth decline in crop yields, a decline in the nutrition content of food crops, a catastrophic decline in insect populations, desertification, monsoon failure and chronic water shortages, and conditions too hot for human habitation in significant food-growing regions.
The lower reaches of the agriculturally-important river deltas such as the Mekong, Ganges and Nile are inundated, and significant sectors of some of the world’s most populous cities — including Chennai, Mumbai, Jakarta, Guangzhou, Tianjin, Hong Kong, Ho Chi Minh City, Shanghai, Lagos, Bangkok and Manila — are abandoned. Some small islands become uninhabitable. Ten percent of Bangladesh is inundated, displacing 15 million people.
Even for 2°C of warming, more than a billion people may need to be relocated and In high-end scenarios, the scale of destruction is beyond our capacity to model, with a high likelihood of human civilisation coming to an end.
National security consequences: For pragmatic reasons associated with providing only a sketch of this scenario, we take the conclusion of the Age of Consequences ‘Severe’ 3°C scenario developed by a group of senior US national-security figures in 2007 as appropriate for our scenario too:
Massive nonlinear events in the global environment give rise to massive nonlinear societal events. In this scenario, nations around the world will be overwhelmed by the scale of change and pernicious challenges, such as pandemic disease. The internal cohesion of nations will be under great stress, including in the United States, both as a result of a dramatic rise in migration and changes in agricultural patterns and water availability. The flooding of coastal communities around the world, especially in the Netherlands, the United States, South Asia, and China, has the potential to challenge regional and even national identities. Armed conflict between nations over resources, such as the Nile and its tributaries, is likely and nuclear war is possible. The social consequences range from increased religious fervor to outright chaos. In this scenario, climate change provokes a permanent shift in the relationship of humankind to nature’.»
- Campbell et al. (2007). The Age of Consequences: The foreign policy and national security implications of global climate change, Washington DC, Centre for Strategic and International Studies /Center for New American Security, 9.»
El modelo tradicional de gestión de crisis en el que se han formado equipos y líderes con experiencia se sustenta en:
Si bien este modelo ha resultado útil e inspira confianza porque ha sido puesto a prueba en múltiples tipos de crisis sobre los que existe investigación y análisis poscatástrofe, con información valiosa recogida en bases de datos de accidentes y catástrofes como EM-DAT/CRED —que contiene datos fiables de impacto de unos 26,000 desastres masivos ocurridos en todo el mundo desde 1900—, tiene el inconveniente de que resulta demasiado rígido para lidiar con el carácter novedoso de ciertos tipos de riesgo y amenazas en el presente.
El modelo de gestión de crisis y amenazas emergentes requiere elementos específicos:
La diferencia esencial entre ambos modelos atañe al papel del componente preventivo y proactivo requerido para afrontar aspectos novedosos detectados en las crisis y fenómenos complejos recientes, donde el resultado potencialmente catastrófico deriva de una serie de fenómenos concatenados (clima, instalaciones vulnerables, infraestructura obsoleta, etc.) para los que resultan ineficaces las acciones reactivas o defensivas. En las crisis y amenazas emergentes, la dimensión del impacto desborda los recursos locales, por lo que la estrategia reactiva no evita un alto coste en vidas humanas y daños patrimoniales (como ocurrió en los ataques del 11 de septiembre de 2001 al World Trade Center de Nueva York o en los terremotos que asolaron el sureste de Turquía y el norte de Siria el 6 y 20 de febrero de 2023).
El modelo preventivo dimensiona los recursos, desarrolla las habilidades y analiza las acciones prospectivas que evitarían el desencadenamiento de la crisis o las disrupciones con mayor coste asociado, en la fase donde las estrategias inspiradas en conocimiento riguroso pueden resultar eficaces. Más que construir escenarios, se trata de desarrollar capacidades de propósito múltiple, suficientes y flexibles para gestionar la incertidumbre y garantizar respuesta rápida en la escala necesaria. El modelo preventivo ha de barajar la posibilidad de que el desastre deje fuera de servicio todos los hospitales de la zona afectada, como ocurrió en Turquía o Siria y se había visto ya en el terremoto y tsunami del Océano Índico del 26 de diciembre de 2004.
En grandes incendios y desastres naturales (como los del verano negro 2019-2020 de Australia), el modelo jerarquizado de comando de incidentes (Incident Command System, abreviado ICS) puede resultar adecuado, cuando están bien identificados los medios disponibles, las áreas de responsabilidad y la atribución de roles y responsabilidades de supervisión. Entre otras ventajas, el ICS incluye la organización en secciones funcionales (operaciones, planificación, logística y finanzas/administración), lo que permite expandir o contraer la estructura según la magnitud del incidente y reasignar roles en urgencias o en otras unidades hospitalarias, por ejemplo.1, 2
El modelo de capacidades cuenta a su favor con el componente formativo como base para afrontar cualquier tipo de crisis, en lugar de planificar escenarios específicos. Pero esta ventaja en caso de imprevistos puede fácilmente suponer una debilidad, si fallan los medios convencionales y la cadena de responsabilidad en la gestión de incidentes complejos o policrisis, incluyendo la delimitación clara del esquema de autoridad, el marco regulador al respecto y el tipo de coordinación requerida entre organismos con responsabilidades diferentes. Esta eventualidad pudo constatarse de forma dramática en el accidente industrial de Fukushima, desencadenado tras un terremoto de magnitud 9.0 y un tsunami que sobrepasó los límites de seguridad en el diseño de la planta, desbordando la capacidad de los operarios de Tepco para tomar decisiones y comunicarse con las autoridades y servicios de emergencias.3, 4, 5
En la respuesta humanitaria tras los terremotos de Turquía de 2023, los graves problemas de coordinación se han atribuido a fallos en el sistema de comando de incidentes, falta de liderazgo, gestión inadecuada de recursos escasos (tiendas de campaña y maquinaria pesada, p. ej.), sistemas de comunicación y uso de las redes sociales. Su balance fue de casi 60.000 víctimas mortales (51.000 en Turquía; más de 8.000 en Siria), muchas de las cuales se atribuyen a la hipotermia ocasionada por la nevada que obstaculizó las tareas de los equipos de rescate. Hubo unos 108.000 heridos, cientos de miles de personas quedaron a la intemperie, sin comida ni agua potable, y los daños patrimoniales se estimaron en unos 85.000 millones de dólares estadounidenses. El balance final de víctimas en las zonas de Siria y Turquía afectadas podría superar las 100.000, contando los miles de desaparecidos.
Aun reconociendo la gravedad del desastre y la magnitud de la devastación provocada por dos terremotos de 7.5-7.8 Mw y casi 1.000 réplicas, la gestión de la crisis evidenció deficiencias en otros aspectos específicos (incertidumbre en la asignación de responsabilidad, autoridad múltiple, ausencia prolongada de las instancias estatales que deberían estar involucradas, rechazo de la ayuda exterior en los primeros días, retraso en el despliegue de fuerzas militares y dificultades en la coordinación lingüística). Algunos de estos aspectos podrían haberse mitigado explotando mejor las posibilidades de las redes sociales para compartir información rápidamente (sin embargo, el gobierno turco mantuvo Twitter bloqueado durante 12 horas). La eficacia de esta medida habría sido limitada, puesto que tanto la infraestructura de comunicaciones como la red sanitaria habían resultado gravemente dañadas.
El enfoque colapsista resulta pertinente para describir una situación en la que los sistemas sociales, económicos y políticos existentes se desmoronan debido a un evento catastrófico que supera la capacidad de respuesta de los recursos locales o estatales. En el contexto de desastres naturales agravados por el cambio climático y los conflictos armados, las organizaciones humanitarias que consiguen acceder a las zonas afectadas constatan un colapso generalizado de las estructuras y servicios básicos, con retrasos y falta de coordinación que dificulta las tareas de rescate y aumentan extraordinariamente el número de víctimas directamente relacionado con las grandes catástrofes.6
En los desastres ocasionados por terremotos tiene importancia crucial la ayuda inmediata con mayor impacto en la supervivencia (personal sanitario, maquinaria y equipos operativos para rescatar a la gente atrapada entre los escombros). La falta de coordinación provocó incontables muertes adicionales en Siria y Turquía, en febrero de 2023. Aunque se solicitó ayuda internacional y muchos equipos llegaron rápidamente a Turquía (no a Siria, y en absoluto a las zonas bajo control kurdo), la falta de coordinación, de personal, de maquinaria pesada y de tecnología especializada para tareas de búsqueda y salvamento dificultaron notablemente las intervenciones que más vidas podrían haber salvado. Las instituciones turcas para desastres y emergencias, dependientes del Ministerio del Interior, desplegaron una actuación tardía y cuestionable, lastrada por la falta de experiencia y de conocimientos especializados. Muchos particulares tuvieron que contratar por su cuenta la maquinaria pesada para rescatar a familiares atrapados. Y los equipos que iban llegando días o semanas después carecían de material apropiado para las tareas de rescate, quedando en manos de voluntarios (sobre todo en el noroeste de Siria) la responsabilidad de acudir, buscar y priorizar las acciones de salvamento. La ayuda que varios países árabes del norte de África, Irán y otras regiones enviaron en apoyo al gobierno sirio solo llegó a zonas controladas por el gobierno, pero no a las del noroeste, mucho más dañadas.6
La ayuda humanitaria de la ONU se canalizó a través de un número insuficiente de pasos fronterizos, lo que agravó los problemas de coordinación y restó eficacia al rescate, en gran medida por las restricciones que impusieron Rusia y el gobierno sirio. El resultado fue una discriminación brutal por razones étnicas, políticas y religiosas de grupos y minorías que habían sido duramente afectados por el terremoto, pero que no tuvieron las mismas oportunidades de sobrevivir y recibir atención médica y humanitaria tras el desastre. En sentido estricto, se produjo una combinación desfavorable de aspectos naturales y sociales (policrisis) que dejó sin atención a la mayor parte de los afectados en las horas cruciales y agravó el balance final de víctimas. Como causa remota directamente relacionada pero de gestación lenta cabe señalar la ausencia de supervisión de medidas antisísmicas en las nuevas edificaciones —sin personal experto para verificar el diseño o la solidez estructural— y la falta de planes preventivos que debían incluir una cartografía de los edificios antiguos más vulnerables, puesto que existían precedentes de grandes terremotos en la placa de Anatolia y más de un tercio de las edificaciones no cumplían requisitos mínimos para resistir terremotos de gran magnitud, como los ocurridos cerca de Estambul en 1999 (con 17.000 víctimas) y 2011 (con 700 víctimas).7
Las grandes catástrofes recientes evidencian con qué facilidad puede colapsar una región del planeta y dejar sin refugio, agua potable, comida ni atención sanitaria a las poblaciones de varios países simultáneamente. La descoordinación internacional para afrontar el impacto del cambio climático puede considerarse un factor agravante de otros tipos de crisis, puesto que sus implicaciones son profundas, multidimensionales, y orientan sobre escenarios de riesgo considerados altamente improbables antes de la última década, dadas sus características. Entre otras:
Sobrecarga de los sistemas de respuesta: Cuando un desastre supera la capacidad de los recursos locales y estatales, los sistemas de emergencia, suministro de alimentos, agua, energía y atención médica se ven rápidamente sobrepasados y pueden colapsar, con consecuencias fatales para personas enfermas y población vulnerable.
Ruptura de las cadenas de suministro: El colapso de las infraestructuras de transporte y comunicación puede interrumpir las cadenas de suministro, dificultando la entrega de ayuda humanitaria, el desplazamiento de maquinaria pesada y recursos esenciales a las áreas afectadas.
Desplazamiento masivo de población: Las catástrofes de gran magnitud pueden provocar el desplazamiento forzado de grandes cantidades de personas, lo que genera crisis humanitarias y tensiones sociales en las áreas de refugio (emergencias complejas).
Inestabilidad política, inseguridad y conflictos: El colapso de los sistemas de gobierno y la escasez de recursos pueden desencadenar inestabilidad política, conflictos violentos y la aparición de grupos armados que aprovechan el vacío de poder (como ha ocurrido en Haití y en otras zonas de África y Centroamérica).
Impacto en la salud pública: El colapso de los sistemas de salud y saneamiento puede provocar la propagación de enfermedades, epidemias y tasas de mortalidad elevadas, al resultar dañada la red de centros de atención sanitaria y afectado el personal con conocimiento profesional especializado.
Daños ambientales que degradan zonas extensas: Algunos desastres, como los accidentes nucleares o los vertidos de sustancias y materiales peligrosos, pueden causar daños ambientales masivos y duraderos, dificultando aún más la recuperación.8, 9
El colapsismo no es un término arbitrario, disponible entre otros enfoques alternativos para explicar situaciones de crisis y emergencias complejas. Lamentablemente, es el que muchos expertos emplean para perfilar el escenario que se abre cuando el alcance de los desastres naturales agrava otros impactos (ecological collapse, financial collapse, market collapse), como resultado de la descoordinación en la respuesta internacional y la subestimación de los recursos y capacidades logísticas necesarias para mantener servicios básicos y proporcionar ayuda humanitaria mientras se dan las condiciones para reconstruir las infraestructuras críticas:
Los científicos advierten de que un calentamiento de 4 °C es incompatible con una comunidad mundial organizada, es devastador para la mayoría de los ecosistemas y tiene una alta probabilidad de no ser estable. El Banco Mundial afirma que puede estar «más allá de la adaptación». Pero la amenaza existencial puede materializarse para muchos pueblos y regiones con un nivel de calentamiento significativamente inferior. En 2017, un calentamiento de 3 °C se calificó de «catastrófico», con la advertencia de que, si no se controlan las emisiones, un calentamiento de baja probabilidad y alto impacto podría ser catastrófico en 2050. El Director emérito del Instituto de Potsdam, el profesor Hans Joachim Schellnhuber, advierte de que «el cambio climático está llegando al final del juego, donde muy pronto la humanidad deberá elegir entre tomar medidas sin precedentes o aceptar que se ha llegado demasiado tarde y asumir las consecuencias». Según él, si seguimos por el camino actual «existe un riesgo muy alto de que acabemos con nuestra civilización. La especie humana sobrevivirá de algún modo, pero destruiremos casi todo lo que hemos construido en los últimos dos mil años».
- Spratt & I. Dunlop (2019): Existential climate-related security risk: A scenario approach, p. 6. Traducción propia.
Las dinámicas constatadas en la última década suponen para la especie humana adentrarse en un escenario único, sin análogos históricos porque nunca ha sido tan alto el nivel de gases de efecto invernadero en la atmósfera. La Tierra es ahora más cálida de lo que los seres humanos han podido experimentar jamás. Los procesos en curso de deshielo en los polos y en el permafrost pueden desencadenar eventos aceleradores y sumir a toda la población humana en una crisis climática imposible de gestionar, unas vez sobrepasados los umbrales de viabilidad y las condiciones compatibles con los modos de vida que conocemos.10, 13
Cabe adoptar enfoques positivos y de confianza inquebrantable en la capacidad de reacción humana, como propone Edward O. Wilson en The Future of Life.12 Desafortunadamente, el horizonte de colapso de la sociedad humana organizada es un escenario extremo probable y verosímil, del cual vamos teniendo evidencia parcial pero aterradora, en el contexto de las crisis complejas ligadas a desastres naturales y conflictos armados exacerbados por el cambio climático. Entender sus implicaciones es crucial para desarrollar estrategias y capacidades de respuesta adecuadas, sin subestimar de modo imprudente la gravedad de las consecuencias y movilizando todos los recursos necesarios para evitar un colapso generalizado de los sistemas sociales y estatales.11, 13
1. Brown, M. R. et al. (2022). Disaster preparedness: An interprofessional student incident command system simulation. Journal of Interprofessional Education & Practice, 27, 100507. https://doi.org/10.1016/j.xjep.2022.100507.
2. Holtzclaw, T. et al. (2022). Coronavirus Disease 2019 in the Emergency Department: Establishing an Interprofessional Incident Command System. Journal of Emergency Nursing, 48(4), 477–483. https://doi.org/10.1016/j.jen.2022.01.004.
3. Bek Yağmur, Ö., & Aydıntuğ Myrvang, N. (2023). The effect of organizational agility on crisis management process and organizational resilience: Health sector example. International Journal of Disaster Risk Reduction, 96, 103955. https://doi.org/10.1016/j.ijdrr.2023.103955.
4. Olsén, M. et al. (2023). Exploring collaborative crisis management: A model of essential capabilities. Safety Science, 162, 106092. https://doi.org/10.1016/j.ssci.2023.106092.
5. Cedergren, A., & Hassel, H. (2024). Building organizational adaptive capacity in the face of crisis: Lessons from a public sector case study. International Journal of Disaster Risk Reduction, 100, 104235. https://doi.org/10.1016/j.ijdrr.2023.104235.
6. Amnistía Internacional. (2023, 3 marzo). Terremotos de Turquía y Siria: Respuesta a la crisis desde una perspectiva de derechos humanos. https://www.amnesty.org/es/latest/campaigns/2023/02/turkiye-syria-earthquakes-a-human-rights-approach-to-crisis-response.
7. Lange, D. et al. (2019). Interseismic strain build-up on the submarine North Anatolian Fault offshore Istanbul. Nature Communications, 10(1), 3006. https://doi.org/10.1038/s41467-019-11016-z.
8. Ülgen, S. (2023, 15 febrero). Turquía, tras el terremoto. Política Exterior. https://www.politicaexterior.com/turquia-tras-el-terremoto.
9. Palma, F. (2015). Lo que viene después de la emergencia de un desastre natural. Uchile. https://uchile.cl/noticias/110869/lo-que-viene-despues-de-la-emergencia-de-un-desastre-natural-.
10. Warnings To Humanity — Scientists Warning Europe - Inspiring science-based climate action. (s. f.). Scientists Warning Europe - Inspiring Science-based Climate Action. https://www.scientistswarningeurope.org.uk/warnings-to-humanity.
11. Spratt, D., & Dunlop, I. (2019). Existential climate-related security risk: A scenario approach (Issue May). Breakthrough - National Centre for Climate Restoration. https://docs.wixstatic.com/ugd/148cb0_a1406e0143ac4c469196d3003bc1e687.pdf.
12. Wilson, E. O. (2003). The future of life. Random House.
13. Dunlop, I., & Spratt, D. (2018). What Lies Beneath: The Understatement of Existential Climate Risk. Breakthrough - National Centre for Climate Restoration. http://climateextremes.org.au/wp-content/uploads/2018/08/What-Lies-Beneath-V3-LR-Blank5b15d.pdf.
Riesgos existenciales y análisis prospectivo
Ord, T. (2020). The precipice: Existential risk and the future of humanity. Hachette Books (Sinopsis automatizada).
Ideas centrales de "The Precipice":
Riesgos existenciales: El libro explora los peligros y riesgos que amenazan la existencia futura de la humanidad, como pandemias, guerra nuclear, inteligencia artificial descontrolada y cambio climático catastrófico.
El precipicio: Ord sostiene que la humanidad se encuentra en un "precipicio" metafórico, donde un solo evento catastrófico podría llevarnos a la extinción o al colapso permanente de nuestra civilización.
Importancia crucial: Ord argumenta que mitigar estos riesgos existenciales es el problema más importante al que se enfrenta la humanidad, ya que está en juego la supervivencia de nuestra especie y nuestro potencial futuro.
Toma de decisiones a largo plazo: El libro aboga por adoptar una perspectiva de largo plazo en la toma de decisiones, teniendo en cuenta las consecuencias para las generaciones futuras y la preservación de la vida inteligente.
Acciones recomendadas: Ord propone medidas prácticas y políticas públicas para reducir los riesgos existenciales, como invertir en preparación para pandemias, establecer sistemas de gobierno más resistentes y promover el desarrollo responsable de tecnologías emergentes.
Reseñas y valoraciones:
"Un libro imprescindible y aterrador... Ord ilumina con gran claridad los riesgos existenciales que enfrentamos y lo que podemos hacer al respecto." - Yuval Noah Harari, autor de "Sapiens" y "Homo Deus".
"Un trabajo fundamental... Ord aborda de manera contundente y meticulosa uno de los desafíos más importantes de nuestra época." - Nick Bostrom, Director del Instituto Futuro de la Humanidad de Oxford.
"Un llamado a la acción urgente y bien razonado... Ord demuestra claramente por qué los riesgos existenciales deberían ser una prioridad máxima para la humanidad." - Stuart Russell, profesor de Informática de la Universidad de Berkeley.
"Una contribución sobresaliente y profundamente investigada... Ord presenta un caso convincente y bien argumentado para tomar en serio los riesgos existenciales." - Reseña en The Economist.
Las reseñas indican que "The Precipice" es considerada una obra importante y influyente en el campo del análisis de riesgos existenciales y la preservación a largo plazo de la humanidad. El libro ha sido elogiado por su rigor intelectual, claridad expositiva y llamado a la acción para abordar desafíos críticos.
Zeihan, P. (2022). The End of the world is Just the beginning: Mapping the collapse of globalization. HarperBusiness (Sinopsis automatizada).
Sección 1: Decivilización y Sistemas Globales
Ideas Principales 1 La decivilización afecta a los sistemas globales y a la modernidad. 2 Los modelos económicos históricos luchan en un mundo post-crecimiento. 3 Necesidad de nuevos sistemas para gestionar el crecimiento reducido. 4 Cambios demográficos como poblaciones envejecidas y tasas de natalidad en declive. 5 Japón maneja la declinación demográfica a través de la deslocalización. 6 Dificultad de replicar el modelo japonés en otros países. 7 Los sistemas económicos tradicionales pueden no estar equipados para estos desafíos. 8 Posible inestabilidad y necesidad de modelos económicos innovadores. 9 La especialización laboral hiperespecializada es la norma. 10 El comercio complejo ha generado subsectores económicos enteros. 11 La especialización no se limita a individuos, sino también a países. 12 La idea de continuidad es fundamental para la confianza en los sistemas. 13 La seguridad que disfrutamos hoy podría no estar garantizada mañana. 14 La civilización busca alcanzar su pico óptimo y final. 15 La gestión de múltiples desafíos simultáneos es compleja. Evaluación del Rigor Científico
El documento presenta una serie de afirmaciones y análisis que parecen estar bien fundamentados en la teoría económica y la observación de tendencias demográficas y geopolíticas. Sin embargo, la evaluación de la calidad y el rigor científico de la posición del autor se ve limitada por la falta de referencias explícitas a estudios o datos empíricos que respalden sus afirmaciones. Además, la naturaleza especulativa de algunos de los temas tratados, como las proyecciones futuras, requiere cautela al considerar las conclusiones del autor. Sería beneficioso que el autor incluyera una bibliografía detallada y referencias actualizadas para fortalecer la credibilidad y el rigor de su trabajo.
Sección 2: Transiciones Demográficas y Energéticas
Número Idea Principal 1 Las transiciones demográficas y energéticas son cruciales para el desarrollo económico. 2 La mortalidad disminuye y la esperanza de vida aumenta en las primeras etapas de la transición demográfica. 3 El cambio de la energía hidráulica a la eólica favoreció diferentes tipos de tierras. 4 Los países con grandes fronteras internas y distribución fácil se beneficiaron. 5 Los ríos y las llanuras abiertas eran ideales para el desarrollo económico. 6 Las barreras externas como desiertos reducían la frecuencia e intensidad de invasiones. 7 Las fronteras demasiado abiertas aumentaban la vulnerabilidad a invasiones, como en el caso de los mongoles. 8 Un interior demasiado accidentado impedía la unificación cultural y el desarrollo. 9 La capacidad de llevar energía consigo revolucionó industrias como la minería y la agricultura. 10 Los avances en medicina no solo mejoraron la salud, sino que duplicaron la esperanza de vida. 11 El concreto permitió la construcción de carreteras y rascacielos. 12 El desarrollo de tintes llevó a la creación de fertilizantes que cuadruplicaron la producción agrícola. 13 El acero proporcionó un salto cuántico en capacidad para industrias que utilizaban metal. 14 La electricidad expandió las posibilidades más allá de la dependencia de condiciones naturales. 15 La reducción de la necesidad de fuerza muscular ayudó a disminuir la esclavitud institucionalizada. Sección 3: Comercio Transcontinental y Navegación Profunda
Número Idea Principal 1 La navegación profunda solucionó los problemas de comercio transcontinental. 2 Los barcos podían navegar fuera de la vista de tierra durante meses, reduciendo la exposición a amenazas. 3 Los grandes almacenes de los barcos limitaban la necesidad de parar para suministros. 4 Las poderosas armas de los barcos significaban que podían detenerse sin ser saqueados. 5 La eliminación de intermediarios redujo el costo de los bienes de lujo en más del 90%. 6 Las potencias inteligentes no solo se abastecían, sino que también tomaban puertos para refugio y suministro. 7 Los beneficios aumentaron con la toma de puertos y la directa supervisión de las rutas comerciales. 8 La energía eólica expandió las zonas donde la agricultura podía generar excedentes laborales. 9 La proliferación de nuevas culturas tuvo consecuencias rápidas y variadas. 10 La vida civilizada se volvió más común, pero también menos segura. 11 Las guerras involucraban a jugadores con mejores suministros de alimentos y capacidades de movimiento. 12 Los países que se desarrollaron bajo el patrocinio estadounidense están perdiendo su base demográfica y geopolítica. 13 No habrá nuevos sistemas de consumo masivo debido a la geopolítica y la demografía. 14 La economía global no solo se reducirá, sino que se fracturará en piezas no integradas. 15 La especialización laboral hiperespecializada es ahora la norma en el comercio complejo. Sección 4: Avances en Navegación y Consecuencias Globales
Número Idea Principal 1 La navegación profunda permitió viajes transoceánicos y transcontinentales de varios meses. 2 Los avances tecnológicos dieron ventajas significativas a las entidades políticas que los aprovecharon. 3 Las ciudades-estado del norte de Italia se convirtieron en potencias regionales independientes. 4 Antes de la navegación profunda, la distancia era un obstáculo tan grande que el comercio era raro. 5 Los ríos navegables eran la excepción y tendían a ser las culturas más ricas. 6 Los artículos comerciables se limitaban a bienes exóticos como especias, oro y porcelana. 7 La pandemia redujo el contacto entre personas, lo que llevó a una recesión económica. 8 La vacunación emergió como la única vía razonable para alcanzar la inmunidad colectiva. 9 La naturaleza de nuestra "normalidad" económica cambió drásticamente con la pandemia. 10 La necesidad de adaptar nuestra forma de alimentarnos y la geografía de la que obtenemos comida. 11 Se requieren climas con falta de estacionalidad para cultivos durante todo el año. 12 La necesidad de flujos de agua consistentes para cultivos confiables. 13 La importancia de barreras naturales para proteger los cultivos de vecinos invasores. 14 Se identifica una nueva "Geografía del Éxito" basada en ríos de baja latitud y altitud. 15 La revolución del agua transformó la capacidad de sostener cazadores/recolectores. Cap. 5 ideas básicas por apartados
Apartado Ideas Básicas Disassembling History - La importancia de los materiales industriales en la vida moderna.
- La estabilidad global asegura el acceso justo a los recursos.
- Sin orden global, los países luchan por materiales esenciales.LESSONS FROM THE PAST, LESSONS FOR THE FUTURE - Aprender de la historia para gestionar recursos futuros.
- La necesidad de adaptarse a cambios económicos y tecnológicos.
- Prepararse para la posibilidad de conflictos regionales.THE CAVEATS BEFORE THE PLUNGE - Considerar las advertencias antes de enfrentar desafíos.
- Reconocer la posibilidad de regresión tecnológica.
- La importancia de mantener el orden para el progreso.The Essential Materials - Materiales críticos para la tecnología actual.
- Dependencia de ciertos recursos para la estabilidad.
- Riesgos de escasez y su impacto en la sociedad.The Future Materials - Materiales que serán cruciales en el futuro.
- Innovación y descubrimiento de nuevos recursos.
- Adaptación tecnológica a la disponibilidad de materiales.The Always Materials - Recursos constantemente necesarios.
- Materiales que han sido fundamentales a lo largo de la historia.
- La continua demanda y su impacto en la economía global.The Funky Materials - Materiales únicos con aplicaciones especializadas.
- La importancia de la diversidad de recursos.
- Cómo los materiales inusuales pueden impulsar la innovación.The Reliable Materials - Recursos confiables y su rol en la tecnología.
- Materiales con suministro y demanda estables.
- La confianza en recursos probados para el desarrollo continuo.This Is How the World Ends - Escenarios potenciales de escasez de recursos.
- Cómo la falta de materiales esenciales podría afectar la civilización.
- Preparativos y estrategias para evitar el colapso tecnológico.
Apartado Ideas Básicas Disassembling History 1. La historia de la humanidad se define por el uso de materiales clave, como el hierro, cobre y silicio, que han marcado nuestras eras tecnológicas. 2. Las primeras sociedades luchaban por recursos naturales simples, pero con el tiempo, las necesidades se volvieron más complejas, impulsando la innovación y la expansión territorial. 3. La evolución tecnológica ha estado fuertemente ligada a la disponibilidad de materiales específicos, lo que ha influido en el desarrollo social y económico. 4. La transición de la dependencia de materiales tradicionales a materiales industriales y tecnológicos ha transformado nuestra capacidad para manipular el mundo físico. 5. La historia muestra un patrón de innovación impulsada por la necesidad de acceder y utilizar nuevos materiales, lo que sugiere una continua evolución hacia materiales más avanzados. LESSONS FROM THE PAST, LESSONS FOR THE FUTURE 1. Los materiales han jugado un papel crucial en el avance tecnológico y económico de las sociedades. 2. La historia enseña la importancia de adaptarse a nuevas fuentes de materiales para mantener la innovación. 3. La dependencia de materiales específicos puede conducir a vulnerabilidades geopolíticas y económicas. 4. La diversificación en el uso y la producción de materiales es clave para la sostenibilidad futura. 5. La anticipación y adaptación a los cambios en la disponibilidad de materiales serán cruciales para el progreso futuro. THE CAVEATS BEFORE THE PLUNGE 1. La transición hacia materiales avanzados presenta desafíos, incluyendo problemas de sostenibilidad y accesibilidad. 2. Los impactos ambientales y las limitaciones de recursos requieren una planificación cuidadosa. 3. La geopolítica juega un papel crucial en la disponibilidad de materiales esenciales. 4. La necesidad de innovación en la ciencia de materiales para superar limitaciones. 5. La importancia de desarrollar una comprensión profunda de las implicaciones de nuestra dependencia material. The Essential Materials 1. El hierro, cobre y silicio son fundamentales para la construcción, tecnología y energía. 2. La innovación en la producción y refinamiento de estos materiales es clave para la eficiencia y sostenibilidad. 3. La adaptación a fuentes alternativas y materiales reciclados puede mitigar problemas de escasez. 4. La investigación en nuevos compuestos y aleaciones puede proporcionar propiedades mejoradas. 5. El desarrollo de tecnologías de procesamiento más limpias y eficientes es crucial para minimizar el impacto ambiental. The Future Materials 1. La transición hacia la energía verde y la electrificación aumentará la demanda de cobalto, litio y materiales raros. 2. La necesidad de explorar y desarrollar fuentes sostenibles para estos materiales. 3. La innovación en baterías y almacenamiento de energía es crítica para la transición energética. 4. La importancia de la eficiencia en el reciclaje y la reutilización de materiales tecnológicos. 5. La exploración de alternativas menos perjudiciales y más abundantes a los materiales críticos actuales. The Always Materials 1. Materiales como el oro y el plomo siguen siendo relevantes para aplicaciones específicas debido a sus propiedades únicas. 2. La reutilización y el reciclaje de estos materiales pueden ayudar a satisfacer la demanda de manera sostenible. 3. La investigación en sustitutos viables para materiales tóxicos como el plomo es importante. 4. La necesidad de mantener la producción y el suministro de estos materiales dentro de un marco ético y sostenible. 5. La exploración de nuevas aplicaciones y tecnologías que utilicen estos materiales de manera innovadora. The Funky Materials 1. Materiales de nicho como el molibdeno y el platino son críticos para aplicaciones especializadas y de alta tecnología. 2. La diversificación de fuentes y la mejora en las técnicas de procesamiento son clave para asegurar el suministro de estos materiales. 3. La innovación en la ciencia de materiales puede abrir nuevas aplicaciones para estos elementos. 4. La sostenibilidad y el impacto ambiental deben ser considerados en la extracción y procesamiento de estos materiales únicos. 5. La colaboración internacional puede ser necesaria para asegurar el acceso equitativo a estos materiales críticos para tecnologías avanzadas. The Reliable Materials 1. Materiales como el níquel y el zinc son esenciales para la producción de acero y otras aleaciones. 2. La innovación en métodos de extracción y procesamiento puede mejorar la eficiencia y reducir el impacto ambiental. 3. El reciclaje juega un papel crucial en el suministro sostenible de estos materiales. 4. La investigación en alternativas y sustitutos puede ayudar a mitigar la dependencia de fuentes únicas. 5. La gestión de la demanda y el desarrollo de tecnologías más eficientes son importantes para el uso futuro de estos materiales. This Is How the World Ends 1. La transición fuera del Orden global cambiará radicalmente el acceso y la competencia por materiales esenciales. 2. La autosuficiencia y las alianzas regionales pueden volverse más importantes para asegurar el acceso a materiales críticos. 3. La innovación en ciencia de materiales y tecnología será crucial para adaptarse a nuevos desafíos de suministro. 4. Los conflictos y las tensiones geopolíticas pueden intensificarse sobre la base del acceso a materiales esenciales. 5. La colaboración internacional y las políticas enfocadas en la sostenibilidad y la equidad pueden ser clave para evitar los peores escenarios de competencia por recursos.
Seguridad alimentaria y desnutrición en el mundo
FAO, IFAD, UNICEF, WFP and WHO (2021). The State of Food Security and Nutrition in the World 2021. Transforming food systems for food security, improved nutrition and affordable healthy diets for all. Rome. https://doi.org/10.4060/cb4474en.
- Informe digital completo |
- Historia interactiva
- Informe completo | Español - pdf
- Best practices in addressing the major drivers of food security and nutrition to transform food systems. (2022). En FAO eBooks. https://doi.org/10.4060/cc2622en.
Aspectos relevantes:
- Análisis de tendencias antes y después del impacto de la pandemia
- Factores que agravan el hambre y la malnutrición (conflictos, cambio climático, crisis económica y pobreza)
- Imposibilidad de dieta saludable para millones de personas (distribución regional de la inseguridad alimentaria)
- Lagunas de conocimiento sobre los efectos combinados de ciertos factores en los sistemas alimentarios
- Necesidad de nuevos enfoques para abordar el hambre, la malnutrición y la inseguridad alimentaria
- Lecciones durante la pandemia.
Fenómenos como el cambio climático, la pérdida de biodiversidad, la propagación de enfermedades emergentes y las consecuencias de conflictos geopolíticos impactan de manera desigual por regiones y países; pero trascienden fronteras y requieren soluciones globales coordinadas.
Su impacto se agrava por las dependencias y sinergias obligadas entre zonas de actividad económica, nodos de producción industrial y núcleos de innovación tecnológica distribuidos por los cinco continentes, muchos de los cuales se ubican en zonas vulnerables a fenómenos climáticos extremos y otros riesgos de diversa naturaleza. Cualquier perturbación de las condiciones necesarias para el normal desarrollo de su actividad se traduce en disrupciones importantes en las cadenas globales de suministro, pérdida de empleo y empobrecimiento de segmentos de la población dependientes de las actividades afectadas.1, 2, 3
El papel del conocimiento experto y su integración en el debate público es crucial para abordar estos desafíos de manera efectiva, con las herramientas adecuadas y con criterios de gobernanza basados en datos fiables y evidencia. Sin investigación científica de calidad ni conocimiento experto adecuado a la complejidad de los problemas, resultan ilusorios los esquemas de prevención de escenarios de riesgo e ineficaces las estrategias para mitigar su impacto.4
En un mundo cada vez más interconectado y complejo, los desafíos globales han adquirido una importancia tal que para su análisis —en filosofía, ciencia política, seguridad internacional, y bioética, entre otras disciplinas— se emplea con frecuencia la categoría de riesgo existencial, aplicada en modelos diseñados para estudiar componentes de impacto —umbrales críticos, circunstancias, factores, puntos de inflexión— con potencial para aniquilar o limitar gravemente la capacidad de desarrollo humano en el futuro o precipitar el colapso irreparable de la civilización.5, 6, 7, 8, 9
Por conocimiento experto se entiende el cuerpo de conocimientos especializados, habilidades y experiencia acumulada por individuos o instituciones en un campo específico. Sea en ciencias naturales, sociales, ingeniería, medicina o en cualquier otra disciplina, los expertos desempeñan un papel fundamental en la generación, análisis y comunicación de conocimientos relevantes para comprender y abordar los problemas complejos a los que las sociedades se enfrentan, y para anticipar o mitigar las peores consecuencias de tendencias o procesos en desarrollo. Ciertas instituciones, además, tienen un papel específico como instancias metaexpertas, en la medida que desarrollan, integran o coordinan conocimiento científico a escala internacional (es decir, establecen la posición de consenso acerca de un problema) para traducirlo en informes técnicos, evaluaciones, directrices o recomendaciones para la acción política. Algunos ejemplos:
Panel Intergubernamental sobre Cambio Climático (IPCC): Proporciona evaluaciones científicas sobre el cambio climático, sus implicaciones y riesgos potenciales, junto con recomendaciones acerca de posibles estrategias de adaptación y mitigación.
Organización Mundial de la Salud (OMS): Actúa como autoridad directiva y coordinadora en asuntos de salud internacional, estableciendo normas y proporcionando liderazgo en cuestiones críticas de salud global.
Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO): Ofrece liderazgo y conocimiento experto en la mejora de la nutrición y la seguridad alimentaria a escala mundial.
Plataforma Intergubernamental sobre Biodiversidad y Servicios de los Ecosistemas (IPBES): Similar al IPCC pero enfocada en la biodiversidad y los servicios de los ecosistemas, proporcionando evaluaciones científicas para informar políticas a nivel mundial.
Consejo Científico Internacional (ISC): Una organización no gubernamental con sede en París que promueve la cooperación internacional en la ciencia, su desarrollo libre y responsable, y ofrece asesoramiento científico a nivel global sobre temas relevantes para la sociedad. Hasta 1988 era conocido como Consejo Internacional de Uniones Científicas (ICSU), el cual en 2018 se fusionó con el Consejo Internacional de Ciencias Sociales (ISSC). Integra unas 250 organizaciones, incluyendo uniones y asociaciones científicas internacionales, estatales o regionales.
El IPCC ha publicado una quincena de informes especiales sobre el cambio climático; pero ninguno se ocupó de analizar el riesgo de cambio climático extremo o catastrófico. En el séptimo ciclo de evaluación se propuso un informe especial sobre los “puntos de inflexión”, ampliable a los aspectos clave del cambio climático catastrófico (y coherente con el propio marco de decisión del IPCC). En juego estaba la comprensión de los tipos de retroalimentación del sistema terrestre que podrían alterar las trayectorias de temperatura y la constatación de si éstas resultarían irreversibles. No hay duda de que un informe especial sobre "el cambio climático catastrófico" podría incentivar o impulsar nueva investigación, como se hizo antes de sugerir un umbral seguridad de 1,5 °C para el calentamiento global, decisivo para sensibilizar a la opinión pública sobre la gravedad de los impactos incluso con las proyecciones más favorables (es decir, en los rangos de temperatura más bajos).
El hecho de que una instancia metaexperta respalde un informe específico sobre "cambio climático catastrófico" podría dar una dimensión diferente al problema, ya que orientaría sobre una escala de daños e impacto humano incompatible con la continuidad de poblaciones y modos de vida en muchas regiones del planeta. No obstante, en The Synthesis Report for the Sixth Assessment Report (el más dramático de los informes del IPCC por las tendencias e impactos constatados), la expresión "existential risk" solo aparece en la leyenda de una tabla (p. 81) sobre las proyecciones de aumento del nivel del mar y el incremento de riesgo para puertos y zonas costeras.5, 10
Es obvio que la relación entre instancias de conocimiento experto y los actores con liderazgo en el debate público no ha sido siempre fluida. En la última década, muchos líderes y grupos políticos logran acceder al control de instituciones clave en el Estado y en los subsistemas sociales, tras haberlas desacreditado previamente y sembrado la desconfianza sobre sus gestores y personal experto. Una vez en ellas, continúan las estrategias de desinformación y ofuscación de los hechos para instrumentalizarlas al servicio de sus intereses, inmunizándolas frente a toda crítica de rivales políticos a los que se presenta como enemigos del país o de los verdaderos patriotas.11, 12
Esta dinámica ha socavado la capacidad de las sociedades para abordar eficazmente los desafíos globales, ya que las soluciones basadas en evidencia se ven eclipsadas por narrativas sesgadas y creencias infundadas que suponen retrasos, ineficacia en las acciones y derroche de recursos, cuando no daños irreversibles o catastróficos. No se puede contrarrestar esta tendencia sin fortalecer los canales de comunicación y diálogo entre colectivos de expertos y público en general. Fuera de sus canales de comunicación formal especializada, las comunidades de práctica profesional ligadas a la investigación científica deben esforzarse por comunicar sus hallazgos y recomendaciones de manera accesible y comprensible, utilizando herramientas y plataformas que faciliten la difusión del conocimiento. Al mismo tiempo, es crucial fomentar la alfabetización científica y el pensamiento crítico en la población, para que el ciudadano pueda discernir entre fuentes fiables y desinformación, y participar de manera informada en los debates sobre cuestiones complejas que le conciernen.13, 14
Otro aspecto importante es la necesidad de integrar diferentes tipos de conocimiento experto en un enfoque interdisciplinar y holístico de los problemas. El cambio climático, la dependencia energética o la inseguridad alimentaria son fenómenos multidimensionales que requieren la colaboración de expertos de diversas disciplinas, desde las ciencias naturales hasta las ciencias sociales y las humanidades. La fragmentación del conocimiento y la separación de culturas académicas (científica y humanística, p. ej.) no contribuye a enriquecer la comprensión de problemas acuciantes ni facilita el desarrollo de soluciones ágiles y efectivas.5, 14
Como propusieron Wilson y Snow, es crucial fomentar una cultura de respeto mutuo y diálogo abierto entre los expertos de cualquier rama del conocimiento y el público en general, que facilite a investigadores de todas las disciplinas concernidas presentar, en igualdad de condiciones, sus aportaciones a los grandes problemas y desafíos colectivos. Se trata de un diálogo en las dos direcciones, donde se hacen valer recomendaciones basadas en conocimiento bien establecido y se plantean consideraciones éticas, sociales y culturales que constituyen motivos de desconfianza o quedan al margen de los intereses de la comunidad científica.15, 16, 17
El conocimiento experto no está exento de limitaciones y sesgos, por lo que la integridad profesional y la disposición continua a revisar teorías o modelos y corregir posibles sesgos o conflictos de interés (filtro escéptico) son virtudes epistémicas que contribuyen a incrementar la confianza del público en las instituciones científicas.18, 19
Es indudable que el conocimiento experto desempeña un papel fundamental en el abordaje de los desafíos globales que condicionan el futuro de la humanidad. Para que resulte efectivo es necesario fortalecer los canales de comunicación y diálogo entre colectivos de expertos y público general, optimizando las fortalezas del sistema educativo y de los medios profesionales para promover la alfabetización científica y el pensamiento crítico, la colaboración interdisciplinar y una cultura de respeto mutuo y diálogo abierto.
1. Kumar, Y. V., Srija, K., Snehitha, L., & Sunkara, L. K. (2023). The Impact of Climate Change on International Business Strategies. International Journal for Research in Applied Science and Engineering Technology, 11(7), 461–465. https://doi.org/10.22214/ijraset.2023.54687.
2. Pankratz, N. M. C., & Schiller, C. M. (2022). Climate Change and Adaptation in Global Supply-Chain Networks. Finance and Economics Discussion Series, 2022(056). https://doi.org/10.17016/FEDS.2022.056.
3. Mitra, A., & Chaurasia, R. (2022). Supply chain management, disaster and climate change. In R. Shaw (Ed.), An integrated governance approach towards a water-energy-food nexus and climate change (pp. 369–380). Edward Elgar Publishing. https://doi.org/10.4337/9781800371613.00038.
4. Chawla, M., & Kim-Gina, J. (2023). Climate Risk and the Cost of Information Opacity in Supply Chains. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4443923.
5. Kemp, L. et al. (2022). Climate Endgame: Exploring catastrophic climate change scenarios. Proceedings of the National Academy of Sciences, 119(34). https://doi.org/10.1073/pnas.2108146119.
6. Steffen, W. et al. (2018). Trajectories of the Earth System in the Anthropocene. Proceedings of the National Academy of Sciences, 115(33), 8252–8259. https://doi.org/10.1073/pnas.1810141115.
7. Spratt, D., & Dunlop, I. (2019). Existential climate-related security risk: A scenario approach (Issue May). Breakthrough - National Centre for Climate Restoration.
8. Bostrom, N. (2002). 'Existential risks: analyzing human extinction scenarios and related hazards', Journal of Evolution and Technology, 9. http://jetpress.org/volume9/risks.html.
9. Ord, Toby (2020). The precipice the precipice: Existential risk and the future of humanity. Hachette Books.
10. Calvin, K. et al. (2023). IPCC, 2023: Climate Change 2023: Synthesis Report. Contribution of Working Groups I, II and III to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change [Core Writing Team, H. Lee and J. Romero (eds.)]. IPCC, Geneva, Switzerland. https://doi.org/10.59327/IPCC/AR6-9789291691647.
11. Rauch, Jonathan (2021). The Constitution of Knowledge: A Defense of Truth. Brookings Institution Press.
12. McIntyre, Lee (2018). Post-Truth. Londres, Inglaterra: MIT Press.
13. Olson, R. (2009). Don't Be Such a Scientist: Talking Substance in an Age of Style. Island Press.
14. Bammer, G. (2013). Disciplining interdisciplinarity: Integration and implementation sciences for researching complex real-world problems. ANU Press.
15. Wilson, E. O. (1998a). Consilience: The unity of knowledge. Vintage Books. Cap. 5, 9, 12.
16. Snow, C. P. (1969). The two cultures and a second look: An expanded version of the two cultures and the scientific revolution. Cambridge University Press.
17. Jasanoff, S. (2007). Technologies of humility. Nature, 450(7166), 33–33. https://doi.org/10.1038/450033a.
18. Sosa, E. (2007). A virtue epistemology: Apt belief and reflective knowledge, volume I. Clarendon Press.
19. Sunstein, C. R. (2018). #Republic: Divided Democracy in the Age of Social Media. Princeton University Press.
1. Vídeo
Martin Rees (25/08/2014), Can we prevent the end of the world? https://www.youtube.com/embed/tMSU6k5-WXg
2. Extracto
Ideas centrales (traducidas de la transcripción en inglés) El autor escribió un libro titulado "Our Final Century?" hace diez años. El título del libro fue cambiado a "Our Final Hour" por la editorial americana. La Tierra ha existido durante 45 millones de siglos, pero este siglo es especial debido al impacto de la humanidad. Las principales amenazas a la Tierra ya no provienen de la naturaleza, sino de la humanidad. En nuestro mundo interconectado, los colapsos de redes pueden tener efectos globales. Las enfermedades pandémicas pueden propagarse por todo el mundo en cuestión de días debido a los viajes aéreos. Las redes sociales pueden propagar el pánico y los rumores a la velocidad de la luz. Nos preocupamos demasiado por peligros menores, pero ignoramos escenarios catastróficos. Aunque los peores escenarios probablemente no ocurran, es importante tomar medidas para protegerse contra ellos. El progreso científico ofrece un mayor poder y promesas, pero también aumenta las amenazas potenciales. La humanidad se vuelve más vulnerable a medida que avanza la tecnología. En unas pocas décadas, millones de personas podrán malutilizar la biotecnología en rápido avance. Los niños podrían diseñar y crear nuevos organismos de la misma manera que ahora juegan con equipos de química. Algunos ecologistas extremistas pueden considerar que es mejor para el planeta si hay menos humanos. Los avances en biotecnología sintética podrían ser utilizados por personas con intenciones dañinas. Otras pesadillas de ciencia ficción, como robots tontos que se salen de control o redes con mente propia, podrían convertirse en realidad. Es difícil regular estos riesgos debido a la naturaleza competitiva, globalizada y comercial de las empresas. El autor predice un viaje accidentado a través de este siglo, con un 50% de probabilidad de un grave contratiempo. Hay eventos concebibles que podrían destruir toda la vida en la Tierra. Los científicos deben ser precavidos con experimentos que generen condiciones sin precedentes en el mundo natural. Los biólogos deben evitar la liberación de patógenos genéticamente modificados potencialmente devastadores. El autor cree que la extinción humana sería incomparablemente peor que un escenario en el que el 90% de la humanidad desaparece. El centro de la Universidad de Cambridge estudiará cómo mitigar estos riesgos existenciales. Somos los guardianes de un precioso planeta azul en un vasto cosmos, y debemos proteger su futuro. La cita de Peter Medawar: "Las campanas que tañen para la humanidad son como las campanas del ganado alpino. Están atadas a nuestros propios cuellos, y es nuestra culpa si no hacen un sonido agradable y melodioso."
La investigación científica y el desarrollo tecnológico han otorgado a la especie humana un potencial sin precedentes para adaptarse y transformar una amplia diversidad de entornos y ecosistemas. Esta capacidad de impacto a escala planetaria es única en la historia de la vida en la Tierra, y se ha convertido en una fuerza transformadora del planeta a escala geológica, con un potencial de impacto superior al de algunos procesos naturales. A modo de ejemplo, la fabricación de compuestos químicos peligrosos como los clorofluorocarbonos, responsables del "agujero en la capa de ozono", carece de antecedentes naturales. 1
Una extensa red de sensores terrestres y satelitales ha sido clave para disponer de evidencia científica sobre cómo las actividades humanas —deforestación, urbanización, producción industrial, agricultura intensiva y quema de combustibles fósiles, entre otras—, generan cambios profundos en los sistemas terrestres, atmosféricos y oceánicos. La magnitud de los impactos es tal que algunos científicos han sugerido emplear una designación específica para esta época geológica —el Antropoceno—, adecuada para evocar el alcance e impacto de la influencia humana en el planeta en el periodo iniciado con las aplicaciones industriales de la máquina de vapor —las versiones perfeccionadas por James Watt a partir de 1781, en particular—.2
La propuesta de utilizar el término Antropoceno como unidad formal en la escala de tiempo geológico para reemplazar al Holoceno —época actual del período Cuaternario en la historia terrestre— ha sido rechazada por la Unión Internacional de Ciencias Geológicas (IUGS, siglas en inglés). Pero es innegable que las actividades humanas han dejado residuos en los sedimentos de todo el mundo, de manera especialmente intensa en la segunda mitad del siglo XX (con los primeros ensayos y pruebas termonucleares, a partir de 1945-1952). En este periodo se produce la "Gran Aceleración" en los impactos ambientales de la población humana por cambios en sus patrones de consumo, la industrialización y la globalización, con respecto a la dinámica iniciada miles de años antes con la tala de bosques para expandir las tierras de cultivo.3
No obstante, el término Antropoceno se ha consolidado en la literatura de divugación científica y en los medios de comunicación para designar el período de la historia de la Tierra durante el cual los humanos tienen una influencia decisiva en el estado, la dinámica y el futuro del sistema Tierra, con una interpretación diacrónica que excede el contexto cronoestratigráfico y se remonta a varios milenios atrás.4
Entre otros impactos, los expertos del Anthropocene Working Group (AWG) constatan "un aumento de orden de magnitud en la erosión y el transporte de sedimentos asociados con la urbanización y la agricultura; marcadas y abruptas perturbaciones antropogénicas de los ciclos de elementos como el carbono, el nitrógeno, el fósforo y diversos metales junto con nuevos compuestos químicos; cambios ambientales generados por estas perturbaciones, incluido el calentamiento global, el aumento del nivel del mar, la acidificación de los océanos y la expansión de las "zonas muertas" oceánicas; cambios rápidos en la biosfera, tanto terrestre como marina, como resultado de la pérdida de hábitat, la depredación, la explosión de poblaciones de animales domésticos y las invasiones de especies; y la proliferación y dispersión global de muchos nuevos 'minerales' y 'rocas', incluidos el hormigón, las cenizas volantes y los plásticos, y la miríada de 'tecnofósiles' producidos a partir de estos y otros materiales." 4
Su alcance es tal que constituye el trasfondo ineludible de los grandes debates contemporáneos, en los que la dimensión social del conocimiento adquiere una importancia crucial. Aunque el Antropoceno sirve de cajón de sastre para combinar desafíos muy heterogéneos —automatización y desarrollo de la robótica, la inteligencia artificial (IA), la edición genética mediante sistemas CRISPR y otras aplicaciones de la biotecnología, p. ej.—, lo cierto es que está siendo la confrontación geopolítica y la lucha por recursos escasos como la energía, algunos minerales escasos y el agua potable el contexto de discusión donde analizar en profundidad los factores sociales que ayudan o dificultan el abordaje de problemas complejos, en los cuales la generación, distribución y aplicación del conocimiento resultan cruciales.
Impacto social de la robótica y la IA: En este ámbito se han producido avances y desarrollos tecnológicos que están transformando radicalmente el mundo del trabajo, la toma de decisiones y las interacciones humanas. Sin embargo, su implementación y regulación o gobernanza no pueden basarse únicamente en consideraciones técnicas o económicas, dado el alcance de sus implicaciones éticas, legales y sociales. Erik Brynjolfsson y Andrew McAfee sostienen que la segunda era de las máquinas se caracteriza por desarrollos y aplicaciones que permiten automatizar muchas tareas cognitivas para las que tradicionalmente se requería formación profesional cualificada, lo que convierte a los humanos y a las máquinas controladas por software en sustitutos (es decir, dejan de ser complementos necesarios) y se altera la relación entre trabajadores humanos y máquinas que caracterizó la primera era de las máquinas o Revolución Industrial.5 En el control de los procesos de toma de decisiones asistidas por IA que afectan a amplios colectivos de trabajadores y ciudadanos emergen problemas complejos relacionados con la transparencia, la rendición de cuentas, la privacidad y la equidad, cuyo tratamiento requiere un enfoque interdisciplinar y la colaboración de expertos en ingeniería, ciencias sociales, humanidades y ética, para anticipar escenarios de riesgo y posibles sesgos que no son mero resultado del diseño o conocimiento técnico. La competencia entre grandes empresas del sector tecnológico por comercializar y promocionar versiones cada vez más potentes de sus modelos LLM/GPT sirve de contexto para ilustrar el nivel de complejidad involucrado en la regulación de todas las prácticas sociales que pueden aprovechar los beneficios de la IA y la robótica para promover un uso responsable y centrado en el bienestar humano, no circunscrito exclusivamente a la mejora del margen de beneficios.6, 7, 8
Biotecnologías y edición genética: Atender a la dimensión social del conocimiento es fundamental para comprender las implicaciones de algunos avances que abren posibilidades sin precedentes en medicina, agricultura y conservación de la biodiversidad, pero que cuestionan también creencias e intuiciones éticas muy arraigadas sobre la naturaleza humana, la justicia distributiva y los límites de la intervención tecnológica en la vida.10 La edición genética de células somáticas abre la puerta a nuevos tratamientos de difícil acceso fuera de sistemas de cobertura sanitaria mutualizados. En línea germinal, la edición genética suscita preocupaciones sobre la seguridad, especificidad y validez de las técnicas empleadas, sin descartar efectos a largo plazo en la evolución de la especie humana. Algunos obstáculos iniciales han podido ser superados con mejoras y opciones técnicas que aportan mayor precisión. Pero continúa siendo un desafío la obtención de modelos más realistas con los que ampliar conocimientos básicos de biología, antes de iniciar los ensayos con humanos. Probablemente sea en relación con las técnicas de edición genética donde más se valora la importancia de una percepción pública favorable, ligada a la confianza en los cauces de diálogo entre investigadores, responsables políticos, expertos en bioética y público en general. La dimensión social del conocimiento implica reconocer que las decisiones sobre el desarrollo y uso de las biotecnologías no pueden ser monopolio de los expertos, sino que deben ser objeto de deliberación democrática informada por una pluralidad de perspectivas y valores.10, 11, 12, 13
Energía, recursos y geopolítica: La dimensión social del conocimiento es fundamental para comprender y abordar los desafíos geopolíticos y la competencia por recursos escasos en el Antropoceno. La lucha por el control de fuentes de energía, minerales estratégicos y agua dulce está intensificando las tensiones entre países y regiones.20, 24 Estos conflictos no solo tienen una dimensión económica y militar, sino que también están profundamente influenciados por factores sociales, culturales e ideológicos. La construcción social de conceptos como seguridad nacional, interés nacional y soberanía sobre los recursos naturales moldea las percepciones y acciones de los actores involucrados. Además, la competencia por los recursos está íntimamente ligada a cuestiones de justicia global, desigualdad y desarrollo sostenible. Para abordar estos desafíos, es necesario un enfoque que reconozca la naturaleza socialmente construida y contestada del conocimiento sobre los recursos y sus usos. Esto implica fomentar el diálogo intercultural, la cooperación internacional y la inclusión de diversas formas de conocimiento, incluyendo el conocimiento indígena y local, en la gobernanza de los recursos naturales.21, 22, 23
Crisis climática y degradación ambiental: La escala de impactos asociados con la actividad humana ha sido ampliamente subestimada, en parte por una fase inicial acumulativa —con indicadores de evolución lineal, dentro de márgenes aceptables— y quizá también por falta de perspectiva temporal para entender la ocurrencia de fenómenos climáticos extremos, sujetos a una aceleración, frecuencia e intensidad sin precedentes.14 El cambio climático se asocia con una pérdida rápida y generalizada de biodiversidad, de tal alcance que está provocando transformaciones profundas en los sistemas económicos, políticos y culturales. En muchas regiones del planeta Tierra, los impactos hacen inviables los modos de vida para poblaciones que durante cientos de años lograron adaptarse a las condiciones de su entorno natural. Pero en las últimas décadas se han producido transformaciones derivadas de dinámicas sociales y prácticas insostenibles, sin margen suficiente para que la evolución cultural incorpore la evidencia y el conocimiento experto en los marcos reguladores que se necesitan para vencer los movimientos de resistencias a las políticas ambientalmente responsables. Es necesario integrar las dimensiones humana, económica y ecológica, de modo que las instituciones incentiven nuevas oportunidades para acciones colectivas sostenibles, vinculadas en lo posible a formas de conocimiento tradicional bien adaptadas a las peculiaridades del contexto local.15
Globalización y cuarta revolución industrial: Son relativamente pocas las empresas y corporaciones que dominan los nichos tecnológicos más competitivos a escala internacional. La concentración de talento y capacidad tecnológica para generar conocimiento e innovación en manos de pocos actores no solo agrava las desigualdades existentes; crea también nuevas formas de vulnerabilidad y dependencia, con impactos que bajo muchos criterios equivalen a nuevas formas de colonialismo. No se pueden contrarrestar tales tendencias sin trabajar activamente para democratizar el acceso al conocimiento y la cultura, facilitando la inclusión en todos los niveles del sistema educativo y proporcionando las capacidades y aprendizajes necesarios para una participación activa en la producción y gestión del conocimiento y sus aplicaciones.16, 17 En este contexto de problemas resulta evidente la dimensión social del conocimiento. La globalización y la cuarta revolución industrial están transformando las sociedades, sus mercados de trabajo y hábitos de consumo. Al mismo tiempo, resulta más evidente la brecha entre quienes tienen acceso a las nuevas tecnologías y quienes quedan rezagados, en un horizonte inquietante de desarrollos que pueden reemplazar a millones de trabajadores cualificados en nichos tradicionales de empleo masivo.18
Promover y valorar la diversidad de saberes teóricos y prácticos, fomentando la colaboración y el intercambio horizontal, constituye un factor de capacitación clave para evitar asimetrías en el acceso a los beneficios del conocimiento.19 La complejidad de los problemas emergentes refuerza la conveniencia de adoptar enfoques multidisciplinares que, además de la evidencia y el componente científico-técnico, incorporen en el análisis los factores sociales, culturales y políticos que influyen en la generación, difusión y aplicación del conocimiento; en la asignación de fondos y objetivos prioritarios; y en el apoyo a las instituciones que dan continuidad a la investigación como empresa colectiva. Sobre estas últimas recae la responsabilidad de formar a los actores imprescindibles, de quienes cabe esperar respuestas efectivas y equitativas a problemas sociales apremiantes, con el bien común y la sostenibilidad planetaria como objetivos irrenunciables.
1. Crutzen, P. J. (2006). The “Anthropocene”. In: Ehlers, E., Krafft, T. (eds) Earth System Science in the Anthropocene. Springer, Berlin, Heidelberg. https://doi.org/10.1007/3-540-26590-2_3.
2. Jonsson, F. A. (2012). The Industrial Revolution in the Anthropocene. The Journal Of Modern History/The Journal Of Modern History, 84(3), 679-696. https://doi.org/10.1086/666049.
3. Amos, J. (2024, 22 marzo). Antropoceno: científicos vuelven a rechazar que se declare como nueva era geológica. BBC News Mundo. https://www.bbc.com/mundo/articles/cnl7kpvwg9ro.
4. Working Group on the ‘Anthropocene’ | Subcommission on Quaternary Stratigraphy (26 de marzo de 2024). http://quaternary.stratigraphy.org/working-groups/anthropocene/.
5. Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. W.W. Norton & Company.
6. Müller, V.C., Bostrom, N. (2016). Future Progress in Artificial Intelligence: A Survey of Expert Opinion. In: Müller, V.C. (eds) Fundamental Issues of Artificial Intelligence. Synthese Library, vol 376. Springer, Cham. https://doi.org/10.1007/978-3-319-26485-1_33.
7. Varanasi, L. (2024, 20 mayo). Los cofundadores de OpenAI reaccionan a la dimisión de sus jefes de seguridad. Business Insider España. https://www.businessinsider.es/cofundadores-openai-reaccionan-dimision-jefes-seguridad-1387169.
8. Estapé, J. A. P. (2024, 18 mayo). Un ingeniero jefe de OpenAI dimite, porque 'la seguridad ha pasado al asiento de atrás' Computer Hoy. https://computerhoy.com/tecnologia/jan-leike-openai-dimite-problemas-seguridad-1387033.
9. Jasanoff, S., & Hurlbut, J. B. (2018). A global observatory for gene editing. Nature, 555(7697), 435–437. https://doi.org/10.1038/d41586-018-03270-w.
10. Lander, E. S. et al. (2019). Adopt a moratorium on heritable genome editing. Nature, 567(7747), 165–168. https://doi.org/10.1038/d41586-019-00726-5.
11. Savulescu, J., & Kahane, G. (2016). Understanding procreative beneficence (L. Francis, Ed.). Oxford University Press.
12. Persson, I., & Savulescu, J. (2014). Unfit for the future: The need for moral enhancement. Oxford University Press.
13. Svingen, M., & Jahren, L. (2024). Making space for CRISPR: scientists’ translation work to make gene editing a legitimate technology. Science & Public Policy, 51(1), 15–27. https://doi.org/10.1093/scipol/scad050.
14. IPCC. (2022). Climate change 2022: Impacts, adaptation, and vulnerability. Contribution of Working Group II to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press. https://www.ipcc.ch/report/ar6/wg2/.
15. Brondízio, E. S. et al. (2021). Locally based, regionally manifested, and globally relevant: Indigenous and local knowledge, values, and practices for nature. Annual Review of Environment and Resources, 46(1), 481–509. https://doi.org/10.1146/annurev-environ-012220-012127.
16. Ibrahim, H., Debicki, M., Rahwan, T., & Zaki, Y. (2024). Big tech dominance despite global mistrust. IEEE Transactions On Computational Social Systems, 1-12. https://doi.org/10.1109/tcss.2023.3339183.
17. Rikap, C. (2022b, diciembre 23). Capitalism in the Age of Intellectual Monopoly. State Of Big Tech. https://projects.itforchange.net/state-of-big-tech/state-of-big-tech-capitalism-in-the-age-of-intellectual-monopoly/.
18. AI for social innovation. (2024, 15 abril). World Economic Forum. https://www3.weforum.org/docs/WEF_AI_for_Impact_2024.pdf.
19. Shaping the Future of Learning: The Role of AI in Education 4.0. (2024, 3 mayo). World Economic Forum. https://www.weforum.org/publications/shaping-the-future-of-learning-the-role-of-ai-in-education-4-0/.
20. Klare, M. T. (2012). The Race for What’s Left: The global scramble for the world’s last resources. Metropolitan Books.
21. Dalby, S. (2020). Anthropocene geopolitics: Globalization, security, sustainability. University of Ottawa Press.
22. Alier, J. M. (2002). The environmentalism of the poor: A study of ecological conflicts and valuation. Edward Elgar Publishing.
23. Newell, P. (2019). Global Green Politics. Cambridge University Press. Ch. 3-6.
24. Bridge, G., & Le Billon, P. (2017). Oil. Polity.
Impacto cultural y transformaciones sociales ligadas al uso de IA generativa avanzada
Contexto y marco conceptual
La irrupción de sistemas de IA generativa avanzada como GPT-4, Claude 3 y Gemini marca un punto de inflexión en la relación entre tecnología y sociedad. El estudio de caso examina las transformaciones socioculturales y geopolíticas que estos sistemas producen en el marco de la Cuarta Revolución Industrial.
Preguntas iniciales
- ¿Cómo reconfiguran los sistemas de IA generativa nuestra comprensión de la agencia, la creatividad y la autoría?
- ¿Qué transformaciones epistemológicas y axiológicas implica la mediación algorítmica del conocimiento?
- ¿Qué nuevas formas de desigualdad y poder emergen en la era de la IA generativa?
Análisis de aspectos básicos
- Transformación del trabajo intelectual
La IA generativa está redefiniendo las fronteras entre trabajo manual e intelectual, automatizando tareas cognitivas complejas y creando nuevas formas de colaboración humano-máquina. Esto plantea interrogantes sobre:
- La naturaleza del trabajo creativo y la expertise profesional
- La evolución de las profesiones intelectuales tradicionales
- La emergencia de nuevas formas de valor y capital cognitivo
- Reconfiguración de la esfera pública
Los sistemas de IA generativa están transformando los procesos de producción y circulación de información:
- Democratización vs. concentración del poder informacional
- Nuevas formas de manipulación y desinformación
- Transformación de los procesos deliberativos y la formación de la opinión pública
- Implicaciones geopolíticas
La carrera por el dominio de la IA generativa está reconfigurando el orden global:
- Competencia tecnológica entre EE.UU. y China
- Emergencia de nuevos centros de poder tecnológico
- Brechas digitales y colonialismo algorítmico
- Soberanía tecnológica y dependencia digital
- Desafíos éticos y regulatorios
La expansión de la IA generativa plantea nuevos dilemas normativos:
- Responsabilidad algorítmica y transparencia
- Propiedad intelectual y derechos digitales
- Sesgos y discriminación automatizada
- Privacidad y vigilancia algorítmica
Prospectiva
Escenario 1: Democratización tecnológica
- Acceso universal a herramientas de IA generativa
- Empoderamiento de comunidades marginadas
- Diversificación de la producción cultural
Escenario 2: Oligopolio tecnológico
- Concentración del poder en megacorporaciones
- Profundización de desigualdades existentes
- Homogeneización cultural
Escenario 3: Regulación democrática
- Marco regulatorio robusto y participativo
- Balance entre innovación y bien común
- Gobernanza multinivel de la IA
Consideraciones para la acción
- Desarrollo de marcos éticos y regulatorios adaptativos
- Fortalecimiento de la alfabetización digital y del pensamiento crítico
- Promoción de la soberanía tecnológica
- Fomento de la innovación responsable
- Protección de derechos digitales fundamentales
Referencias
- Coeckelbergh, M. (2020b). AI Ethics. MIT Press.
- Murphy, C., & Thomas, F. P. (2023). Navigating the AI revolution: This journal’s journey continues. Journal Of Spinal Cord Medicine, 46(4), 529-530. https://doi.org/10.1080/10790268.2023.2221593
- Lee, K. (2021). AI superpowers: China, Silicon Valley, and the New World Order. Mariner Books.
- Oliver Wyman. (2025). AI: A roadmap for governments. World Governments Summit. https://www.oliverwyman.com/content/dam/oliver-wyman/v2/publications/2025/jan/ai-roadmap-for-governments-english.pdf
- Marcus, G., & Davis, E. (2020). Rebooting AI: Building Artificial Intelligence We Can Trust. Vintage.
- Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power.
La universidad ha sido, desde sus inicios, una institución fundamental para el desarrollo del conocimiento y la transferencia de sus aplicaciones y beneficios a la sociedad. Aunque su papel ha evolucionado de manera notable con el tiempo, ha mantenido siempre tres funciones esenciales: la investigación, la formación y la divulgación.
Durante la Edad Media y en el largo periodo de influencia cultural de la Iglesia Católica, en las universidades europeas se enseñaba fundamentalmente teología y derecho canónico. Con el Renacimiento se produjo una ampliación de intereses disciplinares, incorporando el estudio de las humanidades, las ciencias naturales, matemáticas, medicina y otras disciplinas ligadas a las demandas de conocimiento que requerían la navegación oceánica y las nuevas rutas comerciales. En este contexto surgen nuevas universidades y se expanden las existentes, que adquieren mayor capacidad de influencia social y cultural.1
Con la Ilustración y la Revolución Industrial se produjo una transformación radical en el enfoque y la misión de las universidades, cuyas instalaciones se adaptaron para priorizar la investigación científica y el desarrollo tecnológico. A lo largo del siglo XIX, con la reforma de Humboldt en la Universidad de Berlín, se consolidó el concepto de universidad como centro de investigación además de enseñanza, y su influencia se extendió a muchas otras universidades europeas y americanas.2, 3
Aunque algunas universidades medievales destacaron como centros de erudición donde se cultivaban las ciencias, la filosofía y las artes liberales, pocos elementos de sus instalaciones y funcionamiento cotidiano podrían asemejarse a las características y complejidad de las instituciones universitarias contemporáneas con liderazgo en algunos campos de investigación y conocimiento aplicado. Las de mayor tamaño suelen destacar por la concentración de actividad en campus dedicados a la ciencias naturales e ingenierías, biomedicina y biotecnologías, artes y humanidades, arquitectura, etc. La especialización permite aprovechar sinergias en servicios, instalaciones y recursos humanos, y refuerza culturas de trabajo orientadas a la calidad, la transferencia de conocimiento y la generación de valor añadido en sectores estratégicos. Bajo esta perspectiva, es innegable que la investigación universitaria contribuye al avance del conocimiento científico y tecnológico, lo que a su vez incrementa las oportunidades de desarrollo económico y social en su entorno.4
Cabe señalar que las universidades son responsables de gran parte (76%) de la investigación básica, la que en el largo plazo aporta los componentes decisivos para el progreso científico en dominios de problemas emergentes, en los que resulta improbable lograr apoyo y financiación privada sin un horizonte inmediato de utilidad y rentabilidad. El estudio detenido de problemas teóricos y conceptuales que permiten con el tiempo mejorar las teorías científicas y proporcionar nuevos elementos de comprensión y predicción de fenómenos naturales o de otro tipo constituye una fuente genuina de creatividad científica y de apertura a nuevas formas de pensar sobre el mundo. Con carácter exploratorio, descriptivo o explicativo, la investigación básica es crucial para descubrir las leyes fundamentales que rigen el comportamiento y la interacción de las estructuras básicas de la naturaleza y aportar nuevas ideas, principios y desarrollos teóricos, sin las restricciones que introduce un programa de aplicación inmediata bajo criterios de rentabilidad comercial. En el largo plazo, la curiosidad intelectual y el análisis detenido de aspectos teóricos o meramente especulativos sienta las bases para el progreso y el desarrollo coordinado en diferentes campos disciplinares, con aplicaciones que pueden sorprender por su impacto social y capacidad para consolidar nuevos nichos de negocio.5, 6
Beneficios de la investigación básica:
- Impulsa el avance del conocimiento y llena los vacíos de información existentes.
- Permite el desarrollo de nuevas teorías, predicciones y modelos en diversos campos.
- Tiene un alcance universal, aplicable a una variedad de teorías y conceptos en campos disciplinares diversos, que con el tiempo pueden tener un impacto significativo en la mejora de la calidad de vida y el bienestar humano.
- Fomenta la curiosidad y la motivación por avanzar en áreas donde persisten problemas y desafíos sin resolver.
- Proporciona una comprensión fundamental de aspectos que pueden potenciar la investigación aplicada.
Beneficios de la investigación aplicada:
- Resuelve problemas existentes de manera práctica.
- Ayuda a las empresas a tomar mejores decisiones y ahorrar dinero.
- Permite la creación de nuevos productos y servicios.
- Puede aportar datos y evidencia empírica sobre aspectos teóricos y conceptos discutidos.
- Tiene un potencial de generar ganancias comerciales y beneficios monetarios.
- Encuentra soluciones específicas para problemas que afectan a colectivos con ciertas necesidades.
- Es impulsada por los intereses y deseos de clientes, usuarios o patrocinadores.
La investigación aplicada se caracteriza por el recurso a teorías científicas para desarrollar tecnología o técnicas que pueden utilizarse para intervenir y alterar fenómenos naturales, introducir mejoras en tecnologías previas o crear servicios y productos que satisfacen (y crean) necesidades de tipo práctico. Mientras el propósito de la investigación fundamental consiste —idealmente— en ampliar el conocimiento y lograr una representación objetiva y racional de la realidad, la investigación aplicada persigue obtener conocimiento instrumental efectivo sobre un fragmento de realidad, adecuado para resolver un problema práctico específico. Hay una diferencia notable entre el tipo de actividades que tienen como objetivo prioritario la búsqueda de la verdad y las que persiguen aumentar la efectividad tecnológica o el beneficio en algún dominio del mercado de productos y servicios. Las universidades tradicionalmente han tenido mucho más que ver con las primeras que con las segundas, típicamente asociadas con entidades cuyos fines sociales son de naturaleza empresarial.5, 6
En ciencia aplicada es la necesidad de resolver problemas tecnológicos específicos lo que determina el curso de la investigación, aunque no es infrecuente que, como subproducto de la búsqueda de soluciones prácticas, se obtenga conocimiento novedoso en algún ámbito de conocimiento. Pero se trata generalmente de conocimiento que encaja en el marco predeterminado donde se desarrolla la investigación aplicada, y ligado a la estrategia de resolución de un problema práctico, por lo que importa más su aplicación práctica directa (metodológica, tecnológica) que su encaje con el marco teórico del dominio en el que se trabaja y donde se puede ampliar la comprensión del mundo. Una revisión de la historia de la medicina permite entender cómo décadas de investigación básica en instituciones universitarias fueron la base para descubrimientos cruciales, como la estructura del ADN y las bases genéticas de muchas enfermedades. En ciencias sociales, la investigación universitaria puede condicionar aspectos importantes de las políticas públicas y ayudar en la comprensión de los factores que perpetúan fenómenos como la pobreza, la desigualdad y la exclusión entre ciertos sectores de la población.7, 8
Al menos desde finales del siglo XVIII, es obvio que en las universidades no se limitan a impartir conocimientos teóricos, sino que contribuyen de manera decisiva a desarrollar habilidades prácticas y competencias asociadas con el pensamiento crítico en sus estudiantes, como parte de una misión formativa centrada en preparar a individuos capaces de contribuir de manera efectiva al progreso social. Por esta razón importa que la educación universitaria sea de calidad y contribuya tanto el desarrollo personal como al profesional. La diversidad de programas de grado y posgrado que ofertan las universidades en una amplia variedad de disciplinas, desde las ciencias naturales y la ingeniería hasta las humanidades y las ciencias sociales, permite a los estudiantes adquirir conocimientos especializados de utilidad profesional y desarrollar otras habilidades transversales como el pensamiento crítico y la capacidad para resolver problemas complejos, comprender el valor de la diversidad cultural o comunicar de manera efectiva.7, 10
Parte de estos objetivos se ven obstaculizados cuando las universidades ven sistemáticamente reducida la financiación estatal e incrementan cada año su dependencia de programas competitivos en colaboración con el sector privado. Es indudable que los nuevos actores condicionan con sus intereses y expectativas de retorno de la inversión tanto el funcionamiento como las prioridades de las instituciones universitarias. Se trata de una dinámica que opera en un mercado globalizado, con redes y nodos de colaboración que funcionan gracias en parte a la digitalización y a la posibilidad de acceder en línea a bases de datos globales como soporte de la actividad científica. La contrapartida ha sido una intensificación de la competencia y la presión por publicar en revistas de alto impacto, cuyas métricas condicionan las oportunidades de empleo estable y promoción profesional.9, 10
Para entender la rápida evolución de la universidad española en la segunda mitad del siglo XX y su contribución social conviene recordar que entre los años 1970 y 1995 el número de estudiantes universitarios se multiplicó por siete, como parte de una dinámica acelerada que supuso de facto la masificación de las aulas universitarias: se pasó de 37.000 estudiantes universitarios en 1940 hasta los 76.500 de 1960, alcanzando los 205.500 en 1970. Sin embargo, a partir de la promulgación de la LRU (1983) el colectivo de trabajadores universitarios cualificados quedó instalado en un marco de interinidad permanente, sujeto a diversas pruebas de idoneidad para los antiguos PNNs y una sucesión interminable de reformas (ley de autonomía universitaria, creación de departamentos, nuevos planes de estudio, decretos de áreas, LOSU, etc.) que han dificultado una transformación coherente y reflexiva, más acorde a criterios de funcionamiento democrático y menos dependientes del modelo gerencialista de corte neoliberal que adoptaron las universidades anglosajonas.11, 13
A comienzo del siglo XXI se constata un reducción del número de matriculados (casi 150.000 estudiantes menos entre 1999 y 2005), en su mayor parte ligada a la evolución de la demografía española) y un incremento notable de la matrícula en Enseñanzas Técnicas (26,4% del total), mientras se mantienen los porcentajes de estudiantes en las Ciencias Sociales y Jurídicas (49,7%). Este periodo coincide con la expansión de las universidades privadas, cuya oferta formativa absorbe el 9,2% de la demanda. Otra característica interesante en términos de equidad social es la consolidación del colectivo femenino como grupo mayoritario entre el alumnado universitario (54% de la matrícula en 2005; y 57% inscritas en las pruebas de acceso a la universidad en 2020; 56% en los estudios de grado; 55% en másteres y 50% en doctorado), si bien su presencia resulta muy asimétrica en función de la rama de enseñanza cursada. Las universidades han ido ampliando la oferta de planes de estudio en modalidad no presencial (291.165 matriculados en 2020, un 17,4% del total de la matrícula), los cursos masivos en línea (MOOC) y los programas de adaptación para estudiantes no convencionales (mayores, con necesidades especiales, etc.), un colectivo que supera ya el tercio del total de matriculados y que demanda recursos, programas de becas y atención especializada (en función de características socioeconómicas, étnicas y culturales o por diversidad funcional).11, 12
Estas cifras y detalles pormenorizados son relevantes para entender en qué se concreta la misión divulgadora, docente e investigadora de la universidad. Las políticas de inclusión han ampliado notablemente el objetivo institucional de contribuir a la divulgación del conocimiento y facilitar el acceso a la cultura a colectivos sociales cada vez más amplios y heterogéneos, con resultados indiscutiblemente beneficiosos en términos de equidad, cohesión y justicia social que exceden el ámbito de la comunidad académica y llegan a mucha más gente que la inscrita en programas de docencia reglada. A través de programas de extensión, las universidades han contribuido a difundir el conocimiento y las innovaciones fuera de sus campus, generando riqueza y ampliando las oportunidades de muchos colectivos en comunidades locales, a escala estatal y en redes de colaboración internacional, con iniciativas que incluyen programas de alfabetización y educación continua, proyectos de desarrollo comunitario y consultoría, apoyo a entidades locales y organizaciones no gubernamentales en la gestión de problemas sociales y ambientales, entre otras. Proporcionan nuevas oportunidades para involucrar a estudiantes y profesores en programas de prácticas y experiencias de campo, en contacto directo con el territorio, las instituciones y la realidad de la población con la que se colabora.14, 43
Sin embargo, el aumento de las necesidades, la incorporación de colectivos que requieren atención más personalizada y el incremento de las exigencias en cuanto a medios, calidad de las conexiones, suscripción a recursos en línea e infraestructura de investigación no ha ido acompañado de dotaciones presupuestarias coherentes y adecuadas, obligando al personal docente e investigador a un sobreesfuerzo constante en condiciones de permanente precariedad y desajuste con unos criterios de calidad percibidos como arbitrarios, sesgados y dependientes de métricas controladas por unas pocas empresas privadas.15
En periodos de analfabetismo generalizado y en contextos culturales ajenos a los desarrollos del conocimiento y la investigación, las universidades prevalecieron sobre otras escuelas o centros de formación y desempeñaron un papel histórico como faros de conocimiento y fuente de pensamiento crítico, aunque su labor beneficiara inicialmente a una élite reducida de la nobleza y el clero. Ocurrió a menudo bajo la protección de ciertos mecenas ilustrados, cuyo respaldo les garantizó márgenes razonables de autonomía y libertad de pensamiento frente a las tendencias doctrinales y la intolerancia política de otros actores.16, 17, 18, 19
En el contexto de la sociedad industrial, los excedentes de riqueza ligados al aumento de la producción y la mejora de la capacidad adquisitiva de los trabajadores influyeron en las adaptaciones de las que fueron objeto los sistemas de educación superior en Estados Unidos y Europa. Entre 1850 y 1970, las instituciones académicas dieron respuesta a las necesidades de formación técnica y profesional impuestas por la Revolución Industrial, en un periodo de rápidas transformaciones económicas, sociales y culturales que propiciaron el surgimiento de nuevos campos de estudio relacionados sobre todo con las ciencias aplicadas y la ingeniería. El cambio en las demandas del mercado laboral no afectó solo a los planes de estudio, sino que modificó aspectos relevantes de la misión y criterios organizativos de las instituciones académicas para satisfacer las necesidades de una sociedad cada vez más industrializada, en una dinámica acelerada tras la Segunda Guerra Mundial.18, 20
A partir de la década de 1980, se constata la tendencia a introducir modelos neoliberales de gestión empresarial y criterios de lógicas mercantiles propios del nuevo gerencialismo, un esquema de gestión donde la obsesión por la eficiencia, la medición del rendimiento a través de indicadores cuantitativos (rankings globales) y la competencia por recursos escasos condiciona las prioridades de gestión y financiación.21, 22
Como advierte Kathleen Lynch, las clasificaciones son un modo de gobernanza con fuerte sesgo político, diseñadas para garantizar que las universidades operen de conformidad con los valores del mercado. Su base numérica otorga a las clasificaciones una objetividad ficticia, suscitando la impresión de que solo lo cuantificable tiene valor en la educación y es susceptible de ser ordenado jerárquicamente con criterio indiscutible. En realidad, los esfuerzos de ajuste a los indicadores de las clasificaciones desvían la atención y las mejores energías de los fines genuinos que conectan a estudiantes y docentes en la academia, distorsionando los marcos cognitivos y morales desde los cuales se evalúa y justifica socialmente la educación universitaria.23
La adopción de indicadores cuantitativos homogéneos fue un aspecto destacable de la serie de reformas conocidas popularmente como Proceso de Bolonia, en el que se involucraron las universidades europeas a partir del año 1999. El resultado de su aplicación ha sido la armonización de grados y titulaciones en los sistemas de educación superior y un incremento extraordinario de la movilidad estudiantil y profesional a través del Espacio Europeo de Educación Superior (EEES). Si bien la compatibilidad en los criterios de promoción y reconocimiento del desempeño académico fue un logro indiscutible, con repercusiones en la promoción de la calidad y la relevancia de la educación superior, es importante señalar el esfuerzo económico que supuso centrar las prioridades en la internacionalización de la oferta educativa y en el intercambio de estudiantes, docentes e investigadores entre países del EEES, con programas como Erasmus+. Estas iniciativas consolidaron partidas importante de los fondos europeos destinadas a los programas de movilidad e internacionalización, lo que permitió acortar distancias con las universidades estadounidenses líderes en investigación e innovación, las cuales en gran medida mantienen su posición global ventajosa con grandes inversiones en instalaciones de investigación de vanguardia y programas competitivos a escala mundial de atracción de talento.41, 42
A las tendencias mencionadas se suma la presión constante por la autopromoción, como resultado esperable de la imposición de criterios de calidad economicistas que llevan a organizar prácticamente cualquier evento académico en clave publicitaria, sirviendo de ocasión para promocionar nuevas publicaciones, instalaciones reformadas, compromisos institucionales con las humanidades o cualquier otra disciplina y las propuestas de empresas o grupos de interés por cátedras conjuntas y oportunidades de colaboración.
Compartir logros o méritos relevantes no debería ser un problema, si se produce en el contexto adecuado. Al fin y al cabo, la carrera académica se consolida sobre el trasfondo de un mercado laboral competitivo. Lo llamativo es que, como parte de las estrategias de respuesta a crisis sucesivas (de presupuesto, de recursos humanos, de ajustes generales bajo el peso de la deuda, de recorte en los programas de becas, etc.) el formato autopromocional se haya convertido en la clave por defecto que modula tanto los mensajes de conferencias académicas y comités de revisión como las piezas informativas de instituciones e investigadores en redes sociales, agenda institucional, noticias de actualidad científica en los medios y revisión de publicaciones de otros colegas. El resultado es la exageración sistemática de los méritos del trabajo propio o de los colegas del equipo en cualquier dominio de actividad profesional, omitiendo con frecuencia todas las dificultades, disfunciones y compromisos que obstaculizaron el trabajo, mermaron la calidad del resultado o demandaron un esfuerzo extra del personal en situación más precaria.24
Parece que los servicios de consultoría académica se han puesto de acuerdo en denostar virtudes anticuadas como la modestia, en favor de lo que Brett Wilson denomina "arribismo asertivo y autopromoción sin complejos" (assertive careerism and the de-shaming of self-promotion), importado de la cultura académica estadounidense. Por supuesto, la fórmula puede potenciarse si se combina con patrones de exhibicionismo constante y fanfarronería en las redes, donde se opera con mayor impunidad que en eventos a los que asisten colegas y público dispuesto a debatir.24, 25
El formato promocional ahuyenta, naturalmente, las oportunidades genuinas de contribuir al pensamiento crítico desde la docencia, la investigación y la divulgación cultural. En sus peores versiones, supone de facto un blanqueamiento de la mediocridad con tintes de autoayuda y un lavado de cara para empresas e instancias de gestión cuyas políticas frecuentemente van en dirección opuesta a los valores que exhiben en público.25, 26
En las universidades importan tanto o más que en las empresas el trabajo en equipo, las habilidades prácticas y las destrezas profesionales sofisticadas. Si en compañías dedicadas a la manufactura tiene algún sentido hablar de "liderazgo intelectual" —referido a quienes lograron algún cambio beneficioso en la cultura de trabajo corporativa o adaptaciones técnicas que supusieron finalmente una ventaja competitiva—, la expresión se torna ambigua y sospechosa en contexto académico, puesto que pone el foco en un perfil de individuos con habilidades sociales y de comunicación más desarrolladas que sus credenciales profesionales como investigadores, administradores o docentes respetados. Las primeras suelen ir acompañadas de una confianza excesiva, habitual en estilos de liderazgo expansivos y controladores (la versión popular del liderazgo intelectual). Las segundas requieren un esfuerzo constante y cierta modestia acerca del verdadero logro que suponen resultados a primera vista positivos, puesto que la autocrítica y la disposición continua a la mejora y el aprendizaje continuo forman parte de la condición de experto, más allá de las credenciales básicas (formación, educación, cualificación profesional, publicaciones de impacto o experiencia).
Mientras que la noción popular de profesional competente admite sin problema el esfuerzo por publicitar los servicios que se está en condiciones de prestar con garantías, el rol de la persona experta en algún campo del conocimiento teórico o aplicado enfatiza su disposición constante al trabajo de base para estar al día y seguir la evolución del conocimiento y protocolos de trabajo en su campo. Una actitud de compromiso constante con el rigor intelectual y metodológico, en función de la literatura, desarrollos y avances constatados en el campo de investigación donde se trabaja, puede en ciertos contextos ser interpretada como "liderazgo intelectual" (el que ejerce alguien con conocimiento y perspectiva más amplia que el promedio de su entorno en un campo de investigación) y en otros como tecnocracia o elitismo intelectual (cuando el entorno no valora lo suficiente el valor de la actividad profesional o la calidad del conocimiento que expertos/as con credenciales robustas aportan en la tomas de decisiones de instituciones públicas o privadas). Un esquema sistemático de sesgo autopromocional y confianza excesiva en las fortalezas del grupo o institución a la que se pertenece siembra la sospecha sobre el valor genuino de cualquier nueva aportación en el ámbito académico o profesional de referencia.27
En las últimas décadas las universidades se han visto presionadas para actuar como empresas, compitiendo por estudiantes-clientes, atrayendo inversión privada y buscando constantemente la excelencia con estrategias para mejorar su lugar en los rankings internacionales que priorizan indicadores como la producción científica, la captación de fondos externos y la empleabilidad de sus egresados.28
La obsesión por la calidad y la excelencia está detrás de la proliferación de sistemas de evaluación basados en criterios cuantitativos y estandarizados, cuestionados porque no logran capturar la complejidad y diversidad de la labor académica. Pero a menudo se subestima otro de sus efectos: la devaluación del conocimiento, convertido en un producto sujeto a las leyes del mercado y en instrumento de la carrera mundial por la reputación, donde la rentabilidad y la aplicabilidad inmediata priman sobre la originalidad o la búsqueda desinteresada del saber y la generación de conocimiento crítico.29
La presión por publicar en revistas de alto impacto se asocia con mejores oportunidades de obtener financiación para proyectos socialmente relevantes, aunque el número de lecturas, citas y descargas que tienen la mayoría de los artículos científicos en revistas especializadas resulte exiguo y el coste por publicar en ellas suponga a menudo más que ciertas mejoras básicas en las instalaciones que a diario usan estudiantes e investigadores, pero que continúan pendientes durante años por falta de presupuesto.30
Organizar y participar en congresos internacionales se ha convertido en una carga considerable para académicos e investigadores, quienes a menudo procuran invitar al personal mínimo necesario para dar alcance internacional a eventos donde el número de asistentes en cada mesa no sobrepasa en ocasiones al de ponentes e intervinientes que esperan su turno en la misma. Aunque los eventos destacados suelen admitir una lista amplia de perfiles y mesas temáticas, no es infrecuente que las opciones de consolidar méritos en el mínimo tiempo posible supongan en la práctica limitaciones en la libertad de cátedra y en la capacidad para desarrollar líneas de investigación originales y arriesgadas.31
Un entorno ferozmente competitivo entre universidades e investigadores incentiva con facilidad prácticas poco éticas en investigación, que incluyen la fragmentación de la producción científica —para aumentar el número de publicaciones asociadas con una misma línea de trabajo—, la elección de temas de investigación en función de su potencial para atraer financiación —en detrimento de su relevancia científica o social y de su encaje con la experiencia o fortalezas del equipo investigador— o la rebaja en los tiempos y estándares de revisión de contribuciones originales —lo que ha introducido en el lucrativo mercado de las publicaciones científicas a un gran número de actores y editoriales depredadoras—. Este contexto facilita otros episodios de mala praxis, incluyendo la manipulación o invención de datos para acelerar el proceso de publicación, con un número al alza de retractaciones que presenta notables diferencias regionales.31, 32, 33, 34, 35
La divulgación científica constituye un aspecto esencial en la legitimación social de la misión de la universidad. El ruido y la desinformación han adquirido escala industrial en la era de la digitalización, una proporción incomparable a la que tenían en la época de la imprenta y los medios analógicos. Internet ha facilitado el acceso a la información y ha multiplicado las fuentes y actores activamente implicados en la generación de productos que compiten con el conocimiento y la cultura sofisticada. Sin embargo, la baja calidad profesional de muchos medios digitales —incluyendo canales de vídeo y nuevas fuentes de información que operan mayoritariamente en las redes sociales y la blogosfera— ha contribuido a inundar de prograganda y desinformación muchos dominios del universo cultural contemporáneo. Las universidades desempeñan un papel vital en la generación y difusión de conocimiento científico en términos accesibles al público en general, y en formatos que no dejen duda sobre la calidad de las fuentes, datos o resultados de referencia. Esto incluye un compromiso explícito con la publicación de investigaciones en revistas de acceso abierto, la organización de conferencias y seminarios abiertos al público, y la participación habitual en medios de comunicación o plataformas de divulgación y debate público (respositorios de podcasts, blogs y vídeos educativos para audiencias globales como las conferencias TEDx, entre otras).
Pese a la diversidad de plataformas, herramientas, canales y oportunidades disponibles al servicio de la divulgación científica, las instancias de difusión cultural se enfrentan al desafío que supone la brecha entre formatos, lenguajes técnicos o estilos académicos y las claves de comprensión con las que opera el público general. La adquisición de habilidades para comunicar hallazgos de manera clara y accesible, sin sacrificar la precisión ni el rigor científico, requiere largos procesos de aprendizaje y entrenamiento en contextos relevantes. Ciertos colectivos, además, han adquirido protagonismo por su capacidad para promover actitudes de rechazo o desconfianza hacia la ciencia, haciendo alarde de su capacidad para dar plausibilidad a creencias conspiranoicas y enfoques negacionistas acerca de resultados y evidencia contraria a sus intereses.36, 37, 38
Las instituciones académicas difícilmente pueden contrarrestar el alcance de las campañas de propaganda y desinformación que ciertos actores malintencionados articulan en contextos como las campañas electorales, las emergencias por desastres, las crisis de salud pública o en los debates que preceden a la adopción de medidas reguladoras ambiciosas sobre temas controvertidos. Pero la contribución social de las universidades es una tarea de fondo, con resultados tangibles en el corto plazo para quienes pasan por sus aulas y en el largo plazo para las sociedades donde ejercen su influencia, en la medida que conservan su identidad como instancias fiables de información rigurosa, de pensamiento crítico y de escepticismo informado.39
Algunas propuestas de mejora (Furedi, 2016; Nussbaum, 2016; Hazelkorn, 2015):
- Redefinir los criterios de calidad: Es necesario trascender los indicadores cuantitativos y desarrollar sistemas de evaluación más integrales que consideren la calidad de la docencia, la relevancia social de la investigación, el impacto en la comunidad y la contribución al debate público.
- Promover la libertad académica: Se debe garantizar la autonomía universitaria y la libertad de cátedra, permitiendo a los académicos desarrollar líneas de investigación originales y críticas, sin la presión constante de la productividad y la competencia desleal.
- Revalorizar la labor docente: Es fundamental invertir en la formación docente, mejorar las condiciones laborales de los profesores y promover la innovación pedagógica, con el objetivo de formar estudiantes críticos, reflexivos y comprometidos con la transformación social.
- Fortalecer el vínculo con la sociedad: Las universidades deben abrirse a la comunidad, estableciendo un diálogo constante con los diferentes actores sociales y poniendo el conocimiento al servicio de la resolución de los problemas que aquejan a la sociedad.
1. Grendler, P. F. (2002). The universities of the Italian Renaissance. JHU Press. Ch. 4-7.
2. Amaral, A., & Magalhães, A. (2023). Humboldt and the modern research university: the ivory tower? En Handbook on Higher Education Management and Governance (pp. 71–87). Edward Elgar Publishing.
3. Nybom, T. (2003). The Humboldt legacy: Reflections on the past, present, and future of the European university. Higher Education Policy, 16(2), 141–159. https://doi.org/10.1057/palgrave.hep.8300013.
4. Lázaro Herrero, L. (2015). The future of Spanish public Universities: The challenges of the excellence debate. Encounters in theory and history of education, 16, 146–164. https://doi.org/10.24908/eoe-ese-rse.v16i0.5397.
5. Stephan, Paula (2012). How Economics Shapes Science. Cambridge, MA: Harvard University Press.
6. Alvarez-Teleña, S., & Díez-Fernández, M. (2023). Advances in AI: When applied science is not science applied. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4445463.
7. Guerra Palmnero, M. J. (2012). Crisis y desmantelamiento de la universidad española. www.sinpermiso.info. Available at: https://www.sinpermiso.info/textos/crisis-y-desmantelamiento-de-la-universidad-espaola.
8. Gil Villa, F. (2011). Profesores indignados: manifiesto de desobediencia académica. MAIA ediciones.
9. Torres, C. A. (2011). Public universities and the neoliberal common sense: seven iconoclastic theses. International Studies In Sociology Of Education, 21(3), 177-197. https://doi.org/10.1080/09620214.2011.616340.
10. Slaughter, S., & Rhoades, G. (2009). Academic capitalism and the new economy: Markets, state, and higher education. JHU Press. Ch. 2-6.
11. Varela, J. (2011, 31 enero). La crisis de la Universidad en el marco de una sociedad neoliberal - Viento Sur. Viento Sur. https://vientosur.info/la-crisis-de-la-universidad-en-el-marco-de-una-sociedad-neoliberal/.
12. Ministerio de Universidades (2022). Datos y cifras del sistema universitario español. Publicación 2021-2022. https://www.universidades.gob.es/wp-content/uploads/2022/11/Datos_y_Cifras_2021_22.pdf.
13. Lora Cam, Jorge; Recéndez, Cristina (2003). La universidad neoliberal y la crisis educativa.De cómo año tras año llegaron las evaluaciones. Reflexión Política, vol. 5, núm. 10, junio, 2003, pp. 70-79. http://www.redalyc.org/articulo.oa?id=11051006.
14. Pérez, Z., & Alberto, C. (2019). Las prácticas de extensión como experiencias de curricularización entre el debate y la práctica objetivada. Redes de Extensión, no. 5. http://sedici.unlp.edu.ar/handle/10915/110995.
15. López Alós, Javier (2019). Crítica de la razón precaria. La vida intelectual ante la obligación de lo extraordinario. Madrid: Los libros de la Catarata.
16. Brizzi, G. P. (2015). La formazione della classe dirigente nel Sei-Settecento. Il Mulino.
17. Leedham-Green, E. S. (1996). A concise history of the University of Cambridge. Cambridge University Press.
18. Rüegg, W. (2004). A history of the university in Europe: Vol. 2: Universities in Early Modern Europe (1500–1800; Vol. 3: Universities in the nineteenth and early twentieth centuries (1800-1945). Vol. 4: Universities from 1945 to 1992. Cambridge University Press.
19. Rubio Muñoz, F. J. (2020): La República de sabios. Profesores, cátedras y universidad en la Salamanca del siglo de Oro, Madrid, Dykinson, 2020, 295 pp. Historia De La Educación, 39(1), 502–503. https://revistas.usal.es/tres/index.php/0212-0267/article/view/25839.
20. Sanderson, M. (2019). The universities and British industry, 1850-1970. Routledge - Taylor and Francis Group.
21. Giroux, H. A. (2014) Neoliberalism’s War on Higher Education. Haymarket Books.
22. Cannella, G. S., & Koro-Ljungberg, M. (2017). Neoliberalism in Higher Education: Can We Understand? Can We Resist and Survive? Can We Become Without Neoliberalism? Cultural Studies/Critical Methodologies/Cultural Studies Critical Methodologies, 17(3), 155-162. https://doi.org/10.1177/1532708617706117.
23. Lynch, K. (2014). New managerialism, neoliberalism and ranking. Ethics in Science and Environmental Politics, 13(2), 141–153. https://doi.org/10.3354/esep00137.
24. Wilson, B. (Dec. 08, 2022). The End of Decency: When Self-Promotion Goes Too Far. https://www.insidehighered.com/advice/2022/12/09/why-too-much-public-self-promotion-academics-damaging-opinion.
25. Carmichael, S. G. (2014, 1 agosto). The Perils of Self-Promotion. Harvard Business Review. https://hbr.org/2014/01/the-perils-of-self-promotion.
26. Schawbel, D. (2014). Promote yourself: The New Rules for Career Success. St. Martin’s Griffin. 27. Chamorro-Premuzic, T. (2021, 25 junio). Is Self-Promotion still a risk for women? Forbes. https://www.forbes.com/sites/tomaspremuzic/2021/06/25/is-self-promotion-still-a-risk-for-women/?sh=655d08fc73fb.
28. Hazelkorn, E. (2015). Rankings and the reshaping of higher education: The battle for world-class excellence. Palgrave Macmillan. Ch. 1, 4-6.
29. Tuchman, G. (2009). Wannabe U: Inside the corporate university. University of Chicago Press.
30. De Silva, P. U. K., & K. Vance, C. (2017). Measuring the impact of scientific research. En Scientific Scholarly Communication (pp. 101–115). Springer International Publishing.
31. Guba, K.S., Tsivinskaya, A.O. (2024). Ambiguity in Ethical Standards: Global Versus Local Science in Explaining Academic Plagiarism. Sci Eng Ethics 30, 4. https://doi.org/10.1007/s11948-024-00464-6.
32. Bagues, M., Sylos-Labini, M., & Zinovyeva, N. (2019). A walk on the wild side: ‘Predatory’ journals and information asymmetries in scientific evaluations. Research Policy, 48, 462–477. https://doi.org/10.1016/j.respol.2018.04.013.
33. Horbach, S. P. J. M., & Halffman, W. (2019). The extent and causes of academic text recycling or ‘self-plagiarism.’ Research Policy, 48, 492–502. https://doi.org/10.1016/j.respol.2017.09.004.
34. Xie, Y., Wang, K., & Kong, Y. (2021). Prevalence of research misconduct and questionable research practices: A systematic review and meta-analysis. Science and Engineering Ethics, 27(4): 41. https://doi.org/10.1007/s11948-021-00314-9.
35. Bik, E. M., Casadevall, A., & Fang, F. C. (2016). The prevalence of inappropriate image duplication in biomedical research publications. Mbio, 7(3), e00809–e00816. https://doi.org/10.1128/mBio.00809-16.
36. Coady, D. (2012). What to believe now: Applying epistemology to contemporary issues. Wiley-Blackwell. Ch. 4-6.
37. Klein, C., Clutton, P., & Polito, V. (2018). Topic modeling reveals distinct interests within an online conspiracy forum. Frontiers in Psychology, 9, 189. https://doi.org/10.3389/fpsyg.2018.00189.
38. Oreskes, N. & Conway, E. M. (2010, June 10). Global warming deniers and their proven strategy of doubt. Yale E360. https://e360.yale.edu/features/global_warming_deniers_and_their_proven_strategy_of_doubt.
39. Nussbaum, Martha C. (2016). Not for profit: Why democracy needs the humanities - updated edition. Princeton University Press.
40. Furedi, F. (2017). What's happened to the university?: A sociological exploration of its infantilisation. Routledge. Ch. 1, 4, 9.
41. Wächter, B. (2004). The Bologna Process: developments and prospects. European Journal Of Education, 39(3), 265-273. https://doi.org/10.1111/j.1465-3435.2004.00182.x.
42. Altbach, P. G. (2007). Tradition and Transition: The International Imperative in Higher Education. Brill.
43. Benneworth, P. (2012). University Engagement with Socially Excluded Communities. En Springer eBooks (pp. 3-31). https://doi.org/10.1007/978-94-007-4875-0_1.
El nuevo gerencialismo en la universidad-empresa
Perspectiva 1:
En su libro "The Fall of the Faculty: The Rise of the All-Administrative University and Why It Matters" (La caída del profesorado: el surgimiento de la universidad completamente administrativa y por qué importa), Benjamin Ginsberg expone sus tesis sobre la evolución de las universidades y las tendencias que sugieren un declive de su eficacia e impacto cultural.
Ginsberg argumenta que las universidades se han alejado de su misión principal de enseñanza e investigación debido al crecimiento desproporcionado de la burocracia administrativa. Sostiene que las universidades han sido invadidas por una casta de administradores que buscan aumentar su poder y presupuestos, mientras que el profesorado se ha visto relegado a un papel secundario.
Según Ginsberg, esta expansión administrativa ha llevado a un aumento significativo en los costos de la educación superior, sin un beneficio tangible para los estudiantes o la calidad académica. Los recursos se desvían para mantener una gran estructura administrativa, en lugar de invertirse en mejorar la enseñanza y la investigación.
Además, Ginsberg critica la proliferación de programas y oficinas centrados en asuntos no académicos, como la vida estudiantil, la diversidad y la equidad, argumentando que estas iniciativas desvían recursos y desvirtúan la misión fundamental de la universidad.
Ginsberg sugiere que esta tendencia ha erosionado la eficacia y el impacto cultural de las universidades, ya que se han convertido en burocracias enfocadas en sí mismas, en lugar de centros de excelencia académica y pensamiento crítico.
Referencias
- Ginsberg, B. (2011). The fall of the faculty: The rise of the all-administrative university and why it matters. Oxford University Press.
- Newfield, C. (2016). The great mistake: How we wrecked public universities and how we can deperish them. Johns Hopkins University Press.
- Slaughter, S., & Rhoades, G. (2004). Academic capitalism and the new economy: Markets, state, and higher education. Johns Hopkins University Press.
- Tuchman, G. (2009). Wannabe U: Inside the corporate university. University of Chicago Press.
- Woodhouse, K. (2015). The erosion of academic tenure in the United States. En J. Zajda (Ed.), Decentralized governance in education: Cultivating local responsibility (pp. 45-62). Springer.
Perspectiva 2:
El nuevo gerencialismo en la educación superior se ha convertido en un tema relevante en la última década —véase, p. ej., Wannabe U: Inside the corporate university, de G. Tuchman (2009); The great mistake: How we wrecked public universities and how we can deperish them, de C. Newfield (2016); y H. van Houtum y A. van Uden,"The autoimmunity of the modern university: How its managerialism is self-harming what it claims to protect". Organization (2022), 29(1): 197–208—. La tendencia se origina como una extensión de los principios de la administración empresarial a otras organizaciones, intentando adaptar los nuevos enfoques de la gestión corporativa al funcionamiento de las instituciones del sector público, y en particular a las universidades del Reino Unido como uno de los sectores donde podía constatarse un margen más amplio de mejora en aspectos como el control de ciertos procesos, la eficiencia y la competitividad.
Las bases del nuevo gerencialismo se asientan en la idea de que las universidades deben ser gestionadas como si fueran empresas, con un enfoque en la rendición de cuentas, la medición del rendimiento y la optimización de recursos. Esto implica una transformación en la forma en que las instituciones educativas operan, priorizando la visibilidad, la durabilidad, la eficiencia y la capacidad de desarrollo de sus miembros.
En los últimos cinco años, el nuevo gerencialismo ha influido en la gobernanza universitaria, desplazando la preocupación por una organización académica eficaz a otros aspectos que requerían una gestión eficiente y, más recientemente, a una serie de decisiones justificables en términos de responsabilidad pública o función social, no solo por razones académicas o ligadas a resultados de investigación. Este cambio ha llevado a una gobernanza universitaria más compleja y con mayores costes estructurales, que no necesariamente redundan en una mejora de los resultados educativos.
Esta tendencia ha sido objeto de múltiples análisis críticos. Se argumenta que el nuevo gerencialismo introduce una lógica de mercado en la educación superior, lo que puede tener efectos negativos en la calidad de la enseñanza y en la investigación. Además, se critica que este enfoque puede llevar a una pérdida de valores educativos tradicionales y a una merma en la autonomía académica, dado que en la práctica supone incorporar en el funcionamiento de las universidades a múltiples actores ligados al sector empresarial e industrial, cuyas aportaciones financieras a través de cátedras o proyectos conjuntos pueden condicionar los objetivos e intereses tanto de la investigación como del marco de responsabilidad social corporativa.
Otra crítica persistente al nuevo gerencialismo se centra en que de hecho promueve una cultura de competitividad que puede ser perjudicial para el ambiente académico. Se argumenta que la presión por obtener resultados cuantificables y por competir por financiación y reconocimiento puede llevar a una erosión de la colaboración y a una disminución de la innovación, sobre todo cuando la justificación del enfoque competitivo se plantea en un contexto de disminución de recursos para las tareas esenciales y desajuste creciente entre medios (espacios, infraestructura, tecnología, servicios educativos en línea, etc.) y necesidades.
Otra crítica importante es que el nuevo gerencialismo puede exacerbar las desigualdades de género en la academia. Algunos estudios sugieren que los sistemas de evaluación y promoción basados en méritos pueden estar sesgados y no tener en cuenta las diferencias en las trayectorias profesionales de hombres y mujeres, lo que suscita el debate sobre las prácticas de gestión "duras" —impuestas con un patrón único, sin atender a circunstancias personales o familiares— y la imposición de criterios uniformes a instituciones que durante décadas han funcionado con esquemas presupuestarios y objetivos corporativos diferenciados.
No debe sorprender que el nuevo gerencialismo en la educación superior, con el correlato impopular de la búsqueda de eficiencia, control de calidad y rendición de cuentas en prácticamente cualquier proceso de la docencia y la investigación en contexto académico, continúe bajo sospecha. Se trata de una tendencia recibida con escepticismo, percibida como una forma de colonialismo mediante la cual instituciones privadas con ánimo de lucro sirven de referencia para instituciones cuya misión y naturaleza pública les obliga a funcionar con estándares de calidad y recursos humanos o materiales difícilmente equiparables. Está por ver su impacto en la calidad de la educación y en la equidad dentro de las instituciones académicas, más allá del baile anual en ciertos listados y las métricas de visibilidad. Sin embargo, las críticas al modelo gerencialista no exime a las universidades del esfuerzo por lograr un equilibrio razonable entre la adopción de prácticas de gestión eficientes y la preservación de su misión educativa e investigadora.
Perspectiva 3:
Flexibilidad, digitalización y adaptaciones estructurales en los centros de educación superior durante la pandemia.
CYD (29/09/2021): Informe CYD 2020: tendencias y oportunidades de la universidad española. https://www.fundacioncyd.org/el-informe-cyd-2020-tendencias-oportunidades-universidad-espanola/.
Agazzi, E. (2011). La ciencia y el alma de Occidente. Tecnos, Madrid.
Aggarwal, R., & Anderies, J. (2023). Understanding how governance emerges in social-ecological systems: insights from archetype analysis. Ecology and Society: A Journal of Integrative Science for Resilience and Sustainability, 28(2). https://doi.org/10.5751/es-14061-280202
Akimushkin, I. (1988). Ethology: What animals do and why. Firebird Publications.
Alaimo, S. (2010). Bodily natures: Science, environment, and the material self. Indiana University Press.
Allori, V. (2020). Statistical mechanics and scientific explanation: Determinism, indeterminism and laws of nature. World Scientific Publishing Company.
Amendola, A., Ermolieva, T., Linnerooth-Bayer, J., & Mechler, R. (Eds.). (2012). Integrated catastrophe risk modeling: Supporting policy processes (2012a ed.). Springer.
Armstrong, D. M. (2022a). A materialist theory of the mind. Routledge.
Armstrong, D. M. (2022b). Identification of the mental with the physical. En A Materialist Theory of the Mind (pp. 379–391). Routledge.
Arthur, W. B., Durlauf, S. N., & Lane, D. (2019). The economy as an evolving complex system II. CRC Press. https://doi.org/10.1201/9780429496639
Audi, R. (2006). Diccionario akal de filosofia. Akal Ediciones.
Baaquie, B. E. (2013). The theoretical foundations of quantum mechanics (2013a ed.). Springer.
Baggott, J. (2013). Farewell to reality: How modern physics has betrayed the search for scientific truth. Pegasus Books.
Balandier, G. (1993). El desorden: la teoría del caos y las ciencias sociales, elogio de la fecundidad del movimiento. Gedisa.
Bammer, G. (2013). Disciplining interdisciplinarity: Integration and implementation sciences for researching complex real-world problems. ANU Press.
Barrera, J. C. B. (2015). La tentación del rey Midas: Para una economía política del conocimiento. Siglo XXI de España Editores.
Barrow, J. D., & Tipler, F. J. (1988). The anthropic cosmological principle. Oxford University Press.
Barsky, R. F. (1999). Intellectuals on the Couch: The Sokal Hoax and Other Impostures intellectuelles. SubStance, 28(1), 105. https://doi.org/10.2307/3685422
Barton, C. C. (2019). Critical literacy in the post-truth media landscape. Policy Futures in Education, 17(8), 1024–1036. https://doi.org/10.1177/1478210319831569
Baum, D. A., Futuyma, D. J., Hoekstra, H. E., Lenski, R. E., Moore, A. J., Peichel, C. L., Schluter, D., & Whitlock, M. C. (2017). The Princeton Guide to evolution. Princeton University Press.
Beckner, M. (1959). The biological way of thought. Columbia University Press.
Beeghly, E., & Madva, A. (Eds.). (2020). An introduction to implicit bias: Knowledge, justice, and the social mind. Routledge.
Berger, L. (1996). La construccion social de la realidad. Amorrortu Editores.
Berger, P. L., & Luckmann, T. (2011). Social construction of reality, the: A treatise in the sociology of knowledge. Open Road Media.
Bergstrom, C. T., & West, J. D. (2021). Calling Bullshit: The art of skepticism in a data-driven world. Random House Trade Paperbacks.
Bermudez, J. L. (2003). Thinking without words. Oxford University Press.
Berry, A. (2018). Evolution [Data set]. En Oxford Bibliographies Online Datasets. Oxford University Press (OUP).
Bertalanffy, L. V. (1996). Teoria general de Los sistemas. Fondo de Cultura Economica.
Bickle, J. (Ed.). (2009). The oxford handbook of philosophy and neuroscience. Oxford University Press.
Bolton, D., & Hill, J. (2003). Mind, meaning and mental disorder: The nature of causal explanation in psychology and psychiatry. Oxford University Press.
Bonilla C, D. (2019). Geopolítica del Conocimiento y Decolonialidad: ¿Está el eurocentrismo puesto a prueba? Agora U S B, 19(1), 149–169. https://doi.org/10.21500/16578031.4125
Bostrom, N. (2016). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Bostrom, N. (2024). Deep Utopia: Life and meaning in a solved world. Ideapress.
Bouchard, J. (2021). Complexity, emergence, and causality in applied linguistics (1a ed.). Springer Nature.
Bourdieu, P. (1989). Social space and symbolic power. Sociological theory, 7(1), 14. https://doi.org/10.2307/202060
Boyle, L., O’Connell, N., & Hanlon, A. (Eds.). (2008). Applied ethology: Addressing future challenges in animal agriculture. Wageningen Academic.
Braidotti, R. (2019). Posthuman knowledge. Polity Press.
Breed, M. D. (2017). Conceptual breakthroughs in ethology and animal behavior. Academic Press.
Brownstein, M. (2018). The implicit mind: Cognitive architecture, the self, and ethics. Oxford University Press.
Buchanan, A., & Powell, R. (2018). The evolution of moral progress: A biocultural theory. Oxford University Press.
Bunge, M. (1995). La ciencia, su método y su filosofía. Siglo Veinte.
Bunge, M. (1998). Epistemología: Curso de actualización (2a ed.). Siglo XXI Ediciones.
Bunge, M. A. (2004). Emergencia y convergencia: novedad cualitativa y unidad del conocimiento. Gedisa, Barcelona.
Bunge, M. A. (2015). Crítica de la nueva sociología de la ciencia. Editorial Laetoli.
Buranyi, S. (2017, junio 27). Is the staggeringly profitable business of scientific publishing bad for science? The guardian. https://www.theguardian.com/science/2017/jun/27/profitable-business-scientific-publishing-bad-for-science
Burke, P. (2000). Social history of knowledge: From Gutenberg to Diderot. Polity Press.
Buskes, C. (2009). La herencia de Darwin: La evolución en nuestra visión del mundo. Herder, Barcelona.
Buskes, C. (2014). Evolutionär denken: Darwins Einfluss auf unser Weltbild (C. Kuby & H. Post, Trads.; 1a ed.). Primus in Wissenschaftliche Buchgesellschaft (WBG).
Buskes, C. (2015). Darwinizing culture: Pitfalls and promises: Peter J. richerson and Morten H. christiansen (eds): Cultural evolution: Society, technology, language, and religion. The MIT press, Cambridge, MA, 2013, 485 pp, $38.00 (hardcover), ISBN: 978-0-262-01975-0. Acta Biotheoretica, 63(2), 223–235. https://doi.org/10.1007/s10441-015-9247-y
Byrne, D., & Callaghan, G. (2022). Complexity theory and the social sciences: The state of the art. Routledge.
Calling bullshit: The art of skepticism in a data-driven world calling bullshit: The art of skepticism in a data-driven world Carl T. bergstrom and Jevin D. west random house, 2020. 336 pp. (2020). Science (New York, N.Y.), 369(6507), 1064–1064. https://doi.org/10.1126/science.abd9788
Calvin, K. et al. (2023). IPCC, 2023: Climate Change 2023: Synthesis Report. Contribution of Working Groups I, II and III to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change [core writing team, H. lee and J. romero (eds.)]. IPCC, Geneva, Switzerland.
Capra, F., & Luisi, P. L. (2014). The systems view of life: A unifying vision. Cambridge University Press.
Carew, J. (2014). Ontological catastrophe: Žižek and the paradoxical metaphysics of German idealism. Open Humanities Press.
Carson, R. (2003). Silent Spring (40a ed.). Houghton Mifflin (Trade).
Casacuberta, D., & Estany, A. (2021). La cognición distribuida en el pensamiento de Ronald Giere. ArtefaCToS Revista de estudios sobre la ciencia y la tecnología, 10(1), 11–19. https://doi.org/10.14201/art20211011119
Casebook on human dignity and human rights. (2011). UNESCO.
Castells, M. (2005). Era de la informacion, la - vol. 1 la Sociedad red. Alianza.
Chalmers, D. J. (1996). The conscious mind: In search of a fundamental theory. Oxford University Press.
Chawla, M., & Kim-Gina, J. (2023). Climate risk and the cost of information opacity in supply chains. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4443923
Chen, B.-S. (2018). Systems evolutionary biology: Biological network evolution theory, stochastic evolutionary game strategies, and applications to systems synthetic biology. Academic Press.
Chen, E. K. (2023). Does quantum theory imply the entire Universe is preordained? Nature, 624(7992), 513–515. https://doi.org/10.1038/d41586-023-04024-z
Cho, H. (2016). Under co-construction: An online community of practice for bilingual pre-service teachers. Computers & Education, 92–93, 76–89. https://doi.org/10.1016/j.compedu.2015.10.008
Chrisman, M. (2022). Belief, agency, and knowledge: Essays on epistemic normativity. Oxford University Press.
Churchland, P. S. (2018). Braintrust: What Neuroscience Tells Us about Morality. Princeton University Press.
Clark, C. J. et al. (2023). Prosocial motives underlie scientific censorship by scientists: A perspective and research agenda. Proceedings of the National Academy of Sciences of the United States of America, 120(48). https://doi.org/10.1073/pnas.2301642120
Clarke, S. (2020). Metaphysics and the disunity of scientific knowledge. Routledge.
Coady, D., & Chase, J. (2018). The Routledge handbook of applied epistemology (D. Coady & J. Chase, Eds.). Routledge.
Coates, J. F. (2009). Risks and threats to civilization, humankind, and the earth. Futures, 41(10), 694–705. https://doi.org/10.1016/j.futures.2009.07.010
Cole, J., McNabb, J., Hosfield, R., & Grove, M. (2020). Landscapes of human evolution: Contributions in honour of John Gowlett. Archaeopress Archaeology.
Compton, J. J. (2002). Toward a phenomenological philosophy of nature. En Hermeneutic Philosophy of Science, Van Gogh’s Eyes, and God (pp. 195–202). Springer Netherlands.
Cook, J., Nuccitelli, D., Green, S. A., Richardson, M., Winkler, B., Painting, R., Way, R., Jacobs, P., & Skuce, A. (2013). Quantifying the consensus on anthropogenic global warming in the scientific literature. Environmental research letters, 8(2), 024024. https://doi.org/10.1088/1748-9326/8/2/024024
Coole, D. H., & Frost, S. (Eds.). (2010). New materialisms: Ontology, agency, and politics. Duke University Press.
Corning, P. A. (2002). The re‐emergence of “emergence”: A venerable concept in search of a theory. Complexity, 7(6), 18–30. https://doi.org/10.1002/cplx.10043
Corradetti, C. (2022). Relativism and Human Rights: A theory of pluralist universalism. Springer.
Crawford, K. (2023). Atlas de Ia IA: Poder, política y costes planetarios de la inteligencia artificial. Ned.
Creager, A. N. H., Lunbeck, E., & Norton Wise, M. (2007). Science without laws: Model systems, cases, exemplary narratives. Duke University Press.
Curd, M., & Psillos, S. (Eds.). (2013). The Routledge companion to philosophy of science. Routledge.
Curry, J. (2023). Climate uncertainty and risk: Rethinking our response. Anthem Press.
D’Agostino, F. (2009). Naturalizing epistemology: Thomas Kuhn and the `essential tension’. Palgrave Macmillan.
Darwin, C. (2015a). The correspondence of Charles Darwin: 1874 volume 22 (F. H. Burkhardt, J. Secord, & The Editors of the Darwin Correspondence Project, Eds.). Cambridge University Press.
Darwin, C. (2015b). The correspondence of Charles Darwin: 1875 volume 23 (F. H. Burkhardt, J. A. Secord, & The Editors of the Darwin Correspondence Project, Eds.). Cambridge University Press.
Dawkins, R. (1998). Postmodernism disrobed. Nature, 394(6689), 141–143. https://doi.org/10.1038/28089
de Castro, J. M. B. (2021). Dioses y mendigos: La gran odisea de la evolución humana. Editorial Crítica.
de Sousa Santos, B. (2009). Una epistemología del sur: la reinvención del conocimiento y la emancipación social. Siglo XXI.
De Waal, Frans. (2016). Are we smart enough to know how smart animals are? WW Norton.
De Waal, Franz. (2016). Primates and philosophers: How morality evolved (S. Macedo & J. Ober, Eds.). Princeton University Press.
Dechter, R., Geffner, H., & Halpern, J. Y. (Eds.). (2010). Heuristics, probability and causality. A tribute to Judea pearl. College Publications.
Degli-Esposti, S. (2023). La ética de la inteligencia artificial. LOS LIBROS DE LA CATARATA.
Del Santo, F., & Gisin, N. (2019). Physics without determinism: Alternative interpretations of classical physics. Physical Review. A, 100(6). https://doi.org/10.1103/physreva.100.062107
Delacroix, S. (2020). Habitual Ethics? Hart Publishing.
Delisle, R. G., & Tierney, J. (2022). Rereading Darwin’s origin of species: The hesitations of an evolutionist. Bloomsbury Academic.
Di Sciullo, A. M., & Boeckx, C. (2011). The Biolinguistic Enterprise: New perspectives on the evolution and nature of the human language faculty. Oxford University Press.
Diderot, D. (1992). Cambridge texts in the history of political thought: Diderot: Political writings (J. H. Mason & R. Wokler, Eds.). Cambridge University Press.
Diderot, D. (2000). Thoughts on the interpretation of nature: And other philosophical works (L. Sandler, Trad.). Clinamen Press.
Diderot, D. (2009). The encyclopedie of Diderot and D’Alembert: Selected articles (J. Lough, Ed.). Cambridge University Press.
Doppelt, G. (2005). Empirical success or explanatory success: What does current scientific realism need to explain? Philosophy of Science, 72(5), 1076–1087. https://doi.org/10.1086/508958
Dupre, J. (1995). The disorder of things: Metaphysical foundations of the disunity of science. Harvard University Press.
Dupré, J. (2006). El legado de Darwin: Qué significa la evolución hoy (M. Rosenberg, Trad.). Katz Editores.
Eastman, T. E., Epperson, M., & Griffin, D. R. (Eds.). (2016). Physics and speculative philosophy: Potentiality in modern science. De Gruyter. https://doi.org/10.1515/9783110451818
Edlow, B. L., Olchanyi, M., Freeman, H. J., Li, J., Maffei, C., Snider, S. B., Zöllei, L., Iglesias, J. E., Augustinack, J., Bodien, Y. G., Haynes, R. L., Greve, D. N., Diamond, B. R., Stevens, A., Giacino, J. T., Destrieux, C., van der Kouwe, A., Brown, E. N., Folkerth, R. D., … Kinney, H. C. (2024). Multimodal MRI reveals brainstem connections that sustain wakefulness in human consciousness. Science Translational Medicine, 16(745). https://doi.org/10.1126/scitranslmed.adj4303
Einstein, A. (2017). Relativity: The special and the General Theory. Fingerprint! Publishing.
Er-Kara, M., Ghadge, A., & Bititci, U. (2020). Modelling the impact of climate change risk on supply chain performance. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3652664
Etzkowitz, H., & Leydesdorff, L. (2000). The dynamics of innovation: from National Systems and “Mode 2” to a Triple Helix of university–industry–government relations. Research Policy, 29(2), 109–123. https://doi.org/10.1016/s0048-7333(99)00055-4
Feenberg, A. (2005). Teoría crítica de la tecnología. CTS - Revista Iberoamericana de Ciencia, Tecnología y Sociedad, Vol. 2 (5), 109-123. https://www.sfu.ca/~andrewf/books/Span_Theoria_Critica_de_la_Tecnologia.pdf
Feldman, D. P. (2019). Chaos and dynamical systems. Princeton University Press.
Fisher, R. (2024, marzo 6). Why it’s proving difficult to define the official dawn of the Anthropocene. BBC. https://www.bbc.com/future/article/20240306-why-its-proving-difficult-to-define-the-official-dawn-of-the-anthropocene
Fisher, R. A. (1999). The genetical theory of natural selection: A complete variorum edition (H. Bennett, Ed.). Oxford University Press.
Foote, M., Hillier, J., Mitchell-Wallace, K., & Jones, M. (2017). Natural catastrophe risk management and modelling: A practitioner’s guide. John Wiley & Sons.
Funaro, D. (2008). Electromagnetism and the structure of matter. World Scientific Publishing.
Futuyma, D. (2009). Evolution (2a ed.). Sinauer Associates.
Futuyma, D., & Kirkpatrick, M. (2017). Evolution (4a ed.). Sinauer Associates.
Gardner, H. (1987). The mind’s new science: A history of the cognitive revolution. Basic Books.
Gardner, H. E. (1984). Frames of mind. Basic Books.
Gazzaniga, M. S. (2010). ¿Qué nos hace humanos?: La explicación científica de nuestra singularidad como especie. Paidós Ibérica, Barcelona.
Gazzaniga, M. S. (2019). El instinto de la conciencia: cómo el cerebro crea la mente. Ediciones Paidós.
Gea-Banacloche, J. (2022). Causality, determinism, and physics. American Journal of Physics, 90(11), 809–816. https://doi.org/10.1119/5.0087017
Gee, H. (2013). The accidental species: Misunderstandings of human evolution. University of Chicago Press.
Gerken, M. (2022). Scientific Testimony: Its roles in science and society. Oxford University Press.
Geschuhn, K. (s/f). Max Planck Society discontinues agreement with Elsevier; stands firm with Projekt DEAL negotiations. Mpg.de. Recuperado el 1 de marzo de 2024, de https://www.mpdl.mpg.de/en/505
Giddens, A., & Sutton, P. W. (2022). Sociología. Alianza Editorial.
Giere, R. N. (1988). Explaining science: A cognitive approach. University of Chicago Press.
Giere, R. N. (1991). Understanding scientific reasoning. Harcourt Brace College.
Giere, R. N. (1999). Science without Laws. University of Chicago Press.
Giere, R. N. (2010). Scientific Perspectivism. University of Chicago Press.
Gil, I. C., & Wulf, C. (Eds.). (2015). Hazardous future: Disaster, representation and the assessment of risk. De Gruyter. https://doi.org/10.1515/9783110406610
Giordano, S. (Ed.). (2018). The freedom of scientific research: Bridging the gap between science and society. Manchester University Press.
Giusti, M., & Andrade Ciudad, L. F. (Eds.). (2019). El conflicto de las facultades: sobre la universidad y el sentido de las humanidades. Pontificia Universidad Católica del Perú.
Gobo, G., & Sena, B. (2022). Questioning and disputing vaccination policies. Scientists and experts in the Italian public debate. Bulletin of Science, Technology & Society, 42(1–2), 25–38. https://doi.org/10.1177/02704676221080928
Goldman, A. I. (1999). Knowledge in a Social World. Clarendon Press.
Grant, R. M. (2013). Nonaka’s ‘dynamic theory of knowledge creation’ (1994): Reflections and an exploration of the ‘ontological dimension’. En Towards Organizational Knowledge (pp. 77–95). Palgrave Macmillan UK.
Graziano, M. (2017). The Spaces Between Us: A story of neuroscience, evolution, and human nature. Oxford University Press.
Greco, D. (2023). Idealization in epistemology: A modest modeling approach. Oxford University Press.
Greene, B. (2011). La realidad oculta: Universos paralelos y las profundas leyes del cosmos. Grupo Planeta (GBS).
Grossi, Partricia, & Kunreuther, H. (Eds.). (2005). Catastrophe modeling: A new approach to managing risk. Kluwer Academic Publishers.
Grout, G. (2022). What are communities of practice? Nursing Older People, 34(2), 15–15. https://doi.org/10.7748/nop.34.2.15.s6
Hacking, I. (1999). The social construction of what? Harvard University Press.
Haldane, J. B. S. (1968). Causes of Evolution. Cornell University Press.
Hallam, R. S. (2022). The evolution of human cleverness. Routledge.
Hammersley, M. (2014). The limits of social science: Causal explanation and value relevance. SAGE.
Hao, K. (2021, mayo 27). Modelos de lenguaje: el nuevo gran problema social de la IA. MIT Technology Review. https://www.technologyreview.es/s/13400/modelos-de-lenguaje-el-nuevo-gran-problema-social-de-la-ia
Haroche, S., & Raimond, J.-M. (2006). Exploring the quantum: Atoms, cavities, and photons. Oxford University Press.
Harris, M. (2001). El desarrollo de la teoria antropologica: Historia de Las teorias de la cultura (12a ed.). Siglo XXI Ediciones.
Harris, M. (2013). ¿Por qué nada funciona? : antropología de la vida cotidiana. Alianza Editorial Sa.
Harris, E. E. (2015). Ancestors in our genome: The new science of human evolution. Oxford University Press.
Harte, J. (2011). Maximum entropy and ecology: A theory of abundance, distribution, and energetics. Oxford University Press.
Hawking, S., & Mlodinow, L. (2010). The Grand Design. Random House.
Hazlett, A. (2013). A luxury of the understanding: On the value of true belief. Oxford University Press.
Heard, E., & Martienssen, R. A. (2014). Transgenerational epigenetic inheritance: Myths and mechanisms. Cell, 157(1), 95–109. https://doi.org/10.1016/j.cell.2014.02.045
Heisenberg, W. (2000). Physics and philosophy: The revolution in modern science. Penguin Classics.
Herzog, & Herzog, of P. P. D. (2023). Citizen Knowledge: Markets, experts, and the infrastructure of democracy. Oxford University Press.
Hessen, J. (2006). Teoria del Conocimiento. Losada.
Hilgartner, S. (1997). The Sokal affair in context. Science, Technology & Human Values, 22(4), 506–522. https://doi.org/10.1177/016224399702200404
Hoggan, J. (2009). Climate cover-up: The crusade to deny global warming. Greystone Books.
Homer-Dixon, T. (2007). The Upside of Down: Catastrophe, creativity and the renewal of civilization. National Geographic Books.
Honderich, T. (Ed.). (2005). The oxford companion to philosophy (2a ed.). Oxford University Press.
Hooker, C. (2011). Introduction to philosophy of complex systems. En Philosophy of Complex Systems (pp. 841–909). Elsevier.
Hookway, C. (1999). Peirce-Arg Philosophers. Routledge.
Hörhold, M., Münch, T., Weißbach, S., Kipfstuhl, S., Freitag, J., Sasgen, I., Lohmann, G., Vinther, B., & Laepple, T. (2023). Modern temperatures in central–north Greenland warmest in past millennium. Nature, 613(7944), 503–507. https://doi.org/10.1038/s41586-022-05517-z
Humphreys, P. (1989). The chances of explanation: Causal explanation in the social, medical, and physical sciences. Princeton University Press.
Ingram, S. (2023). Robust realism in ethics: Normative arbitrariness, interpersonal dialogue, and moral objectivity. Oxford University Press.
Ioannidis, J. P. A., Klavans, R., & Boyack, K. W. (2018). Thousands of scientists publish a paper every five days. Nature, 561(7722), 167–169. https://doi.org/10.1038/d41586-018-06185-8
James-McAlpine, J., Larkins, S., & Nagle, C. (2023). Exploring the evidence base for Communities of Practice in health research and translation: a scoping review. Health Research Policy and Systems, 21(1). https://doi.org/10.1186/s12961-023-01000-x
Jasanoff, S. (2007). Technologies of humility. Nature, 450(7166), 33–33. https://doi.org/10.1038/450033a
Jelfs, P., & Smith, H. L. (2022). A comparative study of the survival of university spin-off companies (USOs) in the post-industrial UK West Midlands region. Studies in Higher Education, 47(10), 2117–2126. https://doi.org/10.1080/03075079.2022.2122663
Jensen, P. (2017). The ethology of domestic animals: An introductory text.
Jones, K. M. L., Stephens, M., Branch-Mueller, J., & de Groot, J. (2016). Community of practice or affinity space: A case study of a professional development MOOC. Education for information, 32(1), 101–119. https://doi.org/10.3233/efi-150965
Judson, H. F. (2004). The Great Betrayal: Fraud in Science. Houghton Mifflin.
Kaku, M. (2018). The future of humanity: Terraforming Mars, interstellar travel, immortality, and our Destiny beyond earth. Anchor.
Kellam, H., Cook, C., Smith, D. L., & Haight, P. (2023). The virtual community of practice facilitation model: A conceptual framework for healthcare professional education. International journal of technology and human interaction, 19(1), 1–14. https://doi.org/10.4018/ijthi.328578
Keller, A. (1988). Teoría general del conocimiento. Herder.
Kellert, S. H. (1994). In the wake of chaos: Unpredictable order in dynamical systems. University of Chicago Press.
Kelly, T. (2022). Bias: A Philosophical Study. Oxford University Press.
Kemp, L., Xu, C., Depledge, J., Ebi, K. L., Gibbins, G., Kohler, T. A., Rockström, J., Scheffer, M., Schellnhuber, H. J., Steffen, W., & Lenton, T. M. (2022). Climate Endgame: Exploring catastrophic climate change scenarios. Proceedings of the National Academy of Sciences of the United States of America, 119(34). https://doi.org/10.1073/pnas.2108146119
Kim, J. (2019). Philosophy of mind (3a ed.). Routledge.
Kimura, M. (1969). The rate of molecular evolution considered from the standpoint of population genetics. Proceedings of the National Academy of Sciences of the United States of America, 63(4), 1181–1188. https://doi.org/10.1073/pnas.63.4.1181
Kimura, M. (1983). The neutral theory of molecular evolution. Cambridge University Press.
Kolbert, E. (2014). La sexta extinción: una historia nada natural. Grupo Planeta (GBS).
Kornblith, H. (2014). A naturalistic epistemology: Selected papers. Oxford University Press.
Kosso, P. (2000). The empirical status of symmetries in physics. The British Journal for the Philosophy of Science, 51(1), 81–98. https://doi.org/10.1093/bjps/51.1.81
Kuhn, T. S. (1996). La revolución copernicana: la astronomía planetaria en el desarrollo del pensamiento. Ariel, Barcelona.
Kuhse, H., & Singer, P. (2009). A companion to bioethics (H. Kuhse & P. Singer, Eds.; 2a ed.). Wiley-Blackwell.
Kumar, V., & Campbell, R. (2022). A Better Ape: The evolution of the moral mind and how it made us human. Oxford University Press.
Kumar, Y. V., Srija, K., Snehitha, L., & Sunkara, L. K. (2023). The impact of climate change on international business strategies. International journal for research in applied science and engineering technology, 11(7), 461–465. https://doi.org/10.22214/ijraset.2023.54687
Lackey, J. (Ed.). (2021). Applied Epistemology. Oxford University Press.
Ladyman, J., Lambert, J., & Wiesner, K. (2013). What is a complex system? European Journal for Philosophy of Science, 3(1), 33–67. https://doi.org/10.1007/s13194-012-0056-8
Lahenius, K. (2012). Communities of practice supporting doctoral studies. The International Journal of Management Education, 10(1), 29–38. https://doi.org/10.1016/j.ijme.2012.02.003
Lane, N. (2015). The Vital Question: Why is life the way it is? Profile Books.
Larivière, V., Haustein, S., & Mongeon, P. (2015). The oligopoly of academic publishers in the digital era. PloS One, 10(6), e0127502. https://doi.org/10.1371/journal.pone.0127502
Larson, H. J., de Figueiredo, A., Xiahong, Z., Schulz, W. S., Verger, P., Johnston, I. G., Cook, A. R., & Jones, N. S. (2016). The state of vaccine confidence 2016: Global insights through a 67-country survey. EBioMedicine, 12, 295–301. https://doi.org/10.1016/j.ebiom.2016.08.042
Latour, B. (2018). Down to earth: Politics in the new climatic regime. Polity Press.
Latour, B. (2019). Dónde aterrizar. Taurus.
Latour, B., & Woolgar, S. (1986). Laboratory life: The construction of scientific facts (J. Salk, Ed.). Princeton University Press.
Laudan, L. (2012). Science and relativism: Some key controversies in the philosophy of science. University of Chicago Press.
Lawler, P. A., & Guerra, M. D. (Eds.). (2016). Science, virtue, and the future of humanity. Lexington Books.
Leavis, F. R. (2013). Canto classics: Two cultures?: The significance of C. p. snow. Cambridge University Press.
Lenski, G. (2005). Ecological-evolutionary theory: Principles and applications. Paradigm.
Lenski, R. E. (2013). The Princeton guide to evolution (D. A. Baum, D. J. Futuyma, H. E. Hoekstra, A. J. Moore, C. L. Peichel, D. Schluter, & M. Whitlock, Eds.). Princeton University Press.
Levitsky, S., & Ziblatt, D. (2018). Cómo mueren las democracias. Editorial Ariel.
Lind, M. (2020). The new class war the new class war: Saving democracy from the metropolitan elite. Atlantic Books.
Lonsdorf, E. V., Ross, S. R., & Matsuzawa, T. (Eds.). (2010). The mind of the chimpanzee: Ecological and experimental perspectives. University of Chicago Press.
López-Cózar, E., Salinas, D., & López, Á. (2007). El fraude en la ciencia: reflexiones a partir del caso Hwang. El profesional de la información, 16(2), 143–150. https://doi.org/10.3145/epi.2007.mar.07
Lord, E. (2022). The importance of being rational the importance of being rational. Oxford University Press.
Losos, J. B., Baum, D. A., Futuyma, D. J., Hoekstra, H. E., Lenski, R. E., Moore, A. J., Peichel, C. L., Schluter, D., & Whitlock, M. C. (Eds.). (2017). The Princeton guide to evolution. Princeton University Press. https://doi.org/10.1515/9781400848065
Lund, A. (2017). The ideological formations take shape. En Wikipedia, Work and Capitalism (pp. 263–329). Springer International Publishing.
Lynch, M. P. (2020). Know-it-all society: Truth and arrogance in political culture. Liveright Publishing Corporation.
Machamer, P., & Silberstein, M. (2002). The Blackwell guide to the philosophy of science. Wiley-Blackwell.
Mainzer, K. (2007). Thinking in complexity: The computional dynamics of matter, mind, and mankind (5a ed.). Springer.
Margulis, L. (1999). The symbiotic planet: A new look at evolution. Phoenix.
Margulis, L., & Chapman, M. J. (2009). Kingdoms and domains: An illustrated guide to the phyla of life on earth (4a ed.). Academic Press.
Margulis, L., & Sagan, D. (2000). What is life? University of California Press.
Margulis, L., & Sagan, D. (2008). Acquiring genomes: A theory of the origin of species. Basic Books.
Margulis, L., & Sagan, D. (2017). Privatopia. Yale University Press.
Margulis, L., & Sagan, D. (2023). Microcosmos: Four billion years of microbial evolution. University of California Press. https://doi.org/10.1525/9780520340510
Marín, B. (2011, abril 6). El “anumerismo” también es incultura. Ediciones EL PAÍS S.L. https://elpais.com/diario/2011/04/06/sociedad/1302040801_850215.html
Martínez, M. (2013). Causalidad y la Síntesis extendida: nuevos marcos conceptuales para la biología del siglo XXI. Revista de Filosofia Aurora, 25(36), 129. https://doi.org/10.7213/revistadefilosofiaaurora.7768
Massimi, M. (2022). Perspectival Realism. Oxford University Press.
Mayr, E. (1985). The growth of biological thought: Diversity, evolution, and inheritance. Belknap Press.
Mayr, E. (1988). Toward a new philosophy of biology: Observations of an evolutionist. Harvard University Press.
McHugh, C., & Jonathan Way. (2022). Getting things right: Fittingness, reasons, and value. Oxford University Press.
McIntyre, L. (2018). Post-truth. MIT Press.
McIntyre, L. (2021). The hidden dangers of fake news in post-truth politics. Revue internationale de philosophie, n° 297(3), 113–124. https://doi.org/10.3917/rip.297.0113
McKiernan, E. C., Schimanski, L. A., Muñoz Nieves, C., Matthias, L., Niles, M. T., & Alperin, J. P. (2019). Use of the Journal Impact Factor in academic review, promotion, and tenure evaluations. En PeerJ. https://doi.org/10.7287/peerj.preprints.27638v2
Melossi, D. (2018). Controlar el delito controlar la sociedad : teorías y debates sobre la cuestión criminal, del siglo xviiial siglo xxi. SIGLO XXI EDITORES.
Metzger, M. J., Dick, J., Gardner, A., Bellamy, C., Blackstock, K., Brown, C., Chisholm, R., Cochrane, P., Drewitt, J., Gimona, A., Hester, A., Mathieson, S., Nijnik, M., McVittie, A., Petr, M., Smith, R., & Smith, M. (2019). Knowledge sharing, problem solving and professional development in a Scottish Ecosystem Services Community of Practice. Regional Environmental Change, 19(8), 2275–2286. https://doi.org/10.1007/s10113-019-01537-0
Mirjalili, S. (2018). Evolutionary algorithms and neural networks: Theory and applications (1a ed.). Springer International Publishing.
Mirowski, P. (2011). Science-mart: Privatizing American science. Harvard University Press.
Mitchell, M. (2011). Complexity: A guided tour. OUP.
Mitchell, M. (2019). Artificial Intelligence: A guide for thinking humans. Farrar, Straus and Giroux.
Mizumoto, M., Ganeri, J., & Goddard, C. (Eds.). (2022). Ethno-epistemology: New directions for global epistemology. Routledge.
Moerland, R., Nelen, H., & Willems, J. C. M. (2016). Denialism and Human Rights. Intersentia.
Moreno, A., & Ruiz-Mirazo, K. (2011). The informational nature of biological causality. En Information and Living Systems (pp. 157–176). The MIT Press.
Moreno Muñoz, M. (2021). Negacionismo y conflicto social. Gazeta de antropología. https://doi.org/10.30827/digibug.70333
Morin, E. (1995). Introduccion Al pensamiento complejo. Gedisa Editorial.
Mornet, D. (1988). El pensamiento francés en el siglo XVIII: El trasfondo intelectual de la Revolución francesa. Encuentro.
Mounk, Y. (2018). The People vs. Democracy: Why Our Freedom is in Danger and How to Save it. Harvard University Press.
Mounk, Y. (2022). The Great Experiment: Why diverse democracies fall apart and how they can endure. Penguin.
Mounk, Y. (2023). The identity trap: A story of ideas and power in our time. Penguin Press.
Moynihan, M. (2015). The new world primates: Adaptive radiation and the evolution of social behavior, languages, and intelligence. Princeton University Press. https://doi.org/10.1515/9781400870448
Muir-Wood, R. (2016). The Cure for Catastrophe. Basic Books.
Myers, K., Trull, L. H., Bryson, B. J., & Yeom, H. S. (2019). Affinity groups: Redefining brave spaces. Journal of Baccalaureate Social Work, 24(1), 1–18. https://doi.org/10.18084/1084-7219.24.1.1
Nagel. (2023). Moral feelings Moral Reality and Moral Progress. Oxford University Press.
Narvaez, D., Panksepp, J., Schore, A. N., & Gleason, T. R. (Eds.). (2012). Evolution, early experience and human development: From research to practice and policy. Oxford University Press.
Narváez, D., Valentino, K., Fuentes, A., McKenna, J. J., & Gray, P. (2014). Ancestral Landscapes in Human Evolution: Culture, childrearing and social wellbeing. Oxford University Press.
Newman, S. A. (2007). Evolution in four dimensions: Genetic, epigenetic, behavioral and symbolic variation in the history of life. Eva Jablonka and Marion lamb. Integrative and Comparative Biology, 47(6), 901–903. https://doi.org/10.1093/icb/icm099
Newson, L., & Richerson, P. (2021). A Story of Us: A new look at human evolution. Oxford University Press.
Nichols, T. (2024). The death of expertise: The Campaign against Established Knowledge and Why it Matters. Oxford University PressNew York. https://doi.org/10.1093/oso/9780197763827.001.0001
Nissen, L. (1997). Teleological language in the life sciences. Rowman & Littlefield.
Oliveira, L. R. G. (Ed.). (2023). Externalism about Knowledge. Oxford University Press.
Olson, R. (2009). Don’t be such a scientist: Talking substance in an age of style. Island Press.
Olson, R. (2018). Don’t be such a scientist: Talking substance in an age of style. Island Press/Center for Resource Economics.
Ord, T. (2020). The precipice the precipice: Existential risk and the future of humanity. Hachette Books.
Oreskes, N. (2021). Why trust science? (S. Macedo, Ed.). Princeton University Press.
Oreskes, N., & Conway, E. M. (2015). Merchants of doubt: How a handful of scientists obscured the truth on issues from tobacco smoke to global warming. Bloomsbury Press.
Pankratz, N. M. C., & Schiller, C. M. (2022). Climate change and adaptation in global supply-chain networks. Finance and economics discussion series, 2022(056). https://doi.org/10.17016/feds.2022.056
Papers y más papers: las sombras en la industria de las publicaciones científicas. (s/f). www.elsaltodiario.com. Recuperado el 1 de marzo de 2024, de https://www.elsaltodiario.com/universidad/papers-y-mas-papers-las-sombras-en-la-industria-de-las-publicaciones-cientificas
Parker, L., & Toms, D. (2009). Cambridge monographs on mathematical physics: Quantum field theory in curved spacetime: Quantized fields and gravity. Cambridge University Press.
Patole, S. (Ed.). (2021). Principles and practice of systematic reviews and meta-analysis (1a ed.). Springer Nature.
Patton, K., & Parker, M. (2017). Teacher education communities of practice: More than a culture of collaboration. Teaching and Teacher Education, 67, 351–360. https://doi.org/10.1016/j.tate.2017.06.013
Paul, T., & Margulis, J. (2016). The Vaccine-Friendly Plan. Ballantine Books.
Paulos, J. A. (1994). El hombre anumerico. TusQuets.
Pausas, J. G., & Leverkus, A. B. (2023). Disturbance ecology in human societies. People and Nature (Hoboken, N.J.). https://doi.org/10.1002/pan3.10471
Peirce, C. S. (2012a). Obra filosófica reunida. Tomo I (1867-1893). Fondo de Cultura Economica.
Peirce, C. S. (2012b). Obra filosófica reunida. Tomo II (1893-1913). Fondo de Cultura Economica.
Pence, C. H. (2021). The causal structure of natural selection. Cambridge University Press.
Penrose, R. (2007). The road to reality: A complete guide to the laws of the universe. Random House.
Pettigrew, R. (2022). Epistemic risk and the demands of rationality. Oxford University Press.
Pigliucci, M., Murren, C. J., & Schlichting, C. D. (2006). Phenotypic plasticity and evolution by genetic assimilation. The Journal of Experimental Biology, 209(12), 2362–2367. https://doi.org/10.1242/jeb.02070
Pinillos, N. A. (2023). Why we doubt: A cognitive account of our skeptical inclinations. Oxford University Press.
Pinker, S. (2018). En defensa de la Ilustración. Espasa Libros, S. L. U., Barcelona.
Pinker, S. (2021). Rationality: What it is, why it seems scarce, why it matters. Viking.
Pluckrose, H., & Lindsay, J. A. (2020). Cynical theories: How activist scholarship made everything about race, gender, and identity--and why this harms everybody. Pitchstone Publishing.
Popper, K. (2011). The open society and its enemies. Routledge (Ed. esp.: La Sociedad Abierta y Sus Enemigos. Ediciones Paidos Iberica, 2006).
Posner, R. A. (2004). Catastrophe: Risk and Response. Oxford University Press.
Possati, L. M. (Ed.). (2023). Humanizing artificial intelligence: Psychoanalysis and the problem of control. De Gruyter.
Prigogine, I. (1996). El fin de las certidumbres. Andres Bello.
Prigogine, I., & Stengers, I. (1993). La Nueva Alianza. Alianza.
Prokop, D., Huggins, R., & Bristow, G. (2019). The survival of academic spinoff companies: An empirical study of key determinants. International Small Business Journal, 37(5), 502–535. https://doi.org/10.1177/0266242619833540
Proudfoot, M., & Lacey, A. R. (2009). The Routledge dictionary of philosophy (4a ed.). Routledge.
Psillo, S. (2008). The Routledge companion to philosophy of science (M. Curd & S. Psillos, Eds.). Routledge. https://doi.org/10.4324/9780203000502
Quammen, D. (2007). The reluctant Mr. Darwin: An intimate portrait of Charles Darwin and the making of his theory of evolution. WW Norton.
Quammen, D. (2012). Spillover: Animal infections and the next human pandemic. WW Norton.
Quammen, D. (2018). The tangled tree: A radical new history of life. Simon & Schuster.
Radia, P., Winters, S. F., & Kruk, L. (Eds.). (2019). The future of humanity: Revisioning the human in the posthuman age. Rowman & Littlefield International.
Rauch, J. (2021). The constitution of knowledge the constitution of knowledge: A defense of truth. Brookings Institution Press.
Rees, M. (2004). Our final hour: A scientist’s warning. Basic Books.
Rees, M. (2018). On the future: Prospects for humanity. Princeton University Press.
Rescher, N. (2020). Complexity: A philosophical overview. Routledge.
Ritzer, G. (1991). Classic theory in sociology. McGraw-Hill.
Rodeiro-Pazos, D., Fernández-López, S., Rodríguez-Gulías, M. J., & Dios-Vicente, A. (2021). Size and survival: An analysis of the university spin-offs. Technological Forecasting and Social Change, 171(120953), 120953. https://doi.org/10.1016/j.techfore.2021.120953
Rodríguez, D. L. (2022). Historia del globalismo: una filosofía de la historia del Nuevo Orden Mundial.
Rodríguez-Pina, G. (2024, marzo 29). Donald Tusk: “Estamos en una época de preguerra. No exagero”. Ediciones EL PAÍS S.L. https://elpais.com/internacional/2024-03-29/donald-tusk-estamos-en-una-epoca-de-preguerra-no-exagero.html
Rosenberg, A. (2005). Philosophy of science: A contemporary introduction (2a ed.). Routledge. https://doi.org/10.4324/9780203087060
Rosenberg, S. (2019). Democracy devouring itself: The rise of the incompetent citizen and the appeal of right wing populism. https://escholarship.org/uc/item/8806z01m
Rosenblum, N. L., & Muirhead, R. (2020). A lot of people are saying A lot of people are saying: The new conspiracism and the assault on democracy. Princeton University Press.
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control. Penguin.
Salmon, W. C. (2020). Scientific explanation and the causal structure of the world. Princeton University Press. https://doi.org/10.2307/j.ctv173f2gh
Schaub, M., & Kéry, M. (2021). Integrated population models: Theory and ecological applications with R and JAGS. Academic Press.
Schimel, J. (2023). Professional Communities. En Your Future on the Faculty (pp. 160–165). Oxford University PressNew York.
Schluter, D. (2000). The ecology of adaptive radiation. Oxford University Press.
Schneider, S. H., Miller, J. R., Crist, E., & Boston, P. J. (Eds.). (2004). Scientists debate Gaia: The next century. MIT Press.
Schoener, T. W. (2011). The newest synthesis: Understanding the interplay of evolutionary and ecological dynamics. Science (New York, N.Y.), 331(6016), 426–429. https://doi.org/10.1126/science.1193954
Schuklenk, U., & Singer, P. (2021). Bioethics: An Anthology (U. Schuklenk & P. Singer, Eds.; 4a ed.). Standards Information Network.
Schuklenk, U., & Singer, P. (Eds.). (2022). Bioethics: An Anthology (4a ed.). Wiley-Blackwell.
Scolari, C. A. (2023, abril 1). ChatpGPT: del Test de Turing al Test de Baricco. Hipermediaciones. https://hipermediaciones.com/2023/04/01/baricco-turing-chatgpt/
Selwyn, N. (2014). Internet y educación. OpenMind. https://www.bbvaopenmind.com/articulos/internet-y-educacion/
Sen, R. N. (2010). Cambridge monographs on mathematical physics: Causality, measurement theory and the differentiable structure of space-time. Cambridge University Press.
Shackelford, T. K., & Hansen, R. D. (Eds.). (2015). The evolution of morality (1a ed.). Springer International Publishing.
Shannon, C. E. (1948). A mathematical theory of communication. The Bell System Technical Journal, 27(3), 379–423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x
Sierra, A. Q. (2018). Ensayo y error. Arturo Quirantes.
Simpson, P. T. W. (2023). Trust: A philosophical study.
Singer, P. (Ed.). (2016). Bioethics: An Anthology. Wiley Blackwell.
Sinha, C., Lock, A., & Gontier, N. (2024). Oxford Handbook of Human Symbolic Evolution. Oxford University Press.
Sismondo, S. (2021). Epistemic corruption, the pharmaceutical industry, and the body of medical science. Frontiers in research metrics and analytics, 6. https://doi.org/10.3389/frma.2021.614013
Smith, K. (2021). PERSPECTIVISM: A contribution to the philosophy of the social sciences.
Smithies, D. (2023). The epistemic role of consciousness the epistemic role of consciousness. Oxford University Press.
Smolin, L. (1997). The life of the cosmos. Oxford University Press.
Smolin, L. (2006). The trouble with physics: The rise of string theory, the fall of a science, and what comes next. Houghton Mifflin.
Snow, C. P. (1969). The two cultures and a second look: An expanded version of the two cultures and the scientific revolution. Cambridge University Press.
Snow, C. P. (2000). Las DOS culturas. Nueva Vision.
Snyder, T. (2018). The road to unfreedom: Russia, Europe, America. Tim Duggan Books.
Sokal, A. (1998). Beyond the hoax: Science, philosophy and culture. Oxford University Press.
Sokal, A. (1999). Fashionable nonsense: Postmodern intellectuals’ abuse of science. St Martin’s Press.
Sosa, E. (2007). A virtue epistemology: Apt belief and reflective knowledge, volume I. Clarendon Press.
Sosa, E. (2017). Epistemology. Princeton University Press.
Star, D. (Ed.). (2022). Oxford handbook of reasons and normativity. Oxford University Press.
Steffen, W., Rockström, J., Richardson, K., Lenton, T. M., Folke, C., Liverman, D., Summerhayes, C. P., Barnosky, A. D., Cornell, S. E., Crucifix, M., Donges, J. F., Fetzer, I., Lade, S. J., Scheffer, M., Winkelmann, R., & Schellnhuber, H. J. (2018). Trajectories of the Earth System in the anthropocene. Proceedings of the National Academy of Sciences of the United States of America, 115(33), 8252–8259. https://doi.org/10.1073/pnas.1810141115
Steinbock, B. (Ed.). (2007). The oxford handbook of bioethics. Oxford University Press.
Stepke, F. L. (2002). Temas de bioética: una introducción. Editorial Universitaria.
Sterelny, K. (2021). The Pleistocene social contract: Culture and cooperation in human evolution. Oxford University Press.
Sumathi, S., Hamsapriya, T., & Surekha, P. (2008). Evolutionary intelligence: An introduction to theory and applications with matlab. Springer.
Summers, K., & Crespi, B. (2013). Human social evolution: The foundational works of Richard D. alexander. OUP.
Sunstein, C. R. (2001). Republic.com. Princeton University Press.
Sunstein, C. R. (2006). Infotopia: How many minds produce knowledge. Oxford University Press.
Sunstein, C. R. (2007). #Republic: Divided Democracy in the Age of Social Media. Princeton University Press.
Supply chain management, disaster and climate change. (2022). En An integrated governance approach towards a water-energy-food nexus and climate change (pp. 369–380). Edward Elgar Publishing.
Supran, G., & Oreskes, N. (2017). Assessing ExxonMobil’s climate change communications (1977–2014). Environmental research letters, 12(8), 084019. https://doi.org/10.1088/1748-9326/aa815f
Susskind, L., & Friedman, A. (2015). Quantum mechanics: The theoretical minimum. Penguin Books.
Svensson, E. I. (2018). On reciprocal causation in the evolutionary process. Evolutionary Biology, 45(1), 1–14. https://doi.org/10.1007/s11692-017-9431-x
Tallis, R. (1995). Newton’s sleep: The two cultures and the two kingdoms (1995a ed.). Palgrave Macmillan.
Tapscott, D. (2014). The digital economy ANNIVERSARY EDITION: Rethinking promise and peril in the age of networked intelligence (2a ed.). McGraw-Hill Professional.
Teitelboim, C., & Zanelli, J. (Eds.). (2000). Black holes and the structure of the universe. World Scientific Publishing Co. Pte. Ltd.
Tejera-Hernández, D. C., Ciudad-Ricardo, F. A., & Libotton, A. (2018). Participation in software projects as professional communities of practice: A model. Proceedings of the Sixth International Conference on Technological Ecosystems for Enhancing Multiculturality.
Terry, D. R., Nguyen, H., Peck, B., Smith, A., & Phan, H. (2020). Communities of practice: A systematic review and meta‐synthesis of what it means and how it really works among nursing students and novices. Journal of Clinical Nursing, 29(3–4), 370–380. https://doi.org/10.1111/jocn.15100
The causes of evolution. (1933). Nature, 131(3316), 709–710. https://doi.org/10.1038/131709a0
The Two Cultures: A Second Look (1963). (2012). En The Two Cultures (pp. 53–100). Cambridge University Press.
Thellefsen, T., & Sorensen, B. (Eds.). (2014). Charles sanders Peirce in his own words: 100 Years of semiotics, communication and cognition. De Gruyter Mouton.
Thomas, A. (1996). Michael Bradie, the secret chain: Evolution and ethics. Albany, NY, state university of New York press, 1994, cloth 14.95 Paul Thompson, (ed.), issues in evolutionary ethics. Albany, NY, state university of New York press, 1994, cloth 24.95. The British Journal for the Philosophy of Science, 47(2), 317–319. https://doi.org/10.1093/bjps/47.2.317
Thomas, P., & Margulis, J. (2016). The Vaccine-Friendly Plan: Dr. Paul’s safe and effective approach to immunity and health-from pregnancy through your child’s teen years. Ballantine Books.
Thompson, J. N. (1994). The Coevolutionary Process (2a ed.). University of Chicago Press.
Thompson, J. N. (2005). The geographic mosaic of coevolution. University of Chicago Press.
Titelbaum, M. G. (2022). Fundamentals of Bayesian epistemology 2: Arguments, challenges, alternatives. Oxford University Press.
Tomasello, M. (2001). The cultural origins of human cognition. Harvard University Press.
Tomasello, M. (2003). Constructing a language: A usage-based theory of language acquisition. Harvard University Press.
Tomasello, M. (2014). A natural history of human thinking. Harvard University Press.
Tomasello, M. (2016). A natural history of human morality. Harvard University Press.
Tomasello, M. (2019). Becoming Human: A theory of ontogeny. Harvard University Press.
Torné, G. (2017). La Enciclopedia: Breve antología de las entradas más significativas del magno proyecto que dirigieron Diderot y D’Alembert. Debate.
Tsapos, M. (2023). Who is a conspiracy theorist? Social Epistemology, 37(4), 454–463. https://doi.org/10.1080/02691728.2023.2172695
Turner, J. H. (1978). The structure of sociological theory. Dorsey Press; R.
Turner, J. S. (2018). Purpose and desire: What makes something “alive” and why modern Darwinism has failed to explain it. HarperCollins.
Ungar, P. (2017). Evolution’s bite: A story of teeth, diet, and human origins. Princeton University Press.
van Strien, M. (2021). Was physics ever deterministic? The historical basis of determinism and the image of classical physics. The European Physical Journal H, 46(1). https://doi.org/10.1140/epjh/s13129-021-00012-x
Vierkant, T. (2022). The tinkering mind the tinkering mind: Agency, cognition, and the extended mind (1a ed.). Oxford University Press.
Voss, R. S., & Jansa, S. A. (2021). Opossums: An adaptive radiation of new world marsupials. Johns Hopkins University Press. https://doi.org/10.1353/book.82525
Wai Yie Leong, & Leong, W. Y. (2022). Human machine collaboration and interaction for smart manufacturing: Automation, robotics, sensing, artificial intelligence, 5G, IoTs and blockchain. Control, Robotics and Sensors. The Institution of Engineering and Technology.
Wallace-Wells, D. (2019). The uninhabitable earth: Life after warming. Tim Duggan Books.
Walther, J., Porenta, D., Wilbie, D., Seinen, C., Benne, N., Yang, Q., de Jong, O. G., Lei, Z., & Mastrobattista, E. (2024). Comparative analysis of lipid Nanoparticle-Mediated delivery of CRISPR-Cas9 RNP versus mRNA/sgRNA for gene editing in vitro and in vivo. European Journal of Pharmaceutics and Biopharmaceutics: Official Journal of Arbeitsgemeinschaft Für Pharmazeutische Verfahrenstechnik e.V, 196(114207), 114207. https://doi.org/10.1016/j.ejpb.2024.114207
Ward, I. (2015). Literature and Human Rights: The law, the language and the limitations of Human Rights discourse. ISSN.
Weiner, J. S. (2003). The Piltdown Forgery: Fiftieth Anniversary edition, with a new Introduction and Afterword by Chris Stringer. Oxford University Press.
Whitlock, M. C., & Schluter, D. (2019). The analysis of biological data (3a ed.). W. H. Freeman.
Wilson, E. O. (1998). Consilience: The unity of knowledge. Vintage Books.
Wilson, E. O. (1999). Consilience: la unidad del conocimiento. Galaxia Gutenberg.
Wilson, E. O. (2016). Half-earth: Our planet’s fight for life. Liveright Publishing Corporation.
Wilson, E. O. (2020). Génesis: El origen de las sociedades. Editorial Crítica.
Wood, B. (2005). Human evolution: A very short introduction. Oxford University Press.
Woolhouse, M. E. J., Webster, J. P., Domingo, E., Charlesworth, B., & Levin, B. R. (2002). Biological and biomedical implications of the co-evolution of pathogens and their hosts. Nature Genetics, 32(4), 569–577. https://doi.org/10.1038/ng1202-569
Wright, S. (1990). Evolution in mendelian populations. Bulletin of Mathematical Biology, 52(1–2), 241–295. https://doi.org/10.1007/bf02459575
Yong, E. (2016). I contain multitudes: The microbes within us and a grander view of life. Ecco Press.
Zaretsky, R. (2019). Catherine & Diderot: The empress, the philosopher, and the fate of the enlightenment. Harvard University Press.
Zeihan, P. (2022). The End of the world is Just the beginning: Mapping the collapse of globalization. HarperBusiness.
Zhuravlev, A., & Riding, R. (Eds.). (2000). The ecology of the Cambrian radiation. Columbia University Press. https://doi.org/10.7312/zhur10612