Historia de la física moderna
"Los secretos del átomo"
A finales del siglo XIX estaba claro que la idea propuesta en 1808 por el químico inglés John Dalton (1766-1844), que el átomo era una partícula única e indivisible, estaba equivocada. Ya se había descubierto una partícula subatómica, el electrón, y las investigaciones realizadas entre 1906 y 1908 por el científico de origen neozelandés Ernest Rutherford (1871-1937) demostraban que el átomo es un objeto verdaderamente extraordinario. Uno de sus experimentos consistió en disparar átomos de helio contra finas láminas de oro o platino. Casi todos las atravesaban limpiamente, pero unos pocos se desviaban, como si hubieran chocado con algo sólido. Rutherford llegó a la conclusión de que el átomo constaba de un pequeño núcleo (que ahora se sabe que ocupa sólo una cienmilésima del volumen del átomo) rodeado por electrones.
El átomo de Rutherford representaba un gran paso adelante, que por fin empezaba a explicar las propiedades de los elementos. Según Rutherford, el núcleo del átomo estaba formado por protones con carga eléctrica positiva, equilibrada por la carga negativa de los electrones que giraban en una especie de órbita en torno a los protones. En 1934 el físico británico James Chadwick (1891-1974) descubrió otra partícula, el neutrón, que tiene la misma masa que el protón, pero carece de carga eléctrica. Dedujo que el núcleo estaba formado por protones y neutrones.
En la ciencia, lo simple no suele durar mucho. Los químicos se habían mostrado encantados con los átomos, e incluso con los átomos formados por dos clases de partículas, y ahora tenían que aceptar tres. Pero la cosa no se detuvo ahí. En 1930, el físico británico Paul Dirac (1902-1984) había sugerido, basándose en un análisis matemático, que cada partícula debía tener su correspondiente «antipartícula», igual en masa, pero con carga opuesta. Dos años después, el estadounidense Carl Anderson (1905-1991) descubría el «antielectrón» o positrón, demostrando que Dirac tenía razón. El inventario de partículas empezaba a crecer, obligando a los científicos a elaborar un modelo que las incorporara a todas y al mismo tiempo explicara cómo se construye la materia.
Los científicos han continuado este proceso hasta nuestros días, utilizando aceleradores de partículas, cada vez más potentes, para hacer chocar unas partículas con otras y observar los resultados. Los teóricos han tomado la delantera. Sus modelos sugieren la posible existencia de nuevas partículas, que luego los experimentadores procuran encontrar. El actual modelo del átomo, basado en los quarks y los gluones, se conoce como «modelo estándar» y hasta ahora ha superado todas las pruebas experimentales.
Teoría cuántica
En la ciencia existen estilos nacionales, y en el siglo XIX los científicos británicos se interesaron especialmente por la continuidad de la materia y la energía, mientras que los alemanes preferían estudiar las partículas. El escocés James Clerk Maxwell (1831-1879) pensaba que la radiación de energía por los objetos calientes era un fenómeno ondulatorio, pero el 14 de noviembre de 1900, el físico alemán Max Planck (1858-1947), en la reunión de la Sociedad Alemana de Física en Berlín, lee su trabajo titulado "La teoría de la ley de distribución de energía del espectro normal". Presenta una derivación teórica de su ley de radiación del cuerpo negro, y establece la teoría de los cuantos: la energía no se propaga de manera continua, sino en forma de «cuantos» o paquetes discretos de energía. En 1905 el alemán Albert Einstein (1879-1955) se basó en la idea de Planck para explicar por qué los metales expuestos a la luz emiten electrones. Aquel mismo año, Einstein formuló también la hipótesis de que la luz se debe a partículas llamadas fotones.
En 1913 el científico danés Niels Bohr (1885-1962) utilizó también la teoría cuántica de Planck para explicar el espectro de luz emitido por los átomos, sugiriendo que los electrones que orbitan en torno al núcleo del átomo sólo pueden ocupar ciertas órbitas, y que el paso de una a otra se caracteriza por emisiones de luz en una frecuencia fija: los espectros de los elementos. Bohr consiguió explicar el espectro del elemento más simple, el hidrógeno.
El principio de incertidumbre
Niels Bohr tuvo dificultades para explicar las propiedades de los átomos mayores que el hidrógeno. Al poco tiempo, los científicos sustituyeron los modelos físicos por modelos matemáticos. En 1924, el físico francés Louis de Broglie (1892-1987) sugirió que la radiación era a la vez una onda y una partícula. Creó la mecánica cuántica, con sus nuevos tratamientos matemáticos, para predecir el comportamiento de los átomos y sus partículas. El austriaco Erwin Schrodinger (1887-1961) decidió que el electrón no debía tratarse como una partícula discreta, sino como la probabilidad de encontrar una partícula en un punto determinado. El alemán Werner Heisenberg (1901-1976) introdujo el “principio de incertidumbre”, que afirma que es imposible conocer la posición y la velocidad de un electrón en un momento dado.
Esta idea tiene importantes implicaciones. Imaginemos un microscopio capaz de hacer visibles los electrones. Para ello, tendría que iluminarlos, pero la luz, o cualquier otra radiación, afectaría a los electrones. No se pueden observar sin alterarlos. Existe un límite para la investigación física: el comportamiento de la materia no es determinista, sino estadístico.
Teoría especial de la relatividad
En 1905 Albert Einstein publicó su teoría especial de la relatividad, en la que sostenía que la luz viaja por el espacio en forma de fotones, también afirmaba que la velocidad de la luz en el vacío es invariable, e independiente de la velocidad de su fuente. Sus ecuaciones demostraban que la masa aumenta con la velocidad, mientras que el tiempo se acorta con la velocidad, dos conclusiones paradójicas que, no obstante, se han visto confirmadas por experimentos en los que se aceleran partículas subatómicas casi hasta la velocidad de la luz.
Einstein no rebatió las leyes del movimiento formuladas por Newton (1642-1727), que son válidas mientras las velocidades sean moderadas. Pero en condiciones extremas dejan de tener validez y sólo la teoría especial puede explicar la situación. La teoría especial de la relatividad de Albert Einstein transformó las ideas científicas sobre las relaciones entre el tiempo, la materia y el espacio.
Fisión nuclear
Tras el descubrimiento del neutrón por el físico inglés James Chadwick en 1934, los científicos se dedicaron a investigar los elementos bombardeando sus átomos con neutrones. Por lo general, lo que ocurría era que se formaba un nuevo isótopo del elemento, que solía ser inestable y se desintegraba rápidamente. Pero el físico italiano Enrico Fermi (1901-1954) bombardeó el uranio y obtuvo un nuevo elemento.
En Alemania, Otto Hahn (1879-1968) y Lise Meitner (1878-1968) intentaron identificar el nuevo elemento. Pensaban que Fermi había producido radio, pero los análisis no lograban confirmarlo. Entonces Meitner se dio cuenta de que estaba teniendo lugar una forma de desintegración nuclear completamente nueva. Los neutrones estaban partiendo en dos el núcleo del uranio, y lo que se formaba no era radio, sino “bario radiactivo”, un elemento mucho más ligero. Meitner llamó a este proceso: fisión nuclear.
Meitner y Hahn habían descubierto que el núcleo del uranio era distinto a todos los demás. Era tan grande que estaba a punto de fraccionarse en dos; bastaba con una pequeña sacudida. Pero lo trascendental del descubrimiento era que aquella fisión producía una enorme cantidad de energía, y que al fragmentarse el núcleo del uranio desprendía dos o tres neutrones, capaces de provocar sucesivas fisiones en los átomos vecinos. Si se disponía de suficiente uranio, el proceso se autoalimentaría de forma explosiva, pudiéndose utilizar como una bomba extremadamente potente.
La bomba atómica
El descubrimiento de la fisión nuclear tuvo lugar en 1939, en vísperas de la segunda guerra mundial. En ambos bandos, los físicos realizaban frenéticos cálculos. El uranio tenía dos isótopos (formas químicamente idénticas, con ligeras diferencias de masa y distintas propiedades radiactivas). Los científicos comprendieron que el uranio natural no se podía utilizar en una bomba, porque sólo contiene un 0,7 % del isótopo 235, que es el único capaz de fisionarse. Casi todos los neutrones liberados por la fisión serían captados sin consecuencias por átomos de uranio 238, el isótopo no fisible, y la reacción en cadena se detendría nada más al comenzar. Para poder construir una bomba, sería preciso separar los dos isótopos. Sin embargo, existía otra posibilidad: si se expone uranio 238 a un flujo de neutrones, se transforma en un nuevo elemento, el plutonio 239, que sí es fisible.
En Inglaterra, el físico de origen austriaco Otto Frisch (1904-1979) calculó la masa crítica del uranio 235 (la masa más pequeña capaz de mantener una reacción en cadena) y demostró que era de sólo unos pocos kilos, un peso adecuado para una bomba portátil. En Alemania, los físicos calcularon una masa crítica mucho mayor, por lo que, en su opinión, una bomba atómica era impracticable. En Estados Unidos se emprendió el «proyecto Manhattan» para producir, no una bomba, sino dos: una basada en el uranio 235 y la otra en el plutonio 239. En 1945 la Fuerza Aérea estadounidense arrojó las primeras bombas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki.
En los años cincuenta se inventó una bomba aún más potente. En lugar de fisionar un ámo pesado en dos, la bomba de hidrógeno combinaba dos elementos ligeros (isótopos del hidrógeno) para crear otro más pesado, en un proceso llamado fusión nuclear. Tanto en la fisión como en la fusión, los elementos que se producen pesan un poco menos que los materiales de partida, la masa que se «pierde» se transforma directamente en energía, según la ecuación de Einstein E = mc².
Las armas nucleares han sido uno de los descubrimientos más trascendentales de todos los tiempos. Han cambiado las estrategias militares al introducir el concepto de «disuasión»: la amenaza de responder a cualquier ataque con una represalia devastadora.
Antimateria
La existencia de antipartículas -sugerida en 1930 por el físico británico Paul Dirac (1902-1984)- plantea, al menos en teoría, la posibilidad de una bomba más potente que la bomba atómica. Cuando una partícula se encuentra con su antipartícula, se aniquilan una a otra, y la masa total de ambas se transforma en energía. Sin embargo, para llevar esto a la práctica habría que encontrar algún modo de almacenar antimateria sin que entre en contacto con la materia normal.
Aunque la primera antipartícula se descubrió en 1932 y después se descubrieron muchas otras, la combinación de antipartículas para crear antimateria no se logró hasta 1996. Un equipo científico de Ginebra (Suiza) combinó positrones con antiprotones y consiguió crear unos pocos átomos de antihidrógeno, que en seguida fueron aniquilados por colisiones con la materia normal. El experimento fue un auténtico “tour de force” científico, que confirmó la existencia de un material que había sido patrimonio exclusivo de la ciencia-ficción desde que Dirac planteó la existencia del positrón, más de 50 años antes.
Para descubrir partículas subatómicas, los científicos desintegran átomos haciéndolos chocar unos contra otros a grandes velocidades. Cuanto mayor sea la velocidad, más violenta es la colisión y más pequeñas las partículas que se pueden detectar. Para esto se utilizan enormes cámaras llamadas aceleradores de partículas, en las que se aceleran átomos a lo largo de grandes distancias.
Electrodinámica cuántica
A principios de los años treinta, la relatividad, la teoría cuántica y el electromagnetismo se combinaron en una síntesis llamada electrodinámica cuántica o QED. Esta teoría se puede aplicar para predecir el comportamiento de átomos y electrones, pero no se ocupa de la estructura interna del átomo. En cierto sentido, se trata de la teoría química definitiva, ya que el comportamiento de los átomos es el objeto último de la química. Cuando el físico teórico británico Paul Dirac dio los primeros pasos en esta dirección en 1928, declaró, y no exageraba mucho, que su ecuación relativista-cuántica del electrón explicaba toda la química y gran parte de la física.
El problema de las ecuaciones de Dirac es que cuando se resolvían aproximadamente daban buenos resultados, pero si se intentaba ser más preciso, fallaban. Se obtenían demasiados infinitos, lo cual es absurdo y frustró a muchos grandes físicos, Dirac incluido. La teoría parecía correcta, pero si se la apuraba producía respuestas absurdas. Esta dificultad la resolvieron a finales de los cuarenta el físico japonés Shin'ichiro Tomonaga (1906-1979) y los estadounidenses Julian Schwinger (1918-1994) y Richard Feynman (1918-1988). Su método permitía hacer cálculos muy precisos y demostró que la electrodinámica cuántica es una teoría muy útil. Para Feynman, la electrodinámica cuántica es “la joya de la física”.
Los bosones de Higgs
El misterio de la masa es uno de los que más desconciertan a los físicos. ¿Por qué las partículas que forman la materia tienen masas tan diferentes, y de dónde procede la masa? El electrón y el muón, por ejemplo, son dos partículas idénticas, salvo que el muón es 200 veces más pesado.
El físico escocés Peter Higgs propuso una hipótesis para explicar esto, junto con el origen de toda masa. Según esta hipótesis, existe un campo que confiere masa a las partículas, el llamado campo de Higgs. La teoría se basa en el modo en que funcionan los campos gravitatorios y electromagnéticos: si una masa pesada se eleva a una posición más alta, adquiere energía potencial debido al cambio de posición en el campo gravitatorio de la Tierra. Si fuera cierto que todas las partículas adquieren masa debido a su interacción con el campo de Higgs, las diferencias de masa estarían en función de la fuerza con que se acopla cada partícula al campo.
El campo electromagnético lo crean las partículas de luz, o fotones. Se cree que el campo gravitatorio es debido a una partícula llamada gravitón. Si el campo de Higgs existe, los científicos suponen que debería tener su propia partícula, y a esta partícula teórica se le ha llamado bosón de Higgs.
El 4 de julio de 2012 la Organización Europea para la Investigación Nuclear, conocida por la sigla CERN, anunció la observación de una nueva partícula «consistente con el bosón de Higgs»; pero se necesitaría más tiempo y datos para confirmarlo. El 14 de marzo de 2013, con dos veces más datos de los que disponía en su anuncio del descubrimiento, se encontró que la nueva partícula se asemejaba aún más al bosón de Higgs. El 8 de octubre de 2013 se concedió a Peter Higgs, junto a François Englert, el Premio Nobel de Física “por el descubrimiento teórico” de un mecanismo que contribuye a nuestro entendimiento del origen de la masa de las partículas subatómicas.
Teoría de campo unificada
Se han realizado muchos intentos de elaborar una teoría única que describa todas las fuerzas naturales. Albert Einstein dedicó gran parte de sus últimos años a tratar de unificar su explicación relativista de la gravedad con el electromagnetismo, pero sin éxito. Los que buscan una teoría unificada pretenden encontrar un principio básico o un conjunto de ecuaciones que explique la multiplicidad de partículas subatómicas y a la vez, aplicando las aproximaciones adecuadas, produzca la ecuación de la gravitación de Einstein y las ecuaciones del electromagnetismo propuestas por el físico escocés James Clerk Maxwell. Todavía no existe tal teoría: lo más aproximado hasta ahora es la “teoría de la cuerda”.
El físico estadounidense Sheldon Glashow propuso en 1974 una ambiciosa teoría unificada de las partículas elementales. Según él, las tres fuerzas subatómicas -la fuerte, la débil y la electromagnética- son, en realidad, partes de una misma fuerza. Esta teoría lo llevo a ganar el Premio Nobel de Física en 1979.
Teoría de cuerdas
Las teorías definitivas sobre la materia están plagadas de cantidades infinitas. La teoría de la electrodinámica cuántica ofrece algunas maneras de tratar con ellas, pero esta teoría no incluye la gravedad, y cualquier «teoría de todo» tiene que incluir la gravedad, de modo que es preciso idear algún método para eliminar los infinitos. Algunos teóricos, frustrados en sus intentos, se preguntaron qué ocurriría si las partículas no se trataran como puntos, sino como cuerdas extendidas.
Según la teoría de cuerdas, las partículas serían como pequeños lazos, tan pequeños que para casi cualquier investigación científica se las puede considerar equivalentes a puntos. La belleza de la teoría de cuerdas es que coincide con la teoría general de la gravitación de Einstein, sin plantear ninguno de los habituales problemas provocados por los infinitos. Esto ha llevado a muchos físicos a pensar que puede contener al menos un elemento de verdad.
Los quarks
A medida que se descubrían más partículas subatómicas, los físicos se encontraban en la misma situación que los químicos antes de que el ruso Dimitri Mendeléiev (1834-1907) confeccionara su tabla periódica en 1869. Necesitaban con urgencia una clasificación de las partículas que pusiera orden en la confusión.
En 1964 el físico estadounidense Murray Gell-Mann (1929-2019) propuso la hipótesis de los quarks, partículas ultra elementales con las que se pueden construir todas las demás. Según su idea, todo barión -la clase de partículas elementales a la que pertenecen el protón y el neutrón- estaría formado por tres quarks. Los llamó quarks en alusión a la frase «Tres quarks por Musther Mark» de la novela “El velatorio de Finnegan” del autor irlandés James Joyce (1882-1941), publicada en 1939.
El esquema de Gell-Mann se caracterizaba por su sencillez: quería explicar de la manera más simple posible toda la confusión bariónica. No estaba muy claro si pretendía que sus ideas se tomaran al pie de la letra o como metáforas, pero desde entonces se ha demostrado que, efectivamente, los quarks son reales, y se han descubierto ya casi todas las variedades propuestas por Gell-Mann.
Las cuatro fuerzas
Las fuerzas responsables del comportamiento de la materia son sólo cuatro. La gravedad -la atracción entre masas diferentes- se ha estudiado desde los tiempos del físico inglés Isaac Newton (1642-1727). Es la más débil de las cuatro fuerzas, y la menos conocida, pero es la que ha dado forma al cosmos. El electromagnetismo, estudiado en el siglo XIX por el físico escocés James Clerk Maxwell (1831-1879) es la fuerza experimentada por las partículas con carga. Es de la que más se sabe, y la teoría de la electrodinámica cuántica permite realizar cálculos muy precisos. Las otras dos fuerzas, la nuclear fuerte y la nuclear débil, actúan en los núcleos de los átomos. La fuerza nuclear fuerte mantiene unidos los núcleos, y la fuerza nuclear débil controla procesos como la desintegración radiactiva.
Las cuatro fuerzas difieren mucho en potencia y en la distancia a la que actúan. La más potente es, con gran diferencia, la fuerza nuclear fuerte. Ésta, dominaría todos los fenómenos físicos si no tuviera un alcance tan corto. La fuerza electromagnética actúa por medio de las cargas eléctricas de las partículas, y éstas tienden a cancelarse a grandes distancias. La fuerza nuclear débil tiene un alcance menor que la fuerte. En cambio, la fuerza de la gravedad -inapreciable a cortas distancias- actúa a distancias muy grandes.
Fractales
En 1926 el científico inglés Lewis Richardson (1881-1953) planteó una pregunta aparentemente sencilla: ¿cuánto mide la costa de Gran Bretaña? Y demostró que la respuesta depende por completo de la longitud de la regla. Si se utiliza una regla de un metro, el resultado será muy distinto que, si se utiliza una regla de un centímetro, porque la regla más corta medirá todos los pequeños entrantes y salientes que la más larga pasa por alto.
Muchos años después, la idea de Richardson inspiró a un matemático de origen polaco Benoit Mandelbrot (1924-2010), que descubrió que cuanto más corta sea la regla, más larga será la longitud de la costa, sin límite. Una costa no es como un círculo, un cuadrado o una línea recta; es una forma irregular que se repite a todas las escalas, desde la más grande hasta la más pequeña. Mandelbrot llamó a estas formas «fractales» y demostró que se podían generar en un ordenador a partir de ecuaciones bastante sencillas.
El caos
En 1959 el meteorólogo estadounidense Edward Lorenz (1917-2008) estaba usando un ordenador para predecir el tiempo. Había programado el aparato para que predijera la latitud de los vientos del oeste, utilizando un conjunto de ecuaciones con doce variables, con las que se obtenían variaciones similares a las del tiempo real. Un día, cuando intentaba repetir los cálculos, volvió a introducir algunas cifras que el ordenador había impreso tiempo atrás y puso en marcha el programa. Las cifras obtenidas esta vez no se parecían en nada a las anteriores. Pensó que el ordenador se había equivocado, pero al revisar los cálculos descubrió algo mucho más interesante. Al principio, los nuevos cálculos coincidían bastante con los anteriores, pero luego divergían y las diferencias se duplicaban cada cuatro días, hasta que desaparecía toda semejanza.
Lorenz comprobó que unas pequeñas diferencias en los valores iniciales, provocadas al redondear la última cifra de decimal, alteraban todos los cálculos. En lugar de ser deterministas, las ecuaciones se comportaban caóticamente. Lorenz comprendió que, si aquello era una representación de la atmósfera, resultaba imposible predecir el tiempo a largo plazo. En una frase que se ha hecho famosa, declaró que “el aleteo de una mariposa en Brasil podía provocar un tornado en Texas”.
En la actualidad se sabe que muchos sistemas naturales y artificiales se comportan caóticamente: desde el crecimiento de las poblaciones hasta el flujo de los ríos o las cotizaciones de la Bolsa. Durante mucho tiempo, la ciencia dio por supuesto que la naturaleza es determinista. El astrónomo francés Pierre Simon marqués de Laplace (1749-1827) declaró a comienzos del siglo XIX que si conociera el estado exacto del Universo en un momento dado y las leyes que lo gobernaban, podría predecir todo lo que ocurriría en el futuro; la teoría del caos afirma que eso es imposible.
Simetría
Aunque sean irregulares, las formas naturales parecen manifestar una simetría básica. Los cristales, los cuerpos de los animales, las hojas de los árboles e incluso la simetría bilateral del cuerpo humano parecen suponer que la simetría es algo intrínseco. Hasta 1956 se creía que esta simetría se mantenía hasta el nivel subatómico: toda partícula tenía una antipartícula, por ejemplo, y si una partícula gira, es igual de probable que gire en un sentido o en otro. En la física de partículas, a este concepto se le llama «conservación de la paridad», y significa que las leyes de la física son idénticas tanto si las coordenadas se inclinan a la izquierda como si lo hacen hacia la derecha; la naturaleza no establece distinciones fundamentales entre derecha e izquierda.
Pero este concepto fue rebatido a finales de 1956 por Tsung Dao Lee y Chen Ning Yang, dos jóvenes físicos chinos que trabajaban en Estados Unidos. Según ellos, la paridad no se podía mantener en las llamadas interacciones débiles -los procesos en los que interviene la fuerza nuclear débil-, como, por ejemplo, la desintegración beta. Otro físico chino, Chien-Shiung Wu (1912-1997) demostró que tenían razón: la naturaleza es zurda.
Últimos Articulos
- Los Illuminati
- Los Estados de la Europa del este
- El pensamiento ilustrado
- La decadencia del Antiguo Régimen
- Taller de Sociales: Influencia de Estados Unidos en América Latina
- Influencia de Estados Unidos en América Latina
- Economía de América Latina comenzando el siglo XX
- El clasicismo en Inglaterra
- Latinoamérica a comienzos del siglo XX
- Mapa Cultura Maya: Zonas arqueológicas
- 2 de diciembre de 1982: Primera implantación de un corazón artificial
- 2 de diciembre de 1954: Moción de censura al senador McCarthy
- 2 de diciembre de 1908: Un niño en el trono de China
- Conocimiento del territorio colombiano a principios del siglo XIX
- Guía: Derechos ambientales
Notas de interés
- Los Illuminati
- Los Estados de la Europa del este
- El pensamiento ilustrado
- La decadencia del Antiguo Régimen
- Taller de Sociales: Influencia de Estados Unidos en América Latina
- Influencia de Estados Unidos en América Latina
- Economía de América Latina comenzando el siglo XX
- El clasicismo en Inglaterra
- Latinoamérica a comienzos del siglo XX
- Mapa Cultura Maya: Zonas arqueológicas
- 2 de diciembre de 1982: Primera implantación de un corazón artificial
- 2 de diciembre de 1954: Moción de censura al senador McCarthy
- 2 de diciembre de 1908: Un niño en el trono de China
- Conocimiento del territorio colombiano a principios del siglo XIX
- Guía: Derechos ambientales
- 1 de diciembre de 1959: Firma del Tratado Antártico
- Guía: El Perdón
- 18 de noviembre de 1978: Suicidio colectivo en Guyana
- Rock Al Parque 2024: Programación
- Guía: Filosofía. El hombre
Historia
- Historia del pesebre de navidad
- Día internacional de la mujer
- Historia de la filosofía: Renacimiento e Ilustración
- Historia de la física moderna
- Religiones: Cristianismo I
- Historia del Halloween
- La psicología
- Historia de la química moderna
- Idealismo contra materialismo
- Historia de la filosofía: Siglos XIX y XX
- Religiones: Cristianismo III. Protestantismos
- El estudio de la historia
- Historia de la medicina moderna
- La sociología
- Romanticismo y subjetivismo
- Religiones: Cristianismo IV. Iglesias ortodoxas
- Religiones: Hinduismo
- Religiones: Shintoísmo
- Religiones: Taoísmo
- Religiones: Cristianismo II. La iglesia católica
- ¿Qué es la historia?
- Antropología cultural
- Antropología física
- El estudio de la evolución
- Historia de la filosofía: Grecia y Roma
- Historia de la filosofía: La escolástica medieval
- La historia y el oficio del historiador
- La religión
- Religiones: Budismo
- Religiones: Confucianismo
- Religiones: Judaísmo