Docencia e Investigación
Arriba Último Nro. Índice Nros. Anteriores Índices Históricos

ISSN: 1575-2844

Revista Vivat Academia

  Histórico. Año X

linea.gif (922 bytes)

Diciembre 2007 - Enero 2008. Nº 91

Contenido de esta sección:

Breve apunte histórico sobre la tabla periódica (Michael Geyer. Adaptación de AAMR)
Introducción
La Tabla Periódica
Tabla periódica de Mendeleiev
Teoría de la capa electrónica
Teoría cuántica
Tipos de tabla
Nuevas versiones alternativas a la tradicional
La guerra de los nombres
Los nuevos elementos
Fabricar elementos 
RECORTES DE PRENSA
Células madre sí, pero sin embriones (Nicolás Jouve de la Barreda)
La ciencia experimental como una empresa (Javier Sáez Castresana)

Breve apunte histórico sobre la tabla periódica

Michael Geyer. Adaptación de AAMR

Índice

Introducción
La Tabla Periódica
Tabla periódica de Mendeleiev
Teoría de la capa electrónica
Teoría cuántica
Tipos de tabla
Nuevas versiones alternativas a la tradicional
La guerra de los nombres
Los nuevos elementos
Fabricar elementos 

Introducción

La tabla, o sistema periódico, es el esquema de todos los elementos químicos dispuestos por orden de número atómico creciente y en una forma que refleja la estructura de los elementos. Su base es la "Ley Periódica", la cual establece que las propiedades físicas y químicas de los elementos tienden a repetirse de forma sistemática conforme aumenta el número atómico. Todos los elementos de un grupo presentan una gran semejanza y, por lo general, difieren de los elementos de los demás grupos.

Las etapas previas antes de abordar la clasificación de los elementos en función de sus pesos atómicos fueron: primero, la comprobación de la teoría atómica de Dalton; segundo, la aceptación de la hipótesis de Avogadro de que las moléculas de los gases eran diatómicas y se componen de dos átomos, lo que permitió corregir algunos valores de los pesos atómicos; tercero, la introducción de los símbolos químicos para determinar los elementos a partir de la primera o primeras dos letras del nombre en latín o griego, llevada a la práctica por Berzelius en 1813; y, por último, la celebración del primer congreso de Química de Karslruhe, en 1860, donde se discutieron una serie de cuestiones acerca del concepto de átomo, molécula, radical y equivalente.

Anteriormente, hubo intentos de establecer un orden en los elementos conocidos en función del peso atómico a cargo de Chancourtois con su tornillo telúrico, Döbereiner y sus tríadas, Newlands con sus grupos y períodos y su ley de las octavas, mejorada por Odling, que hizo ya una clasificación más próxima a la de Mendeleiev.

El interés se debía, esencialmente, a que, a mediados del siglo XIX, el número de elementos era tan grande que los químicos necesitaban imperiosamente encontrar alguna regla, norma o ley que impusiera orden; en definitiva, clasificara los elementos.

Los avances en metalurgia y en el desarrollo del análisis químico habían permitido descubrir nuevas "tierras" (nombre en la época de los óxidos) en las minas. Pietsley y Cavendish habían aislado varias clases de aire y Lavoiser descompuso el agua.

Los viejos conceptos, como los de los antiguos filósofos griegos e indios, cuya concepción del mundo era la de una combinación de los cuatro elementos fundamentales, el agua, el fuego, el aire y la tierra -esta teoría nunca se vio confirmada por una comprobación experimental-, ya se habían superado durante la Edad Moderna. A esos cuatro elementos, llamados aristotélicos, opusieron los alquimistas medievales los tres principios que conformaban la materia: el mercurio, que representaba el carácter metálico y la volatilidad; el azufre, el símbolo de la combustibilidad; y la sal, prototipo de la solidez y la solubilidad. Así, se vio que el aire, el agua y la tierra estaban compuestos por otros elementos más sencillos y que el fuego no era un elemento sino un proceso.

En 1661, Robert Boyle, en su obra "El químico escéptico", había roto con las ideas iniciales de Tales, Anaximandro, Anaxímenes, Heráclito, Empédocles y Aristóteles, que habían marcado la pauta durante casi dos milenios. Fue el primer científico que cuestionó abiertamente la tradición alquimista. Rechazó la clasificación griega, por no ser capaz de explicar las combinaciones químicas, y defendió que el número de elementos, aunque limitado, tendría que ser muy superior a tres. Definió los elementos como cuerpos primitivos y simples no formados por otros cuerpos y que componen a los otros cuerpos, los compuestos.

En el siglo XVIII, Antoine-Laurent Lavoisier obtuvo pruebas experimentales que justificaron la adopción del concepto del elemento de Boyle. El químico francés publicó la que puede considerarse como la primera enumeración de sustancias elementales basadas en esta definición y que, aunque incluía sustancias como la cal, la alúmina y la sílice, compuestos estables que la técnica química de la época era incapaz de descomponer, constituyó un importante punto de partida para posteriores clasificaciones.

La famosa tabla que Mendeleiev publicaba en 1869 en su libro "Los principios de la Química" proponía una ordenación de similar aspecto a la que los químicos emplean en la actualidad. Clasificó los 60 elementos conocidos hasta entonces, predijo la existencia de otros 10 aún desconocidos, y llegó a pronosticar algunas características de los elementos aún pendientes de descubrir. Nadie prestó especial atención a su tabla hasta que empezaron a descubrirse elementos predichos por él. Con la aparición del espectroscopio se descubrieron el galio, por Lecoq De Boisbandren, el escandio, por Cleve, y el germanio, por Winkler.

Con los años, el sistema de Mendeleiev se fue completando con el descubrimiento de una columna entera de elementos nuevos -los gases nobles- o la aparición de un grupo de elementos muy semejantes entre sí por sus características químicas, llamados, en un principio, tierras raras y que acabaron integrando un grupo aparte, el de los lantánidos, y más tarde de otro semejante conocido como los actínidos.

El descubrimiento de los rayos X abrió un nuevo campo de estudio. Moseley fotografió el espectro de rayos X de 12 elementos. Corrigió la Tabla con la introducción del número atómico, una cantidad que identifica el número de protones del núcleo atómico y que aumenta de forma regular al pasar de un elemento al siguiente.

El trabajo de Moseley ofrecía un método para determinar exactamente cuántos puestos vacantes quedaban en la Tabla Periódica. Una vez descubierto, los químicos pasaron a usar el número atómico, en lugar del peso atómico, como principio básico de ordenación de la Tabla. El cambio eliminó muchos de los problemas pendientes en la disposición de los elementos.

La radiactividad entró en acción no sólo con el descubrimiento del polonio y del radio, que supuso la introducción de un nuevo concepto, el de isótopo, sino también con la fisión nuclear y la emisión de electrones (desconocidos en los comienzos e identificados como radiación beta) o la captura de neutrones o núcleos ligeros por un núcleo grande, lo cual permitió obtener elementos más allá del uranio (transuránidos).

La tabla periódica representa una de las ideas más extraordinarias de la Ciencia moderna, ya que dio un orden a la Química y, durante casi 200 años de vida, ha sabido adaptarse y madurar sin apenas variaciones.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

La Tabla Periódica

Como resultado de los descubrimientos que establecieron en firme la teoría atómica de la materia, en el primer cuarto del siglo XIX, los científicos pudieron determinar las masas atómicas relativas de los elementos conocidos hasta entonces. El desarrollo de la electroquímica durante ese periodo, por parte de los químicos británicos Humphry Davy y Michael Faraday, condujo al descubrimiento de nuevos elementos.

En 1829, se habían descubierto los elementos suficientes para que el químico alemán Johann Wolfgang Döbereiner pudiera observar que había ciertos elementos que tenían propiedades muy similares y que se presentaban en tríadas: cloro, bromo y yodo; calcio, estroncio y bario; azufre, selenio y telurio, y cobalto, manganeso e hierro. Verificó entonces que el peso atómico del elemento central de la tríada podía ser obtenido, aproximadamente, promediando el de los otros dos. Del mismo modo, el peso atómico del estroncio resulta ser aproximadamente igual al promedio de las masas atómicas del calcio y del bario. Estos tres elementos poseen propiedades semejantes. Sin embargo, debido al número limitado de elementos conocidos y a la confusión existente en cuanto a la distinción entre masas atómicas y masas moleculares, los químicos no captaron el significado de las tríadas de Döbereiner.

El desarrollo del espectroscopio en 1859, por los físicos alemanes Robert Wilhelm Bunsen y Gustav Robert Kirchhoff, hizo posible el descubrimiento de nuevos elementos. En 1860, en el primer congreso químico internacional celebrado en el mundo, el químico italiano Stanislao Cannizzaro puso de manifiesto el hecho de que algunos elementos (por ejemplo el oxígeno) poseen moléculas que contienen dos átomos. Esta aclaración permitió que los químicos consiguieran una lista consistente de los elementos.

Hacia 1860, estos avances dieron un nuevo ímpetu al intento de descubrir las interrelaciones entre las propiedades de los elementos y, por consiguiente, a trabajar en nuevas propuestas de clasificación. En 1864, el químico británico John A. R. Newlands intentó clasificar los elementos por orden de masas atómicas crecientes, observando que, después de cada intervalo de siete, reaparecían las mismas propiedades químicas (es decir que el octavo elemento tenía propiedades similares a las del primero). Por su analogía con la escala musical, la clasificación fue llamada "ley de las octavas".

newlandsb.jpg (14750 bytes)

John A. R. Newlands

Propuesta de Newlands
En la tabla contigua, a la derecha, falta una octava columna con los elementos Flúor, Cloro y Bromo

propuesta de newlands.jpg (22249 bytes)

En las columnas que resultan de la clasificación de Newlands se observa la presencia de los elementos pertenecientes a una misma tríada (Li, Na y K). Se deduce que a partir del Li, el elemento de número de orden igual a 8 es el Na que tiene propiedades similares. Lo mismo ocurre con el Be (berilio), que presenta propiedades químicas similares al Mg (magnesio); con el B (boro) y el Al (aluminio), y así sucesivamente.

El descubrimiento de Newlands no impresionó a sus contemporáneos, probablemente porque la periodicidad observada sólo se limitaba a un pequeño número de los elementos conocidos. Si bien el trabajo de Newlands fue incompleto, resultó de importancia, ya que puso en evidencia la estrecha relación existente entre los pesos atómicos de los elementos y sus propiedades físicas y químicas.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Tabla periódica de Mendeleiev

La ley química que afirma que las propiedades de todos los elementos son funciones periódicas de sus masas atómicas fue desarrollada independientemente por dos químicos: por el ruso Dimitri Mendeléiev y el alemán Julius Lothar Meyer.

En 1869, Mendeleiev se propuso hallar una "ley de la naturaleza", válida para toda clasificación sistemática de los elementos. Clasificó todos los elementos conocidos en su época, en orden creciente de sus pesos atómicos, estableciendo una relación entre ellos y sus propiedades químicas.

mendeleievb.jpg (7704 bytes)

Mendeleiev
 

tablamende.jpg (30059 bytes)

Propuesta original de Mendeleiev

En su clasificación, Mendeleiev no consideró el hidrogeno porque sus propiedades no coincidían con las de otros elementos. Tampoco figuran en ella los gases nobles, porque no habían sido descubiertos aún. La ley periódica de Mendeleiev puede ser enunciada del siguiente modo:

"Las propiedades químicas y la mayoría de las propiedades físicas de los elementos son función periódica de sus pesos atómicos".

Independientemente, en 1870, el alemán Lothar Meyer propuso una clasificación de los elementos relacionando los pesos atómicos con las propiedades físicas, tales como el punto de fusión, de ebullición, etc.

La clave del éxito de los esfuerzos de Mendeléiev y Meyer fue comprender que los intentos anteriores habían fallado porque todavía quedaba un cierto número de elementos por descubrir, y había que dejar los huecos para esos elementos en la tabla. Por ejemplo, aunque no existía ningún elemento conocido hasta entonces con una masa atómica entre la del calcio y la del titanio, Mendeléiev le dejó un sitio vacante en su sistema periódico. Este lugar fue asignado más tarde al elemento escandio, descubierto en 1879, que tiene unas propiedades que justifican su posición en esa secuencia. El descubrimiento del escandio sólo fue parte de una serie de verificaciones de las predicciones basadas en la ley periódica, y la validación del sistema periódico aceleró el desarrollo de la química inorgánica.

El sistema periódico ha experimentado dos avances principales desde su formulación original por parte de Mendeléiev y Meyer. La primera revisión extendió el sistema para incluir toda una nueva familia de elementos cuya existencia era completamente insospechada en el siglo XIX. Este grupo comprendía los tres primeros elementos de los gases nobles o inertes, argón, helio y neón, descubiertos en la atmósfera entre 1894 y 1898 por el físico británico John William Strutt y el químico británico William Ramsay. El segundo avance fue la interpretación de la causa de la periodicidad de los elementos en términos de la teoría de Bohr (1913) sobre la estructura electrónica del átomo.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Teoría de la capa electrónica

En la clasificación periódica, los gases nobles, que no son reactivos en la mayoría de los casos (valencia = 0), están interpuestos entre un grupo de metales altamente reactivos que forman compuestos con valencia +1 y un grupo de no metales también muy reactivos que forman compuestos con valencia -1. Este fenómeno condujo a la teoría de que la periodicidad de las propiedades resulta de la disposición de los electrones en capas alrededor del núcleo atómico. Según la misma teoría, los gases nobles son por lo general inertes porque sus capas electrónicas están completas; por lo tanto, otros elementos deben tener algunas capas que están sólo parcialmente ocupadas, y sus reactividades químicas están relacionadas con los electrones de esas capas incompletas. Por ejemplo, todos los elementos que ocupan una posición en el sistema inmediatamente anterior a un gas inerte, tienen un electrón menos del número necesario para completar las capas y presentan una valencia -1 y tienden a ganar un electrón en las reacciones.

Los elementos que siguen a los gases inertes en la tabla tienen un electrón en la última capa, y pueden perderlo en las reacciones, presentando por tanto una valencia +1.

Un análisis del sistema periódico, basado en esta teoría, indica que la primera capa de electrones puede contener un máximo de 2 electrones, la segunda un máximo de 8, la tercera de 18, y así sucesivamente. El número total de elementos de cualquier periodo corresponde al número de electrones necesarios para conseguir una configuración estable. La diferencia entre los subgrupos A y B de un grupo dado también se puede explicar sobre la base de la teoría de la capa de electrones. Ambos subgrupos son igualmente incompletos en la capa exterior, pero difieren entre ellos en las estructuras de las capas subyacentes. Este modelo del átomo proporciona una buena explicación de los enlaces químicos.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Teoría cuántica

El desarrollo de la teoría cuántica y su aplicación a la estructura atómica, enunciada por el físico danés Niels Bohr y otros científicos, ha aportado una explicación fácil a la mayoría de las características detalladas del sistema periódico. Cada electrón se caracteriza por cuatro números cuánticos que designan su movimiento orbital en el espacio. Por medio de las reglas de selección que gobiernan esos números cuánticos, y del principio de exclusión de Wolfgang Pauli, que establece que dos electrones del mismo átomo no pueden tener los mismos números cuánticos, los físicos pueden determinar teóricamente el número máximo de electrones necesario para completar cada capa, confirmando las conclusiones que se infieren del sistema periódico.

Posteriores desarrollos de la teoría cuántica revelaron por qué algunos elementos sólo tienen una capa incompleta (en concreto la capa exterior, o de valencia), mientras que otros también tienen incompletas las capas subyacentes. En esta última categoría se encuentra el grupo de elementos conocido como lantánidos, que son tan similares en sus propiedades que Mendeléiev llegó a asignarle a los 14 elementos un único lugar en su sistema.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Tipos de tabla

Cada autor siente la tentación de dibujar una tabla donde, según él, se manejan mejor los conceptos de periodicidad química. Las tablas más importantes son las que comúnmente se conocen como: "Tabla corta", "Tabla larga" y "Tabla larga extendida".

Tabla corta

Derivación directa de la propuesta original de Mendeleiev-Meyer; se le fueron introduciendo modificaciones a medida que se avanzaba en el tiempo y en el conocimiento; ya se advierte la presencia de un grupo vertical más; el grupo gases nobles, desconocidos por Mendeleiev. El uso de este tipo de tabla corta ha desaparecido en la actualidad.

Tabla larga

Modificación muy útil, que también suele ser conocida como tabla de Both. Se construye de tal forma que refleja la teoría de Both sobre la distribución electrónica. En las verticales se encuentran los elementos cuya distribución electrónica final es coincidente, en esencia la tabla larga deriva de la original de Mendeleiev, extendiendo los períodos largos (cuarto, quinto y sexto) y cortando en dos los períodos cortos para acomodar en el medio a las series de los elementos de transición. Así se generan períodos largos pero sólo a partir del cuarto período.

Tabla larga extendida

Representación moderna, con el inconveniente de que los gráficos se hacen muy extensos, la misma sigue al recorrerla por número atómico creciente el llenado de órbitas propuesto por Both; posee 32 columnas y el primer periodo tiene 2 elementos, el segundo y tercero tienen 8, el cuarto y quinto tienen 18 elementos, el sexto período 32 elementos y el séptimo hasta el momento se agota con 106 elementos.

En el sistema periódico largo, cada periodo corresponde a la formación de una nueva capa de electrones. Los elementos alineados tienen estructuras electrónicas estrictamente análogas. El principio y el final de un periodo largo representan la adición de electrones en una capa de valencia; en la parte central aumenta el número de electrones de una capa subyacente.

tabla b.jpg (26931 bytes)

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Nuevas versiones alternativas a la tradicional

En los últimos años han aparecido versiones alternativas a la Tabla Periódica. Hay que destacar la del profesor Dufour del Colegio Ahuntsic de Montreal, que ha desarrollado un sistema periódico tridimensional que pone de manifiesto la simetría fundamental de los elementos. Otras alternativas son las de William B. Jensen, de la Universidad de Cincinnati, con forma piramidal y la del ruso Agafoshin, en espiral, pero el que actualmente está ganando popularidad es el sistema de clasificación, que ha sido adoptado por la Unión Internacional de Química Pura y Aplicada (IUPAC). Este nuevo sistema enumera los grupos consecutivamente del 1 al 18 a través del sistema periódico.

También se han propuesto sistemas periódicos que se refieren a moléculas como la de Ray Hefferlin, de la Universidad Adventista del Sur en Collegedale, para moléculas diatómicas, y la de Jerry R. Dias, de la Universidad de Missouri en Kansas City, para hidrocarburos aromáticos derivados del benceno. El sistema de clasificación de Dias es análogo a las tríadas de Döbereiner: el número de átomos de carbono e hidrógeno de la molécula en el centro de una tríada es el promedio del que caracteriza a las moléculas que la flanquean, lo mismo en sentido vertical que horizontal.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

La guerra de los nombres

La elección de nombres para los elementos ha tenido orígenes variopintos y no ha estado exenta de polémica. El latín y el griego fue origen de muchos de ellos. Así, el hidrógeno proviene de hidro y genes que significa "generador de agua", y el flúor de fluere que significa fluir.

La mitología, la geografía y los nombres propios, principalmente, también han servido para este fin. Algunos ejemplos son el vanadio, de la diosa escandinava Vanadis; el polonio, de Polonia, país de origen de Marie Curie, su descubridora; y el nobelio, en honor a Alfred Nóbel.

Durante la Guerra Fría tuvo lugar una fuerte controversia entre laboratorios de EE.UU. y de la URSS por denominar a los nuevos elementos en donde estaba en juego el prestigio de sus respectivos laboratorios y científicos. Esta situación se complicó con la aparición en escena, en 1981, de los alemanes del Laboratorio de Damrmstadt, que anunciaron el descubrimiento de seis nuevos elementos, del 102 al 107.

A pesar de que la discusión se recrudecía, la polémica fue concluida por la IUPAC, con la denominación de los elementos 104 a 109. Repartieron el nombre entre científicos y laboratorios de todo el mundo: el 105, dubnio en honor al laboratorio ruso Dubna; el bohrio, 107, al Premio Nobel danés Bohr; y el meitnerio, 109, a la física austriaca Meitner.

Aunque la IUPAC decidió en 1994 una norma que impide utilizar el nombre de personas vivas para un nuevo elemento, los equipos de los laboratorios americanos, que habían realizado el descubrimiento y confirmación del 106, consiguieron retrasar su aplicación para poner a este elemento seaborgio, en honor de Seaborg, premio Nobel americano muerto recientemente.

A partir del 110, la situación es más simple, clara y concisa. El nombre se forma a partir de su número atómico y simplemente se reemplaza cada dígito por la expresión de la siguiente tabla y se termina con el sufijo "ium"; 0 nil, 1 un, 2 bi, 3 tri, 4 quad, 5 pent, 6 hex, 7 sept, 8 oct, 9 enn.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Los nuevos elementos

Rusos, alemanes y americanos compiten por extender la Tabla Periódica de los Elementos. Los dos últimos elementos, el 116 y el 118, se obtuvieron el año pasado en experimentos realizados en el Laboratorio Lawrence Berkeley y las Universidades de California y del estado de Oregón. Los experimentos consistían en acelerar un haz de iones de kriptón y hacerlos colisionar con un blanco de plomo. Después de 11 días de trabajo, sólo se identificaron tres núcleos del 118, elemento que, en menos de un milisegundo, se desintegra en el 116.

Con unas vidas tan cortas, estos nuevos elementos tienen, por ahora, escaso interés salvo para los físicos nucleares, ya que el estudio del comportamiento de estos átomos superpesados puede ayudarles a entender los problemas de la estabilidad nuclear. Más allá de este uso y de la natural tentación de ir más allá en la ciencia, la búsqueda de nuevos elementos tiene también una meta tentadora. Se piensa que, a pesar de la inestabilidad de los últimos elementos, quizás los siguientes resulten ser muy estables. Se habla de una isla de estabilidad que debe iniciarse con el elemento 114 y, quizá, con algún isótopo del 113.

El objetivo es que la estabilidad sea tal como para poder fabricar nuevos materiales, algo que parece muy lejano si pensamos que las decenas de millones de átomos fabricados del elemento 105, uno de los mejor conocidos del final de la tabla, apenas pesan mil millonésimas de microgramo.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

Fabricar elementos

El descubrimiento del neutrón por el físico británico Chadwick, en 1932, abrió una nueva etapa en la síntesis de nuevos elementos. Los neutrones pueden introducirse libremente en los núcleos atómicos y provocar en ellos transiciones nucleares.

Mediante la absorción de un neutrón y la consiguiente emisión beta, el núcleo gana un protón, por lo que como elemento salta un peldaño hacia arriba en la ordenación por número atómico. Esta posibilidad fue investigada por el físico italiano Fermi en 1934.

Poco tiempo después, en Berlín, la física Lise Meitner, junto con los químicos Otto y Strassmann, iniciaron la búsqueda de elementos transuránidos, mediante la irradiación de Uranio con neutrones. Lo que consiguieron fue, tras la explicación del fenómeno por Meitner y Frisch, la fisión nuclear. De esta forma fue posible identificar, como productos de fisión, numerosos nuevos isótopos y, mediante diversos experimentos, obtener varios elementos más allá de lo que parecía un límite natural en la Tabla con el uranio. El primer elemento artificial, el tecnecio, fue obtenido en 1937 gracias a la construcción de una máquina diseñada para acelerar partículas, el ciclotrón.

En esta búsqueda de nuevos núcleos, científicos de la Universidad de Berkeley consiguieron, en 1940, sintetizar el neptunio. Ese mismo año, Glenn Seaborg, también en Berkeley, bombardeó uranio 238 con núcleos de deuterio y produjo el elemento 94, llamado plutonio. Se iniciaba así una carrera por conseguir fabricar nuevos elementos en la que durante ese decenio sólo participarían algunos laboratorios estadounidenses, esencialmente Berkeley, pero a la que se incorporarían después los soviéticos del Laboratorio de Reacciones Nucleares de Dubna, cerca de Moscú, y, ya en los años setenta, los alemanes, con el Laboratorio de Investigaciones de Iones Pesados de Darmstadt.

Después de la construcción por Fermi y Szilard del primer reactor nuclear, en 1942, pudo producirse plutonio en grandes cantidades. Merced a su irradiación con neutrones, deuterones y partículas alfa, se esperaba que pudiesen sintetizarse elementos transuránidos. Sin embargo, la detección química de los nuevos elementos resultó muy difícil. Se consiguió superar esta situación cuando Seaborg demostró que los transuránidos eran miembros de una nueva familia, los actínidos, de propiedades químicas similares a la de los lantánidos.

Pese a la búsqueda sistemática de nuevos elementos transuránidos que se llevó a cabo, los dos siguientes, el einstenio y el fermio, se descubrieron de manera inesperada, en los desechos de la explosión de la bomba de hidrógeno experimental "Mike" que los Estados Unidos detonaron en el Pacífico en 1952. Investigadores del Laboratorio Nacional de Argonne, cerca de Chicago, y de Berkeley, entre los que volvía a encontrarse Seaborg, los descubrieron investigando muestras de polvo acumuladas en los filtros de aire de aviones que sobrevolaron la zona. El inmenso flujo de neutrones que la explosión desencadenó, junto con núcleos de Uranio, dio lugar a átomos enormemente ricos en neutrones que, por medio de sucesivas desintegraciones beta, formó elementos posteriores al californio.

Para seguir obteniendo nuevos elementos había que diseñar nuevas máquinas: los aceleradores lineales. Pero esta técnica sólo estaba en dos laboratorios: la Universidad de California en Berkeley (EE.UU.) y el Instituto Unido de Investigación Nuclear de Dubna (Rusia). Esta situación cambió cuando los alemanes irrumpieron en escena.

En diciembre de 1969 se inauguró el Instituto de Investigación en Iones Pesados (GSI) en Darmstadt, Alemania. En 1975 se instaló allí el acelerador de iones superpesados UNILAC (Acelerador Universal Lineal). Se trataba del primer aparato de esta clase en el que era posible la aceleración de todo tipo de iones, incluidos los de uranio. Una de las metas de tal investigación era la de alcanzar la isla de elementos estables superpesados teóricamente pronosticada, la cual se hallaría separada del continente de los isótopos conocidos mediante lo que podríamos denominar un pantano de núcleos que se desintegrarían espontáneamente.

A esta nueva línea de investigación se unieron los otros laboratorios. La técnica parece simple, se fusionan dos núcleos para originar uno nuevo de carga suma. Así se obtuvo en Berkeley el elemento 101, el mendelevio.

Pero lo que parecía simple se complicó. Pasar del elemento 101 al 102 costó once años.

Las dificultades son enormes: medidas de tiempo de desintegración, velocidad de flujo en gases, calentamiento, deformación de la superficie del núcleo, división o fisión de éste, precisión de los detectores… Hay que tomar en cuenta que sólo sobrevive uno de cada mil millones de núcleos formados. Tras la obtención, hay que probar que lo obtenido es nuevo.

Por el momento con el contador estacionado en el elemento 118, los científicos siguen en su empeño, y abren otra línea de investigación, la búsqueda en los meteoritos y en las nubes de gas procedentes de las explosiones de supernovas.

Pulsando este enlace podrá descargar una presentación de Power Point del mismo autor, que contiene un resumen didáctico de este artículo.

Volver al principio del apartado                 Volver al principio del artículo            Volver al principio

RECORTES DE PRENSA

Células madre sí, pero sin embriones (Nicolás Jouve de la Barreda)
La ciencia experimental como una empresa (Javier Sáez Castresana)

Células madre sí, pero sin embriones

Nicolás Jouve de la Barreda. Catedrático de Genética de la Universidad de Alcalá

(Publicado en Páginas Digital: www.paginasdigital.es)

Las recientes investigaciones de varios grupos han demostrado que es posible una reprogramación genética de células diferenciadas y que este método es mejor y más seguro para atacar la producción de células válidas para el trasplante de tejidos deteriorados que su extracción de embriones, al poder utilizarse células del propio paciente, soslayando el problema del rechazo.

Desde hace unos años, cuando se despertó el interés por las células embrionarias como fuente de obtención de líneas celulares útiles para la curación de enfermedades degenerativas, muchos señalamos que estas lamentables investigaciones con embriones, literalmente sacrificados, tenían fecha de caducidad. Los excelentes resultados con células madre adultas apuntaban en una dirección mucho más prometedora y desde luego respetuosa con la vida humana.

Es evidente, señalábamos muchos, que desde ambas perspectivas, la ética y la tecnológica, es preferible experimentar con células madre procedentes de tejidos no embrionarios. Hoy, más del 90% de los protocolos de ensayos clínicos con células madre utilizan células no embrionarias, y son cada vez más los investigadores que están a favor de la terapia celular, o la ingeniería tisular sin dilemas éticos. En lo que sigue vamos a revisar algunos resultados recientes en esta dirección.

En agosto de 2006, el Dr. Robert Lanza y su equipo de investigadores de la empresa californiana ACT (Advanced Cell Technology) informaban sobre la posibilidad de extirpar células madre de embriones en sus primeros estadios de desarrollo, sin afectar al resto del embrión, de forma semejante a como se lleva a cabo el diagnóstico genético preimplantatorio. Los pobres resultados de estas experiencias fueron muy criticados y dejaron a las claras las dificultades de mantener vivos a los embriones manipulados.

Mientras que la mayor parte de los investigadores seguían aferrados a la utilización de los embriones como fuente de células madre, el Dr. Markus Grompe, un joven investigador del Centro de Células Madre de la Universidad de Oregón, se planteó la posibilidad de producir embriones modificados genéticamente, con el fin de detener su desarrollo después de que las células se hubieran extirpado para su cultivo in vitro. La idea, muy discutible, era la de continuar trabajando con embriones si bien se trataría de cambiar su sacrificio directo por un modo más sutil de destrucción, dado que la modificación genética ejercida artificialmente habría de provocar la interrupción de su desarrollo de forma natural, transcurrido el momento necesario para recoger sus preciadas células madre. Curiosamente, este mismo investigador justificaba estas investigaciones en base a razones éticas al señalar algo que venimos repitiendo quienes nos oponemos a la experimentación con embriones: "la vida humana es un continuum que comienza en el momento de la fecundación, por lo que un embrión humano, a pesar de su debilidad y pequeñez, es una vida humana, por lo que es inaceptable su destrucción para extraer las células madre. El fin no justifica los medios".

Se trataba de producir "artefactos biológicos" sin capacidad de desarrollo. La idea no resiste la crítica ética por varios motivos. En primer lugar porque, si bien estos embriones no serían viables por su naturaleza genética alterada, no por ello dejarían de ser seres humanos en fase embrionaria, a los que se habría manipulado de forma no natural. Además, el hecho de producir un embrión sin capacidad de sobrevivir no sería otra cosa que la creación de vidas humanas defectuosas.

Estos episodios revelan una mala conciencia en muchos investigadores que reconocen el valor de la vida humana existente en los embriones. Además, y debido a ello, demuestran la voluntad de buscar vías alternativas para producir líneas celulares para afrontar los problemas de la medicina regenerativa. Éstas las ofrecen las células madre procedentes de tejidos postembrionarios, en el líquido amniótico, el feto, el cordón umbilical y, tras el nacimiento, en la mayoría de los tejidos durante la vida adulta. Estas células no plantean problemas éticos, y para su obtención en el caso de las células madre adultas basta una biopsia que podría hacerse en el propio paciente afectado por una enfermedad degenerativa (infarto, Alzheimer, Parkinson, diabetes, etc.). De este modo se garantizaría la identidad genética y se evitaría el rechazo, una vez que se obtuviera a partir de ellas una masa de células reprogramadas y dispuestas para el trasplante en el propio paciente.

De este modo, como alternativas a la utilización de células madre embrionarias se han abordado dos estrategias, la utilización de las células madre que existen en la base de muchos tejidos en fase adulta, o la reprogramación de las células especializadas, ya diferenciadas, para su retorno a la fase de indiferenciación, en la que habrían de comportarse como células madre equivalentes a las embrionarias. Esta reprogramación es abordable tocando el programa genético de modo que se reactiven determinados genes que dejan de expresarse en las células diferenciadas.

En esta línea de investigaciones se han hecho avances muy prometedores. En julio de 2003, el Dr. John Gurdon y sus colaboradores de la Universidad de Cambridge (Reino Unido) publicaban un trabajo en Current Biology que demostraba la posibilidad de activar un gen llamado Oct-4 en células somáticas de adulto. Este gen deja de estar activo tras las primeras etapas del desarrollo embrionario, siendo a su vez el gen más característico y diagnóstico de las células madre pluripotentes (capaces de derivar hacia múltiples especialidades celulares). En este trabajo, sus autores concluyeron que la capacidad de activar el gen Oct-4 supondría un paso de gran interés hacia el establecimiento a largo plazo de un procedimiento de reprogramación celular.

A principios de 2006,  los Drs. Melton y Eggan, del Departamento de Biología Celular y Molecular de la Universidad de Harvard, dirigieron su atención a la reprogramación de las células adultas con el fin de convertirlas en células madre, con el mismo comportamiento que las células madre embrionarias. En un trabajo publicado en Nature concluían los citados autores que la metodología es compleja, por el hecho de tener que soslayar las modificaciones epigenéticas (variaciones por metilación del ADN y de las proteínas histonas de la cromatina durante la diferenciación), lo cual, según las estimaciones de estos investigadores, tardaría aun varios años.

En junio de 2006, los Drs. Austin Smith, Ian Chambers y sus colegas de la Universidad de Edimburgo publicaron otra investigación en la revista Nature sobre un gen llamado Nanog que es responsable del mantenimiento de la actividad proliferativa de las células embrionarias. Además, demostraron que si se reactiva o induce artificialmente la expresión de este gen en células somáticas adultas de ratón, las células somáticas se hacen multipotentes y recobran una capacidad de regeneración y transformación en casi cualquier tipo de célula. Un trabajo de gran importancia experimental y bioética que mantenía viva la esperanza de obtener células madre sin necesidad de utilizar embriones.

A finales de 2006, los japoneses Kazutoshi Takahashi and Shinya Yamanaka, del Departamento de Células Madre de la Universidad de Kyoto, experimentando en ratón demostraron la posibilidad de derivar células de la piel y fibroblastos hacia células madre pluripotentes, mediante la modificación de cuatro factores genéticos: Oct3/4, Sox2, c-Myc y Klf4. Estas células, que se denominaron iPS (=induced pluripotent stem cells), presentan la morfología y las propiedades de crecimiento de las células madre embrionarias y también expresan proteínas propias de dichas células. Sin embargo, en los primeros experimentos el trasplante subcutáneo de células iPS en ratones causaba tumores, que afectaban a una variedad de tejidos de las tres capas germinales, ectodermo, mesodermo y endodermo. Por otra parte, la inyección de las células iPS en blastocistos de ratón genera el desarrollo embrionario, lo cual demuestra que se comportan como las células embrionarias.

Prácticamente al mismo tiempo, el 20 de noviembre pasado, el Dr. Yamanaka en Japón y el del Dr. James Thompson de la Universidad de Wisconsin-Madison, con procedimientos distintos, han publicado el logro de la reprogramación de células de la piel y del tejido conectivo, fibroblastos, convirtiéndolas en células madre capaces de diferenciarse en cualquier tejido del cuerpo humano. En el caso del Dr. Thompson la desprogramación se obtiene mediante la introducción de cuatro genes parcialmente comunes a los de Yamanaka, los llamados Oct4, Sox2, Nanog y Lin28. Han conseguido que una célula somática ya diferenciada se comporte y actúe como si fuera embrionaria, y por tanto capaz de dirigir su especialización hacia células cardiacas, óseas, neuronas o de cualquier otra de las más de 200 especialidades celulares humanas. Los dos trabajos son de una importancia extraordinaria y han sido publicados en Cell y Science, dos de las mejores revistas científicas de la especialidad. Las células pluripotentes humanas producidas en ambos casos han de servir para su uso en medicina regenerativa, pero antes habrán de superar ciertos controles, como los relativos a la eliminación de riesgos debidos a los vectores retrovirales utilizados para la introducción de los genes en las células de la piel.

Se da la circunstancia de que el Dr. James Thompson fue junto a sus colaboradores quienes publicaron en 1998, también en Science, el primer trabajo en el que se demostraba la totipotencialidad de las células madre embrionarias, de modo que, tras cinco o seis meses de proliferación indiferenciada, eran capaces de producir un amplio abanico de tipos celulares, correspondientes al endodermo (epitelio intestinal), mesodermo (cartílago, hueso, músculo, etc.) y ectodermo (epitelio neural, ganglios, piel, etc.). Ahora, el Dr. Thompson da un giro a estas investigaciones y a partir de los fibroblastos ha logrado hasta el momento ocho líneas de células que, en el caso de algunas de ellas, extienden su cultivo durante un periodo de hasta 22 semanas.

Estos trabajos representan un cambio copernicano, una auténtica revolución en las investigaciones con células madre. Suponen el abandono de las dos metodologías que con más pena que gloria se venían ensayando hasta ahora: la utilización directa de las células embrionarias (embriones congelados o previamente obtenidos) y la producción ex profeso de embriones mediante el trasplante nuclear. Estamos en el umbral de algo muy deseado por la comunidad científica, la posibilidad de producir tejidos humanos sin embriones, útiles para reparar órganos dañados a partir del material genético del propio paciente, lo que evitará cualquier tipo de rechazo inmunológico.

Aunque hay que esperar a los acontecimientos, ya se han empezado a producir efectos colaterales. Entre ellos la deserción de las investigaciones con embriones o el abandono del artificioso trasplante nuclear por parte de diversos grupos de investigación. De este modo, Ian Wilmut, 'padre' de la oveja Dolly, a la vista de las investigaciones de Yamanaka y Thompson, ha declarado que abandonaba la técnica de la transferencia nuclear, o clonación terapéutica, para dedicar su trabajo a la inducción de pluripotencialidad de células adultas humanas. Según sus propias palabras esta línea de investigación es "cien veces más interesante".

Por otra parte, queda invalidada la argumentación de que el fin justifica los medios, dado que se puede conseguir el mismo fin por métodos distintos y mejores. También queda anulada la tecnología del trasplante nuclear heterólogo, como la obtención de embriones híbridos por trasplante de núcleos somáticos humanos en citoplasma de ovocélulas de vaca, algo para lo que investigadores del King's College de Londres y de la Universidad de Newcastle recibieron la aprobación de la HFEA (Autoridad de Embriología y Fertilización Humana) en el Reino Unido en septiembre de 2007.

Queda igualmente en vía muerta la propia tecnología de la "transferencia nuclear terapéutica", impropiamente denominada "clonación terapéutica", que propugna la obtención de embriones utilizando el núcleo celular (la información genética) del paciente en sustitución del núcleo de ovocitos no fecundados, y que protagonizó el fiasco de la falsa clonación humana del coreano Hwang Woo-suk en 2005.

Quedan fuera de lugar, por inoperantes y obsoletos, los argumentos que sustentaban las reformas legislativas recientes en España, como la Ley 14/2006, de Reproducción humana asistida y de investigación con embriones humanos con fines terapéuticos para terceros y, sobre todo, la Ley 14/2007 de Investigación Biomédica, por la que se autorizaba y se promovía la transferencia nuclear, al tiempo que se establecía la prohibición de la práctica de la clonación reproductiva. Lo que no dejaba de ser una flagrante contradicción, ya que el trasplante nuclear fue la tecnología que permitió clonar ranas y más tarde mamíferos, que tuvieron su dato más significativo en el origen de la oveja Dolly.

Por todo ello, una vez más nos alegramos de que confluyan en la misma dirección el progreso científico-tecnológico y el moral, y que los descubrimientos científicos y sus potenciales aplicaciones se muevan a favor del hombre sin ningún coste de vidas humanas.

Volver al principio del artículo             Volver al principio de "Recortes"             Volver al principio

La ciencia experimental como una empresa

Javier Sáez Castresana

FUENTE: El País Digital 05/12/2007

El exceso de notoriedad que se está dando al mundo científico experimental, unido al desconocimiento sobre qué es lo que realmente ocurre en ese mundo, podría perjudicar seriamente a quienes nos dedicamos a la investigación experimental. Hablar de la ciencia y de sus triunfos, sin contraponer sus carencias, hace que la sociedad imagine la ciencia como algo esencialmente dulzón y fácil de realizar, como si de cualquier otro trabajo se tratase. Y esto no es así en absoluto.

El trabajo científico debería encuadrarse dentro de la categoría de trabajos liberales, entendiendo por tales aquellos exentos de ordenación utilitaria. Nos lo dice Antonio Millán Puelles en su libro La función social de los saberes liberales. Además, precisa, el "saber liberal" no significa lo mismo que la "profesión liberal". Esta última sigue formando parte del mundo del trabajo, mientras que aquél es en sí mismo ajeno a dicho mundo.

Hoy se pretende empresarializar la ciencia. Es decir, convertirla en un trabajo no liberal. Es todo un experimento. Porque desde sus inicios la investigación se ha caracterizado por ser para pocos, un poco aislados, un poco cortos de dinero, pero gente llena de voluntad y de creatividad. Se van creando en los últimos años suntuosos centros tecnológicos con la idea de comercializar la ciencia, poniendo límite, en ocasiones, a la libertad que el propio científico debería tener para desarrollar su trabajo. Tal vez sea una forma de esclavitud científica. Habrá que analizarlo con el paso del tiempo. Lo cierto es que esta cultura que hoy se extiende a pasos agigantados por nuestro país ya ejerce su influencia incluso en las agencias de evaluación científica, las que conceden el dinero público para que un investigador haga frente a los gastos propios de su proyecto de investigación. Estas agencias tienden a ver con buenos ojos las macrocolaboraciones, y penalizan más que nunca el quehacer de los grupos científicos tradicionales.

En Estados Unidos, sin embargo, sigue imperando el grupo pequeño de investigación. Se fomenta así la creatividad. Gracias a ello se realizan descubrimientos en ciencia básica que posteriormente pueden convertirse en ciencia aplicada. Incluso se patenta más que en Europa, sin perseguir exclusivamente la idea de la patente por sí misma. Eso sí, dentro de un mercado que garantiza la libertad de investigación y que paga bien a quien consigue resultados.

España y Europa van por otro camino. Lejos de liberalizar la investigación financiando grupos pequeños (y grandes también) que funcionen, tienden uniformemente a la idea lanzada desde la Comisión Europea, de financiar más y mejor a grupos grandes, o, más aún, muy grandes. Nuestro país, copiando a los de su entorno, acomplejados todos por no patentar tanto como en Estados Unidos, pretende que el científico investigue, desarrolle y patente. Todo a la vez, y dentro de un macrogrupo que dirige y controla el quehacer del científico.

Los investigadores experimentales han comenzado a abandonar su "saber liberal" derivando hacia una estrategia que implanta un estilo empresarial en el quehacer científico. Según esta tendencia, considero que sólo los investigadores de las ciencias humanas están a salvo. El resto, por exceso de prensa, de política y de gente que habla de ciencia, está condenado a perder su identidad. Quienes luchen por no perderla, continuando con el puro estilo científico como "saber liberal", deberán trabajar más y mejor que los demás, cuidando la creatividad más que la productividad. Tendrán muy difícil la financiación de su pequeño grupo en los años venideros.

Prepárense algunos a sufrir de verdad por exceso de vocación y buen celo científico. Sepan, no obstante, que Cajal, en su obra Reglas y consejos sobre investigación científica: los tónicos de la voluntad, les anima a seguir empecinados en su labor, aun reconociendo que trabajar así (en grupo pequeño, mal financiado, casi a espaldas de la tónica general), es propio de héroes. Sirvan a algunos de consuelo sus consejos: "Para la obra científica, los medios son casi nada y el hombre lo es casi todo", y "más que escasez de medios, hay miseria de voluntad".

Volver al principio del artículo             Volver al principio de "Recortes"             Volver al principio
linea.gif (922 bytes)
Vivat Academia, revista del "Grupo de Reflexión de la Universidad de Alcalá" (GRUA).
REDACCIÓN
Tus preguntas y comentarios sobre este Web dirígelos a vivatacademia@uah.es
Copyright © 1999 Vivat Academia. ISSN: 1575-2844.  Números anteriores. Año X.
Creative Commons License attrib.gif (1552 bytes) sa.gif (396 bytes) nc.gif (1017 bytes)

AVISO LEGAL

Última modificación: 11-01-2008