revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
 

Artículos

  P01 P02  
 
     
De ratones, hombres y elefantes:
el tamaño sí importa
 
Héctor T. Arita, Pilar Rodríguez y Leonor Solís
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La belleza depende del tamaño y de la simetría. Ningún animal muy pequeño puede ser bello, ya que mirarlo toma una porción tan pequeña de tiempo que la impresión sobre él es confusa. Tampoco un animal muy grande puede ser bello ya que no se puede tener una visión completa de él en un vistazo, y no hay unidad ni integridad.

Aristóteles

   
Nada de lo que nos lastima puede considerarse pequeño: por las eternas leyes de la proporción, el que una niña pierda una muñeca o el que un rey pierda la corona son eventos de la misma magnitud.
 
Mark Twain
   
 
Las diferencias de tamaño son un hecho de la vida. Ya sea que, como Aristóteles, queramos ver todo desde la limitada perspectiva que nuestro tamaño biológico nos impone o que, como Twain, comprendamos la importancia de las proporciones, nuestro entorno es un universo de tamaños y escalas que determinan las pautas de nuestra vida. Entre los zoólogos, uno de los hechos más interesantes es que especies tan disímiles como una musaraña de apenas dos gramos y una ballena azul de cerca de 190 toneladas compartan toda una serie de características morfológicas y fisiológicas que muestran claramente que ambos animales pertenecen al mismo grupo biológico, el de los mamíferos.
 
 
La diminuta musaraña y su gigantesco primo marino que pesa 100 millones de veces más tienen el mismo diseño anatómico básico compartido por las 4 600 especies de mamíferos del mundo. Tanto la musaraña como la ballena, así como los ratones y los elefantes o los murciélagos, son vertebrados endotermos que presentan metabolismos relativamente altos para mantener constante su temperatura corporal. Todos ellos poseen pelo en alguna etapa de su vida y sus hembras presentan glándulas mamarias que producen leche con la que alimentan a las crías. Con muy pocas excepciones, los mamíferos chicos y grandes son vivíparos y todos ellos presentan además otras características morfológicas que los distinguen del resto de los vertebrados.

Si de alguna manera tuviésemos la oportunidad o la posibilidad de inventar un mamífero ideal, ¿cómo sería?, ¿qué tamaño elegiríamos y qué características podríamos darle para asegurar su óptima sobrevivencia? Lograr un diseño eficiente implicaría trabajar a la manera de los ingenieros o los arquitectos, tomando en cuenta las dimensiones de nuestra construcción para darle forma, estructura y función a nuestra creación, para lo cual deberíamos considerar todas las leyes físicas y químicas de nuestro mundo. Esa difícil tarea de diseño avanzado la ha realizado la naturaleza desde hace millones de años, generando una gran variedad de organismos que son capaces de sobrevivir bajo muy distintas condiciones ambientales, además de mantener las características básicas que los hacen mamíferos. Sabemos que como seres humanos todavía estamos muy lejos de poder crear el hipotético mamífero ideal y debemos limitarnos a sorprendernos ante la maravillosa diversidad de soluciones que la naturaleza ha encontrado al problema de ser mamífero y no morir en el intento.

La fierecilla fosilizada y el rinoceronte cuellilargo

Todos los seres vivos están sujetos a una serie de leyes físicas que establecen límites para el tamaño que pueden adquirir. Por ejemplo, se ha calculado que el medio acuoso en el interior del ser vivo más pequeño que se conoce, el Mycoplasma, consiste apenas de dos iones de hidrógeno. También se ha calculado que los dinosaurios más grandes que existieron, los saurópodos, estuvieron muy cerca del tamaño máximo teórico permitido por las leyes de la biomecánica para un animal terrestre.

Otras restricciones biomecánicas y fisiológicas determinadas por las características propias de los mamíferos establecen límites específicos de tamaño. Así, de acuerdo con algunos cálculos fisiológicos, el límite inferior absoluto para un vertebrado endotérmico sería de alrededor de 2.5 gramos. La teoría, propuesta por el mastozoólogo Oliver Pearson en 1948, toma en cuenta el balance que existe entre la energía que se produce por el metabolismo y aquella que se pierde hacia el entorno. La cantidad producida depende de la tasa metabólica y la masa absoluta del animal, mientras que la energía que se disipa depende de la temperatura ambiental y la superficie expuesta del individuo (el área completa de piel a través de la cual se da la pérdida de calor). Ahora bien, dado que la masa de un animal varía en proporción al cubo de la longitud mientras que la superficie lo hace en proporción al cuadrado, los animales de tamaño pequeño tienen superficies expuestas mucho más extensas en proporción a su peso que los animales más grandes y por lo tanto pierden más velozmente el calor. Ésta es la misma razón por la que los cubos de hielo pequeños se derriten mucho más rápidamente que un bloque grande. Para poder mantener una temperatura interna constante, las aves y los mamíferos muy pequeños necesitan mantener tasas metabólicas relativas (por unidad de peso) mucho más altas que los animales grandes. Los animales pequeños necesitan quemar proporcionalmente más combustible para mantener el “fuego de la vida,” en palabras del fisiólogo Kleiber. Pearson calculó que un mamífero o un ave de menos de 2.5 g sería incapaz de generar la suficiente energía como para contrarrestar la pérdida. Otra consecuencia de la inexorable ley de las proporciones es que los endotermos muy pequeños tienen que ser de naturaleza muy activa para poder conseguir suficiente alimento para mantener vivo su intenso fuego interno. Esa es la razón por la que las musarañas, que se cuentan entre los mamíferos más diminutos, viven vidas muy intensas y son hiperactivas, por lo que son consideradas “fierecillas”, como la fierecilla domada de la comedia de Shakespeare.

De hecho, la musaraña europea (Suncus etruscus) se considera el mamífero terrestre más pequeño del mundo y es afamada por su fiereza. El colibrí abeja de Cuba (Mellisuga helenae) es el ave más chica que se conoce, mientras que el murciélago abejorro de Tailandia (Craseonycteris thonglongyai) es el mamífero volador más diminuto. Estos tres campeones de la pequeñez tienen masas corporales muy cercanas al límite teórico calculado por Pearson. Los adultos de la musaraña europea pesan cerca de 2.5 gramos, mientras que los murciélagos abejorro son aún más pequeños, con un peso de cerca de 2 gramos, por lo que se les considera los mamíferos vivientes más pequeños. Sin embargo, aun estos pigmeos resultarían gulliveres comparados con la liliputiense ranita Eleutherodactylus iberia, descubierta en Cuba en 1996 y que mide apenas poco más de un centímetro de longitud, es decir una tercera parte de lo que mide el murciélago abejorro. Evidentemente, la ranita cubana, al no ser endoterma, “escapa” a las restricciones fisiológicas descubiertas por Pearson y puede alcanzar un tamaño sorprendentemente pequeño.
 
Un descubrimiento reciente, una fierecilla fosilizada, parece echar por tierra la validez de la teoría energética del tamaño mínimo. La descripción de la musaraña Batodonoides vanhouteni, el mamífero más pequeño de todos los tiempos, fue sacado a la luz en 1998. Esta musaraña fósil del Eoceno temprano (hace 55 millones de años) tenía una longitud de tan sólo un poco más de 2 centímetros y pesaba cerca de 1.3 gramos, más o menos lo que pesa un billete y casi la mitad de lo que pesa la musaraña europea. Evidentemente, la teoría de Pearson no podría explicar la existencia de esta miniatura de animal. En 1977, Tracy, desarrolló un modelo alternativo al de Pearson, que podría salvar el prestigio de las predicciones fisiológicas ante la evidencia de la musaraña del Eoceno. Del mismo modo que años después otros fisiólogos como Calder, Tracy se basó en los mismos principios que Pearson, pero planteando que la pérdida de energía depende no sólo de la superficie expuesta sino de la temperatura ambiente promedio. Asimismo, la capacidad de generar energía internamente estaría limitada principalmente por la capacidad de un animal de conseguir suficiente comida para alimentar el fuego metabólico. Así, en un ambiente con una temperatura externa constante y relativamente alta, un mamífero realmente diminuto (como Batodonoides) podría sobrevivir si fuera altamente eficiente en la obtención de alimento.
 
Otro fisiólogo, Schmidt-Nielsen, ha argumentado que el límite inferior de tamaño para un vertebrado endotérmico no está determinado por el equilibrio energético, sino por otro factor limitante: la capacidad del corazón para bombear sangre oxigenada a todo el cuerpo. Debido a las altas tasas metabólicas por unidad de masa, el corazón de los vertebrados pequeños necesita trabajar a velocidades más altas que el de los animales más grandes. Se ha medido que el corazón de algunas musarañas trabaja al impresionante ritmo de 1 200 latidos por minuto. Para darnos una idea de lo increíble que resulta esta cifra, basta calcular que el ritmo equivale a 20 latidos por segundo, lo que implica que en un lapso no mayor de 50 milisegundos el corazón de una musaraña debe completar un ciclo completo, relajar el músculo y quedar listo para el siguiente ciclo. Se ha demostrado que el ritmo cardiaco varía en proporción a la masa corporal elevada al exponente (–0.25). Con este dato es fácil calcular que si la musaraña del Eoceno tenía una masa corporal de la mitad de la de una musaraña actual pequeña, el corazón de la especie fósil debió haber trabajado a un ritmo 1.19 veces más rápido, es decir a una tasa de alrededor de 1425 latidos por segundo, muy sorprendente pero dentro de los límites creíbles para el músculo de un vertebrado (de hecho, el corazón de algunos colibríes trabaja a ese ritmo). Si Schmidt-Nielsen tiene razón y es el ritmo cardiaco lo que determina el tamaño mínimo de un vertebrado, entonces es perfectamente explicable la existencia de la musaraña Batodonoides, con su minúsculo tamaño.

En el otro extremo del espectro de tamaños, el mamífero terrestre viviente más grande es el elefante africano (Loxodonta africana). El individuo más grande que haya sido medido bajo condiciones controladas pesó cerca de siete y medio toneladas, es decir tres millones de veces el peso de la musaraña europea. Los mayores mamíferos terrestres que han existido jamás fueron los hyracodóntidos, parientes de los rinocerontes actuales, pero mucho más grandes, carentes de cuernos y con el cuello alargado, que vivieron en Asia y Europa durante el Oligoceno (entre 23 y 34 millones de años atrás). El Baluchitherium, que medía 8 metros de largo y 5.5 de alto, se disputa con su pariente el Indricotherium el título del mamífero terrestre más grande de la historia. Según diferentes cálculos, estos goliats de los mamíferos pesaban entre 15 y 30 toneladas, es decir, entre 10 y 20 millones de veces más que la musaraña del Eoceno recientemente descubierta.

Algunas de las limitantes biomecánicas y fisiológicas que determinan el tamaño máximo de un vertebrado terrestre se han discutido en otro artículo (ver “Gigantes Jurásicos” en el número 44 de Ciencias), por lo que no entraremos en detalles en el presente. Basta mencionar aquí que los rinocerontes gigantes de cuello largo del Oligoceno, aun con sus veintitantas toneladas, están por debajo de los límites teóricos de tamaño para un vertebrado terrestre. Hay que recordar que los dinosaurios más grandes, los saurópodos, según algunos autores, alcanzaron pesos de 80 toneladas o más. Se ha especulado que el único factor que podría explicar porqué nunca existieron mamíferos del tamaño de un saurópodo es que los mamíferos más grandes son herbívoros, y que la materia vegetal es un alimento energéticamente muy difícil de aprovechar, por lo que el límite superior de tamaño para un vertebrado endotermo estaría determinado por la capacidad de adquirir suficiente alimento a partir de las plantas para mantener en funcionamiento varias toneladas de un organismo altamente demandante de energía, como lo es un mamífero.

Para cerrar esta sección del artículo, podemos concluir que para ser un mamífero y no morir en el intento, se debe tener una masa corporal comprendida entre los 1.3 gramos de la fierecilla fosilizada y las veintitantas toneladas de los rinocerontes cuellilargos. Tenemos amplio campo de acción. Se trata de más de siete órdenes de magnitud comprendidas entre los extremos de tamaño.

Pigmeos voladores y gigantes marinos

El mundo de la ciencia está lleno de excepciones, y el caso del tamaño entre los mamíferos no es una excepción a la regla. Existen dos tipos de mamíferos que, no conformes con la dificultad que representa vivir bajo las condiciones ambientales del medio terrestre, han explotado dos medios adicionales: el aire y el agua. Los murciélagos, junto con las aves y los extintos pterosaurios, son vertebrados voladores que han experimentado cambios sustanciales en su morfología y fisiología para adaptarse al medio aéreo. De igual forma, los mamíferos marinos, particularmente los cetáceos, se han diversificado en el mundo acuático a partir de un grupo de mamíferos terrestres. Tanto los quirópteros como los cetáceos tienen que enfrentar condiciones muy diferentes a las que viven los mamíferos terrestres no voladores, lo que se refleja en el tamaño de las especies de estos dos grupos.

Los murciélagos, por ejemplo, son mamíferos muy pequeños. Desde el murciélago abejorro de 2 gramos hasta el “zorro” volador (Pteropus giganteus) de cerca de un kilo y medio, los quirópteros abarcan menos de tres de las más de siete órdenes de magnitud posibles para un mamífero. ¿Por qué son tan pequeños los murciélagos? La diferencia entre el consumo energético para el vuelo y la capacidad de generar energía establece un límite cercano a los 14 kilogramos para un vertebrado volador. El peso del murciélago más grande es, de todas maneras, diez veces menor al de este límite energético. Es posible que el hecho que los murciélagos sean vivíparos limite en gran medida su tamaño máximo. A diferencia de las aves, los murciélagos hembras al volar deben cargar el peso de un feto; incluso, algunos murciélagos vuelan cargando a las crías durante los primeros días de la lactancia.
 
Existe la teoría de que la necesidad de maniobrar limita el tamaño en los murciélagos insectívoros. Un murciélago demasiado grande simplemente no podría ejecutar las acrobáticas maniobras necesarias para capturar un insecto al vuelo. Una teoría reciente lleva más allá la idea de una restricción mecánica asociada al vuelo. A principios de los años 90 se descubrió que los murciélagos insectívoros, para ahorrar energía, acoplan el batir de las alas con la producción de los ultrasonidos de ecolocalización que les permite detectar y capturar insectos. Cada movimiento de las alas corresponde a una exhalación respiratoria y la producción de un pulso de ultrasonido. Esta sincronización permite que se minimice el gasto de energía en el vuelo y la ecolocalización, actividades que individualmente son altamente costosas para los murciélagos. Por cuestiones biomecánicas, el batir de las alas es más lento en los murciélagos más grandes
y por lo tanto, debido al acoplamiento, el ritmo de producción de ultrasonidos es también más lento. Sin embargo, para un cierto tamaño límite (alrededor de 150 g de peso), el ritmo de producción de ultrasonidos sería demasiado lento como para poder detectar insectos
voladores. Un murciélago de más de 150 g podría volar perfectamente, pero su sistema de ecolocalización sería inservible para la detección, seguimiento y captura de insectos voladores. Consecuentemente con la teoría, no puede existir un murciélago insectívoro más grande de
150 g.

En la realidad, la gran mayoría de los murciélagos insectívoros pesa menos de 50 gramos y sólo hay cuatro especies de más de 100 gramos. Los murciélagos de más de 200 gramos no son insectívoros sino frugívoros, que no necesitan un aparato de ecolocalización tan sofisticado como el de los insectívoros. Aparentemente, el tamaño en los murciélagos en general está limitado por la combinación de capacidad de vuelo y la viviparidad. En los insectívoros existe además la limitación biomecánica relacionada con el acoplamiento entre el vuelo y la ecolocalización. Estas restricciones hacen que los murciélagos sean mamíferos pequeños.
 
El caso de los mamíferos marinos es completamente opuesto al de los murciélagos. Existen dos factores principales que determinan el tamaño de los cetáceos, los únicos mamíferos completamente marinos. Por un lado, los mamíferos marinos no se enfrentan a las limitaciones biomecánicas que establecen el tamaño máximo para un vertebrado en tierra firme. Debido a que los cetáceos pasan toda su vida flotando en el medio marino, sus extremidades no tienen que soportar el peso del cuerpo ni las tremendas tensiones y torsiones asociadas al desplazamiento en tierra firme. Por otro lado, en el medio acuático existe un problema de gran importancia para un mamífero: la tasa de disipación de calor es muy alta, por lo que para mantener la temperatura corporal es preciso contrarrestar ésta de alguna manera. Estos dos factores (la atenuación de las limitaciones biomecánicas y la acentuación del problema de la pérdida de calor) hacen que los mamíferos marinos sean mucho más grandes que los terrestres. Imaginemos por un momento que existiera una musaraña marina. Su tamaño pequeño, y en particular su gran área de piel expuesta en proporción al peso total, haría que la tasa de pérdida de calor fuera tan alta que se requeriría una tasa metabólica mucho mayor que la de las musarañas terrestres para contrarrestarla. Para mantener un metabolismo tan acelerado, el corazón de esta hipotética fierecilla marina debería trabajar a un ritmo de varios miles de latidos por minuto, hazaña imposible para el músculo cardíaco de un mamífero. Definitivamente podemos descartar la idea de una musaraña marina.

Dejando de lado el mundo de la biología ficción, el mamífero marino más pequeño que existe es la vaquita marina (Phocoena sinus), un cetáceo endémico de los mares mexicanos y que está en peligro de extinción. La vaquita, con su longitud de alrededor de 1.35 metros y su peso de cerca de 45 kilogramos, es mucho más grande que los mamíferos terrestres más pequeños. En el otro extremo tenemos a los verdaderos pesos completos de los mamíferos. La ballena azul (Balaenoptera musculus) es el animal más grande que ha existido sobre la faz de la Tierra. Una ballena azul no demasiado robusta pesa más de 100 toneladas, y el récord mundial lo constituye un individuo capturado en los mares del antártico, cuyo peso se estimó en cerca de 190 toneladas, lo que equivale al peso de más de 2 700 personas de peso promedio o al de más de 600 luchadores de sumo o al de más de 100 millones de murciélagos abejorro.

¿Cómo puede existir un animal de la envergadura de una ballena azul? Además de no tener que enfrentar las limitaciones biomecánicas que enfrentan sus parientes terrestres, la ballena azul puede escapar de otra de las limitantes: su alimentación está basada en el consumo de pequeños crustáceos que son una fuente de nutrimentos mucho más aprovechable energéticamente que el material vegetal que sirve de alimento a los mamíferos terrestres más grandes. Sin problemas de soporte mecánico y con un tipo de alimentación muy eficiente, energéticamente hablando, no existe un límite teórico al tamaño que podría adquirir un mamífero marino.

Para concluir la sección, podemos recalcar el hecho de que el medio aéreo y el marino producen efectos opuestos sobre el intervalo de posibles tamaños que pueden llegar a tener los mamíferos. Murciélagos y ballenas, que comparten las características básicas de todos los mamíferos, enfrentan condiciones completamente diferentes y han respondido en forma opuesta a las presiones ambientales. De esta manera, los mamíferos en estos medios se han convertido en pigmeos voladores y en gigantes marinos.

El mamut más pequeño de la historia

Cuando pensamos en un mamífero grande, probablemente una de las primeras imágenes que llega a nuestra mente es la de un mamut. Efectivamente, casi todos los mamuts (género Mammuthus) fueron animales de gran envergadura. La mayoría de las especies de estos proboscídeos pleistocénicos era al menos del tamaño de los elefantes modernos, y el mamut imperial (M. imperialis) llegó a medir más de cuatro metros de altura a los hombros.
Dada esta imagen de enormidad, resulta sorprendente que la antigüedad de los restos fósiles de estos animales sea de apenas 3 800 años. Es difícil imaginar que existían poblaciones de mamuts lanudos cuando en Mesopotamia y en Egipto se estaban desarrollando ya las primeras grandes civilizaciones.

La población de mamuts en cuestión existió en la isla Wrangler, al norte de Siberia. Se trata de una población que se originó cuando unos pocos individuos quedaron atrapados en la isla como consecuencia de los cambios climáticos que se dieron al final del Pleistoceno, es decir hace unos 10 mil años. Al aumentar la temperatura promedio de la Tierra, el nivel medio del mar subió y creó islas al separar terrenos antes conectados por tierra firme. De esta manera, en Wrangler quedó atrapado un grupo de mamuts que sufrió, como población, un proceso típico en grupos de individuos en islas: la tendencia de las especies de gran tamaño a producir enanos. En unos pocos miles de años, el tamaño de los individuos de la población de mamuts lanudos de Wrangler disminuyó sensiblemente hasta producir los pequeños mamuts cuyos fósiles de 4 mil años se conservan hasta nuestros días.

Existen numerosos casos de poblaciones de animales que al invadir islas experimentan una disminución en el tamaño promedio de sus individuos. En la isla de Cozumel, al este de la península de Yucatán, por ejemplo, se encuentran poblaciones de coatí (género Nasua), de mapache (género Procyon) y de pecarí cuyos individuos son más pequeños que sus contrapartes en el continente. Existe todavía controversia respecto a si estas poblaciones representan o no especies separadas. Parece ser que los primeros pecaríes de Cozumel fueron llevados a la isla por los mayas hace apenas unos cuantos cientos de años, lo que indica que la tendencia hacia el tamaño pequeño puede manifestarse en tiempos evolutivos muy cortos. Otro ejemplo interesante parece ser la fauna de dinosaurios de Rumania de finales del Cretacico, que está representada por formas anormalmente pequeñas. La explicación que se ha dado al diminuto tamaño de estos dinosaurios es que Europa Central hace cerca de 70 millones de años era un archipiélago, y que los fósiles de Rumania provienen de poblaciones que se encontraban aisladas en algunas de las islas, y por lo tanto experimentaron la tendencia al enanismo, tal como las poblaciones insulares actuales.

Un aspecto curioso de la evolución del tamaño corporal en las islas es que mientras las especies de gran tamaño desarrollan formas enanas, los especies pequeñas tienden a formar gigantes. Existen numerosos casos documentados de ratones, tortugas y lagartijas insulares que son más grandes que sus parientes en el continente. El caso extremo es el llamado dragón de Komodo (Varanus komodensis), que con casi tres metros de longitud y un peso de hasta 135 kilos es la lagartija más grande del mundo. Esta especie se encuentra solamente en la isla de Komodo y en otras pequeñas islas del archipiélago de la Sonda pertenecientes a Indonesia.

En la isla Ángel de la Guarda, en la parte norte del Golfo de California, se presenta un caso particularmente ilustrativo de las tendencias evolutivas en las poblaciones insulares. En la isla existen dos especies de serpientes de cascabel, Crotalus mitchelli y Crotalus ruber que también se encuentran en la parte continental de México. En el continente, C. mitchelli es mucho más pequeña que C. ruber, pero en Ángel de la Guarda la relación se ha invertido, de manera que ahí C. mitchelli es casi del doble de tamaño que la otra especie. Ted Case, ecólogo de la Universidad de California en San Diego, explica este fenómeno proponiendo el siguiente escenario: es posible que C. mitchelli (la especie pequeña en el continente) haya llegado primero a la isla y evolucionado hacia individuos de mayor tamaño. Mucho tiempo después, al invadir la isla C. ruber, esta serpiente “tuvo” que evolucionar hacia tamaños pequeños para evitar la competencia con la ahora serpiente grande C. mitchelli.

¿Qué hace que en las islas los gigantes se conviertan en enanos y los enanos en gigantes? Evidentemente, como en otros fenómenos biológicos, no existe una explicación sencilla, sino una combinación de factores. Tal como nos enseña el caso de las víboras de Ángel de la Guarda, la historia y el azar juegan un papel preponderante en estos procesos. Para hacer aún más interesante el misterio de los enanos y los gigantes insulares, existe un patrón muy curioso que fue descrito por Lomolino a mediados de los años 80. En los mamíferos, la tendencia general es que las especies cuyos individuos pesan más de 100 gramos en el continente tienden a hacerse más chicas al invadir islas, mientras que las especies de peso menor a 100 gramos tienden a hacerse grandes. Las especies que en promedio pesan cerca de 100 gramos no presentan cambios morfológicos notables una vez que se establecen en las islas. ¿Qué tiene de especial un peso de 100 gramos en los mamíferos? Para tratar de contestar debemos regresar a la pregunta hipotética que planteamos al principio de este artículo: si pudiéramos diseñar al mamífero ideal, ¿de qué tamaño sería?

El mamífero ideal, ¿existe tal cosa?

En México existen (o han existido en tiempos históricos) 289 especies de mamíferos terrestres, excluyendo a los murciélagos (por ser animales voladores) y a las especies insulares. En este conjunto de especies, el peso varía desde un poco más de 3 gramos en las musarañas más pequeñas, hasta la media tonelada del bisonte o del wapiti. La distribución estadística no es uniforme (aspecto que se discutirá más adelante), por lo que en realidad la gran mayoría de las especies presentan pesos de menos de 200 gramos. La media geométrica del peso de las 289 especies es de 171.5 gramos, que corresponde con la talla de una rata de tamaño grande (género Neotoma) o de una ardilla de tierra pequeña (por ejemplo, Spermophilus mexicanus). Estos animales podrían considerarse los mamíferos mexicanos promedio en cuanto a tamaño. Otra manera de tratar de encontrar un mamífero promedio es determinando el punto medio de la distribución, es decir la mediana. En el caso de los mamíferos terrestres mexicanos, la mediana del peso corporal es de 92 gramos, que corresponde al de una rata canguro de tamaño intermedio (Dipodomys gravipes). Estar situado en la mediana significa para la rata canguro que 144 especies mexicanas pesan menos que ella y 144 especies tienen una talla mayor. Podemos decir que si existe un mamífero promedio para México, tal animal sería un roedor de entre 90 y 180 gramos. Antes de discutir con detalle las implicaciones de este resultado, llamaremos la atención sobre el hecho de que los valores de la mediana y de la media geométrica del peso de los mamíferos de México son bastante cercanos a los 100 gramos que Lomolino encontró como límite para la tendencia hacia el gigantismo o el enanismo en los mamíferos insulares. ¿Casualidad? Algunas teorías recientes parecen indicar que esta concordancia es más que una simple coincidencia.

A finales de los años 50, dos de los más grandes ecólogos de la historia, George E. Hutchinson y Robert MacArthur, recopilaron datos de tamaño para los mamíferos de Michigan y los de Europa. Hutchinson y MacArthur encontraron un patrón común: existen más especies de tamaño pequeño que de tamaño grande. Para los mamíferos, esto significa que hay más tipos de musarañas y de ratones que de carnívoros o de venados, tal como sucede en el caso de los mamíferos de México. La explicación standard de este patrón fue que los animales más pequeños podían dividir el espacio y los recursos en una manera más fina que los de mayor talla, permitiendo así la existencia de más formas chicas que grandes. Las observaciones parecían ajustarse a un modelo definido por la competencia entre las especies y la forma en la que éstas se repartían los recursos.

Estudios posteriores, sin embargo, mostraron patrones más finos e interesantes que contradecían la teoría de Hutchinson y MacArthur. Para empezar, se ha demostrado que la categoría que comprende los animales de tamaño más pequeño no es la más rica en especies. En realidad, hay pocas especies de musaraña y de otros mamíferos diminutos en comparación con el número de especies de ratones y otros roedores, por ejemplo. Los mamíferos más comunes, en términos del número de especies que existe, no son los más pequeños, sino los de aproximadamente 100 a 120 gramos de peso, según datos de Brown y colaboradores. Como ya vimos, este patrón se cumple para la fauna de mamíferos de México, ya que existen sólo 25 especies que pesan menos de 10 gramos, mientras que 119 pesan entre 10 y 100 gramos, y 85 pesan entre 100 gramos y un kilo. En segundo lugar, existen cada vez menos especies a medida que nos movemos hacia tamaños mayores, y hay realmente muy pocas especies de gran talla. Podemos, por ejemplo, contar con los dedos de las manos las especies de mamíferos que pesan más de una tonelada (de hecho en México no existe ninguna de ellas), pero hay algunas docenas que pesan cientos de kilos (en México existen seis) y un número mayor que pesan decenas de kilos (en México hay 14). El número se incrementa siguiendo esta secuencia hasta alcanzar el pico alrededor de las especies de cerca de 100 a 200 gramos. En tercer lugar, la cantidad de especies de las diferentes tallas varía según el tamaño del área estudiada y, por tanto del número total de especies: en continentes completos o grandes regiones se observa el patrón unimodal con el pico en los 100 gramos, pero en regiones pequeñas con menos especies la distribución es más pareja, con un número similar de especies en cada categoría.

¿Cómo se pueden explicar estos patrones? Brown y sus colaboradores propusieron en 1993 un modelo energético que explica la existencia de un tamaño óptimo para un mamífero terrestre. El modelo incluye algunas inferencias complicadas basadas en las relaciones entre el tamaño corporal y diversas funciones fisiológicas, pero, en síntesis, propone una relación directa entre la masa corporal de un mamífero y dos atributos fisiológicos básicos: su capacidad para adquirir energía del medio para sobrevivir y crecer, y su capacidad para la reproducción. Según Brown y sus colegas, los mamíferos demasiado pequeños serían muy eficientes para adquirir energía del ambiente, pero poco eficientes para transformar esa energía en descendientes. Los mamíferos más grandes, en cambio, serían más eficientes para la reproducción, pero su deficiente capacidad de captura de energía les impediría aprovechar al máximo esa capacidad reproductora. Usando varios modelos alométricos, Brown y sus colaboradores concluyen que el mamífero ideal que aprovecharía al máximo la capacidad de adquisición de energía y su transformación en crías debe pesar alrededor de 100 gramos, cifra que coincide con la categoría de tamaño más rica en especies para diferentes faunas de mamíferos y con el límite descubierto empíricamente por Lomolino. Más recientemente, en 1997, Kozlowzki y Weiner, presentaron una teoría diferente en la que no existe un tamaño óptimo general para un mamífero, sino que aquel varía de especie a especie en función de las tasas de asimilación de energía, respiración y mortalidad.

Ambos modelos (el de Brown y colaboradores, y el de Kozlowzki y Wiener), predicen que los factores fisiológicos determinan el tamaño ideal para los mamíferos. La hipótesis de Brown y colaboradores habla de un ideal para todos los mamíferos, mientras que la de Kozlowzki y Wiener propone que el tamaño óptimo varía entre las especies. Las dos teorías predicen que el tamaño ideal debe ser el más rico en especies, mientras que los tamaños más pequeños y más grandes estarían menos representados en las faunas de mamíferos. Aunque ambas teorías siguen siendo acaloradamente debatidas en la literatura científica actual y no han sido universalmente aceptadas, al menos han propuesto un sustento teórico a las observaciones empíricas sobre la distribución de tamaños entre los mamíferos y han desencadenado una discusión muy fructífera entre los científicos interesados en el tamaño corporal como una variable ecológica.

Marcha de caballos fósiles y caída de titanes

Entre las implicaciones de las teorías fisiológicas de un tamaño óptimo para los mamíferos destaca la conclusión de que debe haber mecanismos selectivos de producción de nuevas especies y de extinción para producir el patrón típico de distribución de frecuencias de masas corporales que observamos en la actualidad. ¿Qué nos puede decir la paleobiología sobre este asunto?

Entre las “reglas” biológicas que han intentado explicar los patrones evolutivos de los mamíferos en relación con el tamaño destaca la llamada regla de Cope, que propone la existencia de una tendencia evolutiva hacia el desarrollo de tamaños cada vez más grandes. Se ha invocado esta regla para explicar el enorme tamaño que llegaron a adquirir algunos dinosaurios y se ha aplicado para describir las tendencias evolutivas de algunos grupos de mamíferos. Por ejemplo, todavía en algunos textos se presenta la evolución de los proboscídeos (el orden de los elefantes) como un ejemplo de la regla de Cope, que llevó a este grupo de animales a evolucionar desde el primitivo Moeritherium de finales del Eoceno, que era un proboscídeo relativamente pequeño (de 250 kilos) y más parecido a un hipopótamo que a un elefante, hasta los enormes mamuts del Pleistoceno, que deben haber pesado unas 10 toneladas. Sin embargo, un análisis más cuidadoso de la evolución en este grupo muestra la existencia de una gran variedad de formas y tamaños durante el Oligoceno, Mioceno y Plioceno, incluyendo especies de enormes dimensiones, pero también formas de tamaños intermedios.

Otro ejemplo clásico de la regla de Cope es la evolución de los caballos, desde el primitivo Hyracotherium (conocido también como Eohippus) del Eoceno hasta el moderno Equus, que apareció en el Pleistoceno, y al que pertenecen en la actualidad los caballos, cebras y burros. En la forma tradicional, se entendía la evolución de estos animales como una tendencia hacia la aparición de especies cada vez más grandes, la cual estaba asociada a otros cambios: (1) el paso de un ambiente boscoso a las sabanas abiertas; (2) la transformación de los molares, desde una estructura simple característica de los herbívoros ramoneadores, hasta los dientes grandes y complejos propios de un pastoreador; (3) una tendencia a desarrollar capacidades para correr velozmente y escapar de los depredadores, reflejada en un incremento en la longitud de las patas y en la pérdida de dedos, hasta terminar con la pezuña única, característica de los caballos modernos.

Bruce MacFadden, paleontólogo de la Universidad de Florida, ha analizado con mucho detalle la evolución de los caballos en América del Norte y ha mostrado que existieron largos periodos en los que no existe un aumento notable en el tamaño de las especies, y que los “saltos” reflejados en cambios en la masa corporal coinciden siempre con cambios dramáticos en el clima o el tipo de vegetación. Más recientemente, otros paleobiólogos han mostrado que, en otras partes del mundo, la evolución de los caballos ha producido en diferentes etapas tanto especies pequeñas como grandes. Definitivamente la regla de Cope no explica adecuadamente la evolución de los elefantes ni de los caballos.

Otra supuesta regla es que las especies de mayor talla deben ser más susceptibles a la extinción. Esta suposición parte de la imagen que se tiene sobre las extinciones masivas de vertebrados en tiempos remotos: la extinción masiva de los dinosaurios al final del Cretácico y la de la megafauna de mamíferos de varios continentes al final del Pleistoceno parecen ser ejemplos extremos de la alta vulnerabilidad de las especies de tamaño grande. Sin embargo, existen algunas complicaciones para esta explicación simplista: no hay que olvidar, para empezar, que junto con los enormes dinosaurios que todos conocemos existió toda una colección de dinosaurios de tamaños pequeños y medianos, que también desapareció hace 65 millones de años.

El caso de la megafauna de mamíferos se ha prestado a mayor debate y es posible que la aparición de un nuevo factor haya sido la causa principal de este episodio en la historia de los mamíferos. La evidencia muestra que, en efecto, los mamíferos pleistocénicos de mayor talla, entre ellos los clásicos mamuts, tuvieron una probabilidad mayor de extinción que las formas más pequeñas. Sin embargo, hay evidencias de gran peso que indican que la presencia del hombre pudo haber sido el factor determinante en la desaparición de estas especies. El hecho es que la desaparición de la megafauna coincide en varios sitios con la aparición en esos lugares del hombre. Por ejemplo, la extinción de los canguros gigantes, del león marsupial y de otros mamíferos australianos se produjo hace 35 mil años, justo cuando el hombre primitivo llegó a la isla-continente. Más recientemente, hace 11 mil años, sucedió exactamente lo mismo con la megafauna de mamíferos de América del Norte, al aparecer los grupos humanos correspondientes con los artefactos Clovis. Finalmente, en el último milenio, la extinción de numerosas aves de gran tamaño en Madagascar, Nueva Zelandia y varias islas del Pacífico ha coincidido indudablemente con la llegada de la gente. La conclusión inescapable de esta evidencia es que la extinción masiva de las especies de mayor tamaño en el Pleistoceno y en la época actual es más una consecuencia del efecto negativo del hombre que el de una regla biológica.

Tal parece que, tanto la llamada regla de Cope, como la supuesta tendencia de las especies grandes a ser más susceptibles a la extinción, tienen poco apoyo en la evidencia empírica. De hecho, el paleobiólogo David Jablonski ha llegado a conclusiones semejantes en el caso de los invertebrados, al no encontrar evidencia para ninguna de las dos supuestas reglas en la extensa colección de moluscos fósiles del Cretácico de América del Norte. En suma, es necesario rexaminar la evidencia fósil para dilucidar procesos que puedan explicar los patrones pasados y presentes de la distribución de masas corporales entre los mamíferos.

Implicaciones históricas y sociales

Para concluir, discutiremos dos ideas actuales que tienen que ver con este tema y que pretenden comprender la relación del hombre con los animales. La primera es la especulación que hace Jared Diamond sobre la antigua idea de que la posesión de animales domésticos de gran talla ha constituido una ventaja considerable para grupos humanos que han logrado conquistar a otras culturas. Según algunos antropólogos e historiadores, y más recientemente según Diamond, la combinación de animales domésticos, agricultura avanzada, tecnología militar y resistencia a las enfermedades ha dado a los conquistadores las ventajas suficientes para dominar a sus conquistados. En particular, la posesión de caballos y rumiantes (vacas, ovejas, cabras) por los europeos constituyó una ventaja determinante en la conquista del continente americano, Australia y otras partes del mundo.

No podemos en este artículo entrar en una detallada discusión sobre la validez de los argumentos de Diamond. Sin embargo, el punto relevante en relación al tema del artículo es la especulación de Diamond que establece que la extinción diferencial de la megafauna en diferentes partes del mundo es lo que permitió a los europeos la domesticación de los animales que posteriormente favorecieron la expansión de los grupos humanos del viejo continente a costa de la gente de otros sitios que no poseían animales domésticos de gran talla. Según Diamond, los mamíferos de gran tamaño no se extinguieron en el viejo continente a causa de los humanos, ya que esa fauna ha evolucionado junto con poblaciones humanas por decenas o centenas de miles de años. Por el contrario, las faunas de América, de Australia y de otras partes del mundo eran muy susceptibles a la acción de los humanos, lo que podría explicar las catastróficas extinciones masivas asociadas con la llegada del ser humano a esos sitios. La consecuencia última de la pérdida de los grandes mamíferos fue que todas las especies de gran talla potencialmente domesticables fueron extirpadas de América y de Australia, lo que impidió a los pueblos nativos de estos continentes contar con los equivalentes a los caballos y las vacas. Esto, a su vez, de acuerdo con Diamond, allanó el camino, junto con otros factores, para la conquista del Nuevo Mundo y Australia por los europeos.

Una derivación más actual de los avances recientes en la comprensión de las implicaciones ecológicas y evolutivas del tamaño corporal, es el posible incremento en la susceptibilidad de los animales de mayor talla a la extinción. Además de la evidencia histórica, representada por las extinciones masivas de aves y mamíferos de gran talla ante la presencia humana, hay una serie de correlaciones ecológicas que sugieren que las especies de mayor tamaño deben ser más vulnerables a la extinción. Por ejemplo, los mamíferos más grandes existen en densidades menores que las de las especies más pequeñas. Asimismo, las especies grandes son más longevas y por lo tanto tienen tiempos generacionales más extensos, presentan camadas más pequeñas y más espaciadas en el tiempo y requieren áreas mayores para mantener poblaciones viables. Esta evidencia apunta fuertemente a que, en efecto, las especies de mayor tamaño podrían estar en mayor riesgo de extinción.

Los humanos del siglo xxi no veremos jamás a un mamut vivo, a menos que tengan éxito los intentos recientes por producir mamuts clonados a partir de material genético encontrado en fósiles congelados en Siberia. Tampoco observaremos nunca al perezoso gigante, una especie que desapareció hace apenas algunos miles de años, a menos que el animal sea encontrado en la selva del Amazonas por un científico que afirma tener pruebas de la presencia del perezoso gigante en Brasil. Sería muy triste añadir a esta lista otros representantes de las categorías de tamaño más grande entre los mamíferos. Además de ser, como hemos visto, casos excepcionales de tamaño, los elefantes, los rinocerontes, los hipopótamos y otros megamamíferos constituyen componentes clave de los ecosistemas, y son parte fundamental de la diversidad biológica del planeta. Chivi57
Referencias Bibliográficas
 
Brown, J. H. 1995. Macroecology. University of Chicago Press, Chicago, Estados Unidos.
Diamond, J. 1997. Guns, germs, and steel. The fates of human societies.
Gould, S. J. (ed.). 1993. The book of life. W. W. Norton & Co., Nueva York.
Jablonski, D., D. H. Erwin y J. H. Lipps (eds.). 1996. Evolutionary paleobiology. University of Chicago Press, Chicago.
Quammen, D. 1997. The song of the dodo, island biogeography in an age of extinctions. Simon & Schuster, Nueva York.
Schmidt-Nielsen, K. 1984. Scaling, why is animal size so important? Cambridge University Press, Cambridge Reino Unido.
Wilson, E. O. 1992. The diversity of life. Harvard University Press, Cambridge, Massachusetts.
Se extrajeron algunos datos e información específica del manuscrito:
Arita, H. T. y P. Rodríguez. Macroecología y ecología geográfica. Para el libro Biogeografía (J. J. Morrone, O. Flores y J. Llorente, eds.).
Héctor T. Arita, Pilar Rodríguez y Leonor Solís
Instituto de Ecología,
Universidad Nacional Autónoma de México.

_______________________________________________________________
 

como citar este artículo

Arita, Héctor T. , Rodríguez Pilar y Solís Leonor. (2000). De ratones, hombres y elefantes: el tamaño sí importa. Ciencias 57, enero-marzo, 28-38. [En línea]
 
 
 

 

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
El estudio del genoma humano
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
flechavolver58   Regresar al índice artículo siguiente
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
La primera cátedra de Ecología
 
Carlos Vázquez Yanes
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En nuestros días, la palabra ecología, bien o mal entendida, está en boca de muchos sabios o ignorantes del mundo. Incluso, hoy por hoy, abundan los que se dicen “ecologistas”, que algunas veces dan la impresión de ser el equivalente en biología a lo que los astrólogos son a los astrónomos: los primeros confunden el pensamiento mágico con el científico. Este auge de la ecología es relativamente reciente; no hace mucho tiempo, el tema en nuestra universidad no era siquiera objeto de un curso especializado de la carrera de biólogo.
Veamos algunos aspectos del origen de este curso de acuerdo a mi propia experiencia durante mis estudios para obtener el título de biólogo. Cuando cursaba el tercer año de la carrera, en 1965, me di cuenta que entre las materias optativas ofrecidas por la Facultad se encontraba la de ecología. En esos tiempos, la impartía el Dr. Arturo Gómez Pompa, quien tenía fama entre sus discípulos de 1964 de dar un excelente curso, muy actualizado, pues acababa de regresar de una larga estancia en la Universidad de Harvard, en donde había disfrutado de una de las prestigiosas becas Guggenheim durante 1963. Actualmente, el Dr. Gómez Pompa es uno de esos valiosos cerebros mexicanos que trabajan en el extranjero, en la Universidad de California, en Riverside.
Por dificultades con el calendario escolar, no pude inscribirme en la materia durante 1965 y la dejé para mi último año de estudios. En 1966, el Dr. Gómez Pompa dejó el curso de Ecología para impartir la clase de Botánica iv a nuestra generación. La  materia  de Ecología quedó vacante, así que un grupo de alumnos interesados en ella, le pedimos al Dr. Juan Luis Cifuentes Lemus que la impartiera. El profesor Cifuentes, como todos los que fuimos sus agradecidos alumnos le llamamos todavía, aceptó gentilmente, evitando así que nos quedásemos sin tomar la materia, pero nos advirtió que nosotros tendríamos que preparar muchas de las lecciones, lo cual aceptamos gustosamente.
Gracias al profesor Cifuentes pudimos enterarnos del origen de la materia en la Facultad de Ciencias. Ésta fue introducida al plan de estudios de la carrera de biólogo por sugerencia del Dr. Enrique Rioja Lo Bianco,1 a mediados de los años cincuenta. El profesor Rioja era un exiliado español especializado en zoología de invertebrados marinos e hidrobiología, que llegó a México después de la Guerra Civil en España. En Europa había llegado a ser director de la prestigiada Estación Zoológica de Nápoles, Italia, en donde tuvo contacto con el trabajo de reconocidos pioneros de la ecología, como Vito Volterra, famoso por sus modelos ya clásicos en ecología de poblaciones de peces. En México, el Dr. Rioja fue investigador del Instituto de Biología de la unam e impartió la materia de Ecología en el posgrado de biología, y posteriormente en la licenciatura, hasta que enfermó gravemente en 1963. Su muerte ocurrió ese mismo año.
Así, vemos que la enseñanza de la Ecología como una disciplina independiente en la Facultad de Ciencias de la unam, sólo se inició hasta los años cincuenta. No he recabado información precisa del año en que el Dr. Rioja comenzó a impartir la cátedra de Ecología, aunque tengo noticia que esto ocurrió a partir del cambio del curriculum que tuvo lugar durante los 50. ¡Antes de esa época no existía la clase!
Durante la escritura de esta nota, me comuniqué vía correo electrónico con el Dr. Arturo Gómez Pompa a Riverside, California. Transcribo aquí, en sus propias palabras, algunos fragmentos de la comunicación que me envió:“Durante los años 50, el Dr. Rioja impartía cursos de ecología en el doctorado. Yo tomé dos cursos con él y tuve la oportunidad de tener una magnífica relación. En ese tiempo yo empezaba mis estudios en la ecología de las dioscóreas, asesorado por el Dr. Faustino Miranda.
”Lamentablemente, el Dr. Rioja enfermó gravemente, y ya desde el hospital, me mandó llamar para invitarme a que lo sustituyera dando la clase de Ecología. Me dio terror la idea de sustituir sus increíbles clases llenas de sabiduría, al estilo de los grandes naturalistas académicos europeos. Él me animó y me dijo que podía venir a discutir con él al hospital cada vez que yo quisiera. Así lo hice, y de él aprendí muchísimo. En especial, a controlar el nerviosismo de dar la clase. Recuerdo que una vez le platiqué de mi nerviosismo, y que en las noches antes de la clase casi no podía dormir. Él me dijo que era buena señal que me preocupara, ¡que con el tiempo eso se corregía! ¡Que a él también le temblaban las piernas cuando caminaba rumbo al salón! No sé si me dijo la verdad, pero a partir de ese momento me tranquilicé. Algo más que hice  para tranquilizarme fue, entre otras cosas, llevar a los estudiantes al campo y mostrarles lo que yo hacía”.
Algunos de mis compañeros y yo tuvimos la fortuna de conocer personalmente al Dr. Rioja durante el primer año de la carrera, aunque desgraciadamente esto ocurrió en 1963, cuando ya se encontraba internado en el Hospital Español, transitando penosamente por la etapa terminal de su enfermedad. El profesor Cifuentes fue quien nos sugirió la idea de visitarlo y nos acompañó a verlo. Él pensaba que al Dr. Rioja le daría un gusto muy grande el saber que ya contaba con nietos académicos en cuya cabeza rondaba la idea de estudiar ecología. Al salir de su habitación todos pensamos que efectivamente así fue.


En nuestros días, la palabra ecología, bien o mal entendida, está en boca de muchos sabios o ignorantes del mundo. Incluso, hoy por hoy, abundan los que se dicen “ecologistas”, que algunas veces dan la impresión de ser el equivalente en biología a lo que los astrólogos son a los astrónomos: los primeros confunden el pensamiento mágico con el científico. Este auge de la ecología es relativamente reciente; no hace mucho tiempo, el tema en nuestra universidad no era siquiera objeto de un curso especializado de la carrera de biólogo.
Veamos algunos aspectos del origen de este curso de acuerdo a mi propia experiencia durante mis estudios para obtener el título de biólogo. Cuando cursaba el tercer año de la carrera, en 1965, me di cuenta que entre las materias optativas ofrecidas por la Facultad se encontraba la de ecología. En esos tiempos, la impartía el Dr. Arturo Gómez Pompa, quien tenía fama entre sus discípulos de 1964 de dar un excelente curso, muy actualizado, pues acababa de regresar de una larga estancia en la Universidad de Harvard, en donde había disfrutado de una de las prestigiosas becas Guggenheim durante 1963. Actualmente, el Dr. Gómez Pompa es uno de esos valiosos cerebros mexicanos que trabajan en el extranjero, en la Universidad de California, en Riverside.
Por dificultades con el calendario escolar, no pude inscribirme en la materia durante 1965 y la dejé para mi último año de estudios. En 1966, el Dr. Gómez Pompa dejó el curso de Ecología para impartir la clase de Botánica iv a nuestra generación. La  materia  de Ecología quedó vacante, así que un grupo de alumnos interesados en ella, le pedimos al Dr. Juan Luis Cifuentes Lemus que la impartiera. El profesor Cifuentes, como todos los que fuimos sus agradecidos alumnos le llamamos todavía, aceptó gentilmente, evitando así que nos quedásemos sin tomar la materia, pero nos advirtió que nosotros tendríamos que preparar muchas de las lecciones, lo cual aceptamos gustosamente.
Gracias al profesor Cifuentes pudimos enterarnos del origen de la materia en la Facultad de Ciencias. Ésta fue introducida al plan de estudios de la carrera de biólogo por sugerencia del Dr. Enrique Rioja Lo Bianco,1 a mediados de los años cincuenta. El profesor Rioja era un exiliado español especializado en zoología de invertebrados marinos e hidrobiología, que llegó a México después de la Guerra Civil en España. En Europa había llegado a ser director de la prestigiada Estación Zoológica de Nápoles, Italia, en donde tuvo contacto con el trabajo de reconocidos pioneros de la ecología, como Vito Volterra, famoso por sus modelos ya clásicos en ecología de poblaciones de peces. En México, el Dr. Rioja fue investigador del Instituto de Biología de la unam e impartió la materia de Ecología en el posgrado de biología, y posteriormente en la licenciatura, hasta que enfermó gravemente en 1963. Su muerte ocurrió ese mismo año.
Así, vemos que la enseñanza de la Ecología como una disciplina independiente en la Facultad de Ciencias de la unam, sólo se inició hasta los años cincuenta. No he recabado información precisa del año en que el Dr. Rioja comenzó a impartir la cátedra de Ecología, aunque tengo noticia que esto ocurrió a partir del cambio del curriculum que tuvo lugar durante los 50. ¡Antes de esa época no existía la clase!
Durante la escritura de esta nota, me comuniqué vía correo electrónico con el Dr. Arturo Gómez Pompa a Riverside, California. Transcribo aquí, en sus propias palabras, algunos fragmentos de la comunicación que me envió:“Durante los años 50, el Dr. Rioja impartía cursos de ecología en el doctorado. Yo tomé dos cursos con él y tuve la oportunidad de tener una magnífica relación. En ese tiempo yo empezaba mis estudios en la ecología de las dioscóreas, asesorado por el Dr. Faustino Miranda.
”Lamentablemente, el Dr. Rioja enfermó gravemente, y ya desde el hospital, me mandó llamar para invitarme a que lo sustituyera dando la clase de Ecología. Me dio terror la idea de sustituir sus increíbles clases llenas de sabiduría, al estilo de los grandes naturalistas académicos europeos. Él me animó y me dijo que podía venir a discutir con él al hospital cada vez que yo quisiera. Así lo hice, y de él aprendí muchísimo. En especial, a controlar el nerviosismo de dar la clase. Recuerdo que una vez le platiqué de mi nerviosismo, y que en las noches antes de la clase casi no podía dormir. Él me dijo que era buena señal que me preocupara, ¡que con el tiempo eso se corregía! ¡Que a él también le temblaban las piernas cuando caminaba rumbo al salón! No sé si me dijo la verdad, pero a partir de ese momento me tranquilicé. Algo más que hice  para tranquilizarme fue, entre otras cosas, llevar a los estudiantes al campo y mostrarles lo que yo hacía”.
Algunos de mis compañeros y yo tuvimos la fortuna de conocer personalmente al Dr. Rioja durante el primer año de la carrera, aunque desgraciadamente esto ocurrió en 1963, cuando ya se encontraba internado en el Hospital Español, transitando penosamente por la etapa terminal de su enfermedad. El profesor Cifuentes fue quien nos sugirió la idea de visitarlo y nos acompañó a verlo. Él pensaba que al Dr. Rioja le daría un gusto muy grande el saber que ya contaba con nietos académicos en cuya cabeza rondaba la idea de estudiar ecología. Al salir de su habitación todos pensamos que efectivamente así fue.

Referencias.
1. Para obtener más información acerca de la vida y obra de Enrique Rioja Lo Bianco es muy recomendable la lectura del artículo de Cifuentes Lemus, J. L. 1994. “Enrique Rioja Lo Bianco (1895-1963)”. Revista Universidad de México.
2. Margalef, R. 1974. Ecología. Ediciones Omega, Barcelona.
3. Para conocer más de este científico es recomendable la lectura del artículo de Franco Baqueiro, M. 1994. “Faustino Miranda González (1905-1964)”. Revista Universidad de México.
Carlos Vázquez-Yanes†.
Instituto de Ecología,
Universidad Nacional Autónoma de México.
flechavolver58
 
Regresar al índice artículo siguiente

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
El estudio del genoma humano
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
flechavolver58   Regresar al índice artículo siguiente

Está aquí: Inicio
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 319, 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316

Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
Indice-RM
 

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 
Asesor técnico: e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License