Tres teorías sobre cómo comenzó la vida en la Tierra

Durante millones de años, la Tierra fue un planeta caliente y rocoso. La comunidad científica tiene algunas hipótesis sobre cómo surgió la vida en medio de un terreno tan inhóspito.

La Tierra se formó hace unos 4600 millones de años, y durante varios cientos de millones de años la superficie del planeta estuvo casi con toda seguridad demasiado caliente y fuertemente bombardeada por cometas y asteroides como para ser hospitalaria con cualquier tipo de forma de vida. Unos mil millones de años después, la vida no sólo existía, sino que dejaba constancia de su presencia en forma de tapetes microbianos fosilizados.

¿Qué ocurrió entonces? ¿Cómo surgió la vida a partir de la no-vida en el transcurso de unos 500 millones de años?

1. La chispa de un rayo

Las condiciones atmosféricas en la época en que apareció la vida eran muy distintas de las actuales, señala Jim Cleaves, catedrático del departamento de Química de la Universidad Howard en Washington (EE. UU.) y coautor de Breve historia de la creación: La ciencia y la búsqueda del origen de la vida.

En la década de 1950, explica, el químico Harold Urey, ganador del Premio Nobel, observó que en la mayoría de las atmósferas del sistema solar predominan el nitrógeno y el metano; Urey razonó que la Tierra primitiva también tenía este tipo de atmósfera y que la presencia de vida la transformó en una más rica en oxígeno. Urey también propuso que esta atmósfera primitiva «podría ser muy eficiente en la fabricación de compuestos orgánicos, que podrían ser el precursor de la vida», explica Cleaves.

Encargó a su estudiante de investigación Stanley Miller que desarrollara un experimento para poner a prueba esta teoría. El experimento Miller-Urey creó un sistema cerrado en el que el agua se calentaba y se combinaba con moléculas de hidrógeno, metano y amoníaco. A continuación, se aplicaba electricidad (para representar un rayo) y se enfriaba para que la mezcla se condensara y volviera a caer en el agua, como la lluvia.

Los resultados fueron sorprendentes.

Al cabo de una semana, el «océano» experimental había adquirido un color marrón rojizo debido a la combinación de las moléculas para crear aminoácidos, los componentes básicos de la vida.

Investigaciones posteriores han demostrado que la atmósfera primitiva del planeta era algo diferente del experimento creado por Miller, y que los principales componentes eran el nitrógeno y el dióxido de carbono, con hidrógeno y metano presentes en cantidades menores.

Sin embargo, los principios propugnados por Miller siguen siendo válidos en líneas generales, ya que los rayos se combinaron con impactos de asteroides y radiación ultravioleta del Sol para crear cianuro de hidrógeno, que luego reaccionó con el hierro aportado por el agua de la corteza terrestre para formar sustancias químicas como azúcares. Estas sustancias químicas pueden haberse combinado para crear cadenas de ácido ribonucleico, o ARN, un componente clave de la vida que almacena información; en algún momento, las moléculas de ARN empezaron a replicarse y la vida fue posible.

¿Cómo se convirtieron estas moléculas de ARN en complejas estructuras celulares rodeadas de membranas protectoras?

La clave puede estar en los coacervados (gotas que contienen proteínas y ácidos nucleicos y que son capaces de unir sus componentes de forma muy parecida a como lo hacen las células, pero sin el uso de membranas); varios investigadores han planteado la hipótesis de que dichas gotas actuaron como protocélulas que concentraron el ARN primitivo y otros compuestos orgánicos.

2. Traídos a la Tierra por el espacio

Según otra teoría, los aminoácidos, así como otros componentes básicos de la vida, como el carbono y el agua, podrían haber llegado a la Tierra desde el espacio. Se ha descubierto que los cometas y meteoritos contienen algunos de los componentes orgánicos de la vida, y que su bombardeo de la Tierra pudo aumentar la disponibilidad de aminoácidos.

Según el Premio Nobel de Química Jack Szostak, de la Universidad de Chicago (EE. UU.), que dirige la iniciativa interdisciplinaria Orígenes de la Vida, es casi seguro que los impactos de asteroides y cometas fueron parte integrante.

Señala que una atmósfera primitiva de nitrógeno y dióxido de carbono habría sido menos propicia para algunas de las reacciones químicas propuestas que tuvieron lugar en el brebaje de Miller de hidrógeno, metano y amoníaco; pero, explica, un impacto de tamaño moderado puede crear hidrógeno y metano atmosféricos de forma transitoria, permitiendo una sacudida temporal de condiciones creadoras de compuestos.

«Es como tener tu pastel y comértelo», explica.

3. Escondida en los océanos de la Tierra

Otra teoría postula que la vida puede haber comenzado en las profundidades del océano, alrededor de respiraderos hidrotermales en el fondo marino, pero Szostak descarta esta hipótesis.

«Si nos fijamos en la química que nos lleva desde los materiales de partida simples hasta los nucleótidos y el ARN, hay múltiples pasos que requieren la radiación UV del Sol para impulsar las reacciones», explica. «La energía del Sol es, con diferencia, la mayor fuente de energía, incluso en el planeta primitivo. Así que, si hay múltiples pasos químicos que requieren UV, no puede estar en el océano profundo».

Sin embargo, es casi seguro que la vida comenzó en el agua.

«Se necesita un disolvente para que se produzcan las reacciones químicas», señala Cleaves. «Se necesita un líquido. Y cuando empiezas a hablar de líquidos, sólo unos pocos son estables en las condiciones de la superficie planetaria. Incluso en el sistema solar primitivo, resulta que el agua es el más abundante».

Szostak argumenta que, mucho más probable que la vida comenzara en las profundidades oceánicas es que se estableciera «en la superficie, probablemente en estanques poco profundos o en un entorno del tipo de aguas termales: el tipo de entorno que es muy común alrededor de lugares de impacto o regiones volcánicas». De hecho, es muy posible que la extensa actividad volcánica también contribuyera a que la vida se estableciera, entre otras cosas generando enormes cantidades de rayos localizados.

Es posible que, aunque toda la vida actual en la Tierra comparta un ancestro común universal, una forma de vida microbiana desconocida que presumiblemente desapareció hace mucho tiempo, la vida misma haya comenzado en múltiples ocasiones diferentes a través de varias vías distintas, sólo para ser extinguida por impactos cometarios o simplemente para no ganar tracción, hasta que se estableció la molécula basada en ARN que es el ancestro de todos nosotros.

«Es posible que todo haya sido un juego de dados», afirma Cleaves.

La vida primitiva sigue siendo un misterio

Si eso ocurrió (si la vida empezó y se desvaneció más de una vez antes de echar raíces) es casi seguro que nunca sabremos lo que podría haber sido, ya que esas supuestas formas de vida no han dejado rastro de su existencia.

La vida podría haber seguido un camino muy diferente, que no habría desembocado en flores, árboles, dinosaurios o seres humanos. La clave para comprender todo esto, dice Szostak, es sustituir la pregunta general por una serie de preguntas mucho más pequeñas.

«La vida es un sistema tan complicado que las más simples bacterias o virus tienen miles de piezas móviles. Es difícil entender cómo algo así pudo aparecer de la nada», afirma. «Y la respuesta es que no fue así. Ocurrió paso a paso».

https://www.nationalgeographic.es/ciencia/2024/03/tres-teorias-sobre-como-comenzo-la-vida-en-la-tierra

Adrián Seijas Lomba (4ºA ESO)

Descubren la proteína responsable de la sensación de frío

El hallazgo podría ayudar a desentrañar por qué algunas personas experimentan el frío de forma diferente cuando padecen determinadas enfermedades

Investigadores de la Universidad de Míchigan, en Estados Unidos, han identificado la proteína que permite a los mamíferos sentir el frío, dando respuesta a una de las grandes cuestiones por resolver por la biología sensorial.

El hallazgo, recogido este lunes en la revista Nature Neuroscience, podría ayudar a desentrañar cómo se perciben y sufren las bajas temperaturas en invierno, y por qué algunas personas experimentan el frío de forma diferente cuando padecen determinadas enfermedades.

En un estudio de 2019, los autores de esta investigación ya identificaron la primera proteína sensible al frío en ‘Caenorhabditis elegans’, una especie de gusano milimétrico usado como modelo en los laboratorios para comprender las respuestas sensoriales.

Dado que el gen que codifica la proteína sensible al frío en esos gusanos está evolutivamente conservado en muchas especies, incluidos ratones y humanos, este hallazgo proporcionó el punto de partida para verificar el sensor del frío en mamíferos: una proteína llamada GluK2 (abreviatura de Glutamate ionotropic receptor kainate type subunit 2).

Para comprobarlo, los investigadores pusieron a prueba su hipótesis en ratones a los que les faltaba el gen necesario para producir la proteína GluK2.

Al hacerlo, observaron que los ratones actuaban con normalidad frente a las temperaturas cálidas, templadas y frías, pero no mostraban ninguna respuesta al frío nocivo, considerando como tal temperaturas por debajo de los -15 grados Celsius.

La proteína GluK2 se encuentra principalmente en las neuronas del cerebro, donde recibe señales químicas para facilitar la comunicación neuronal, y también en las neuronas sensoriales del sistema nervioso periférico (fuera del cerebro y la médula espinal).

Y es precisamente en el sistema nervioso periférico donde procesa señales de temperatura para detectar el frío, según han visto los investigadores en experimentos con ratones.

«Hace más de 20 años que se empezaron a descubrir estos sensores de temperatura, con el hallazgo de una proteína sensible al calor llamada TRPV1, pero hasta ahora no habíamos podido confirmar qué proteína era la que detecta temperaturas frías nocivas para la salud», explica el neurocientífico Shawn Xu, en un comunicado de la Universidad de Míchigan.

Los investigadores creen que este descubrimiento puede tener implicaciones para la salud y el bienestar humanos, ya que, por ejemplo, los enfermos de cáncer que reciben quimioterapia suelen experimentar reacciones dolorosas al frío.

«Este descubrimiento de la proteína GluK2 como sensor del frío en los mamíferos abre nuevas vías para comprender mejor por qué los humanos experimentan reacciones dolorosas al frío, e incluso puede llegar a ofrecer una posible diana terapéutica para tratar ese dolor en pacientes cuya sensación de frío está sobreestimulada», añade Xu.

https://www.elmundo.es/ciencia-y-salud/ciencia/2024/03/12/65f003e2e4d4d8440a8b459b.html

Adrián Medín Gestal (4ºC ESO)

La influencia de la música en el bebé

En los 90 se empezó a divulgar la idea de que la música beneficiaba a los bebés y a los niños, y que podría ser determinante en su desarrollo intelectual. Pues bien, parece demostrado que la música favorece el desarrollo psicomotriz del niño. Es por tanto, un elemento fundamental en la primera etapa del sistema educativo, y son los padres los primeros responsables en iniciarles en los ritmos y sonidos.

Fomentarla

La música existe desde que el hombre es hombre, como forma de expresión y herramienta de comunicación de la vida cotidiana. La música es fundamental para el desarrollo intelectual, auditivo, sensorial, motriz y del habla… por ello es tan importante que se familiarice a los bebés desde la más pronta edad, se disfrute con ellos, se baile y se cante. La música, el ritmo y el canto son tan ancestrales y están tan integrados en las profundidades de nuestro sistema nervioso que cualquier bebé o niño es capaz de disfrutarla.

Los beneficios de la música en el bebé

En los primeros meses de vida la voz de la madre entonando una canción conocida tranquiliza y otorga seguridad al bebé. Escuchar música clásica parece ser que también. Hay estudios que apuntan a que puede generar paz y crear armonía en la vida del bebé, incluso durante el embarazo, ya que son más sensibles a las melodías que los adultos y les aporta tranquilidad y serenidad.

Entre los principales compositores de música clásica más adecuados para los bebés están Mozart, Beethoven y Bach; Chopin también está presente, pero se utiliza sobre todo para ayudar a conciliar el sueño de los pequeños.

Incluso hay estudios científicos que indican beneficios en la salud de los bebés prematuros, específicamente con las melodías de Mozart, pues se ha visto que pueden lograr reducir entre un 10% y 13% su gasto de energía, lo que relaja se actividad y se traduce en una ganancia de peso.

Cuando son bebés se puede seguir el ritmo de la música balanceándolos, bailando abrazados o siguiendo la pulsación en sus piernecitas con la mano del adulto.

Beneficios en niños

La música es una herramienta socializadora, que tiene el don de acercar a las personas. El niño que vive en contacto con la música:

  • Aprende a convivir y a socializarse con mayor facilidad.
  • Adquiere más seguridad emocional y confianza, porque se siente comprendido al compartir canciones y estar inmerso en un clima de ayuda, colaboración y respeto mutuo.
  • Las canciones estimulan la concentración y la memoria en los más pequeños
  • Durante la etapa de adquisición del lenguaje, las canciones ayudan a mejorar la dicción y articulación de las palabras, a enriquecer el vocabulario y a comprender el lenguaje oral y la expresión corporal. Los gestos asociados a la música o a las canciones estimulan la psicomotricidad y el conocimiento del propio cuerpo.
  • Además, la música y las canciones pueden facilitar el aprendizaje de otros idiomas.
  • Bailar las canciones, seguir el ritmo, acompañar con pequeños instrumentos de percusión una melodía o aplaudir al compás de la pulsación de la música, potencian el equilibrio y la coordinación corporal y espacial.

La educación musical en niños de 2 a 5 años busca descubrir y desarrollar las capacidades de expresión, musicales y psicomotoras del niño para que luego pueda elegir un instrumento con el que llegue a expresarse, según sus gustos y sus aptitudes. La música tiene que ser un juego, tanto de sonidos como de expresión corporal para ellos.

Qué se consigue con la música

De una forma indirecta, con la música se trabaja:

  • El desarrollo de la voz y el canto.
  • El contacto con fuentes de sonido como instrumentos musicales u otros objetos.
  • Reconocimiento de los sonidos, su timbre, su intensidad…
  • El desarrollo de la capacidad auditiva y el pensamiento musical.
  • Utilización del movimiento para expresarse, para conocer el propio cuerpo y desarrollar el sentido del ritmo; todo esto favorecerá las relaciones sociales.

El efecto Mozart

Se ha hablado mucho del “efecto Mozart” como herramienta de desarrollo intelectual del bebé. Parece ser que su escucha por parte de los más pequeños aumenta la actividad de la corteza cerebral, mejora el razonamiento espacial, además de favorecer el bienestar emocional y la psicomotricidad fina. Pero no sólo la música de Mozart es beneficiosa para el bebé; desde los sonidos del día a día, los pequeños instrumentos de percusión (campanas, cascabeles, maracas…), hasta la música rock, folk o popular le harán bien en el aspecto intelectual al niño.

https://www.salud.mapfre.es/salud-familiar/bebe/crecimiento-y-desarrollo/la-influencia-de-la-musica-en-el-bebe

Óscar Gómez Bravo (4ºB ESO)

El laberinto genético que explica por qué hay caras tan parecidas dentro de una familia

Después de descubrir cientos de genes implicados, la ciencia ha empezado a revelar las reglas de los procesos que dan forma a los rasgos faciales

Cuando Eric Mueller, que había sido adoptado, vio por primera vez una fotografía de su madre biológica quedó abrumado por lo parecido que eran sus rostros. “Fue la primera vez que vi a alguien que se parecía a mí”, escribió. La experiencia llevó a Mueller, un fotógrafo de Minneapolis, a iniciar un proyecto que le llevó tres años en el que fotografió a cientos de grupos de personas relacionadas y que culminó con el libro Family Resemblance (en español, Parecido familiar).

Por supuesto, esos parecidos son comunes y apuntan a una fuerte influencia genética subyacente en el rostro. Pero cuanto más investigan los científicos en la genética de los rasgos faciales, más complejo se vuelve el panorama. Cientos, si no miles, de genes afectan la forma del rostro, en general de maneras sutiles que hacen casi imposible predecir cómo será la cara de una persona solo examinando el impacto de cada gen.

A medida que los científicos aprenden más, algunos comienzan a concluir que necesitan buscar en otra parte para desarrollar una comprensión de los rostros. “Tal vez estemos persiguiendo algo equivocado cuando intentamos crear explicaciones a nivel genético”, dice Benedikt Hallgrimsson, genetista del desarrollo y antropólogo evolutivo de la Universidad de Calgary (Canadá). En cambio, Hallgrimsson y otros colegas creen que pueden agrupar genes en equipos, que trabajan juntos a medida que se forma la cara. Comprender cómo funcionan estos equipos y los procesos de desarrollo a los que afectan debería ser mucho más manejable que intentar clasificar los efectos de cientos de genes individuales. Si están en lo cierto, los rotros pueden resultar menos complicados de lo que pensamos.

Las migraciones prehistóricas explican la predisposición de los europeos a sufrir esclerosis, alzhéimer y diabetes

Cuando los genetistas se propusieron por primera vez comprender los rostros, empezaron con la tarea más fácil: identificar los genes responsables de las anomalías faciales. En los años noventa, por ejemplo, comprendieron que una mutación en un gen causa el síndrome de Crouzon —caracterizado por ojos muy separados, a menudo saltones y una mandíbula superior subdesarrollada—, mientras que una mutación en un gen diferente conduce a ojos pequeños e inclinados hacia abajo, mandíbula inferior y paladar hendido, que es el síndrome de Treacher Collins. Fue un comienzo, pero estos casos tan extremos dicen poco sobre por qué los rostros normales varían tanto.

Después, hace aproximadamente una década, los genetistas empezaron a adoptar un enfoque diferente. Primero, cuantificaron miles de rostros normales identificando puntos de referencia en la cara de cada persona —la punta de la barbilla, las comisuras de los labios, la punta de la nariz, la esquina exterior de cada ojo, entre otros— y midiendo las distancias entre ellos. Luego examinaron los genomas de esos individuos para ver si alguna variante genética se correspondía con medidas faciales particulares, mediante un análisis conocido como estudio de asociación de todo el genoma (o GWAS, por sus siglas en inglés).

Hasta ahora se han publicado unos 25 GWAS sobre la forma facial, con más de 300 genes identificados en total. “Cada región se explica por múltiples genes”, dice Seth Weinberg, genetista craneofacial de la Universidad de Pittsburgh. “Hay algunos genes que empujan hacia afuera y otros que empujan hacia adentro. Es el equilibrio total lo que termina convirtiéndose en ti y en tu apariencia”.

Los científicos han identificado más de 300 genes asociados a rasgos faciales específicos, aunque su efecto en general es pequeño. Aquí se muestran algunas características en las que los genes hacen la diferencias.

No solo hay múltiples genes involucrados en cada región facial en particular, sino que las variantes descubiertas hasta ahora no explican bien las características específicas de cada rostro. En un estudio sobre la genética de los rostros, publicado en el Annual Review of Genomics and Human Genetics de 2022, Weinberg y sus colegas recopilaron resultados de GWAS sobre las caras de 4.680 personas de ascendencia europea. Las variantes genéticas conocidas explican solo alrededor del 14 % de las diferencias en los rostros. La edad de un individuo representó el 7% ; el sexo, el 12% ; y el índice de masa corporal, aproximadamente el 19% de la variación, los que deja un increíble 48% sin ninguna explicación.

Está claro que los GWAS no lograron capturar algo importante en la determinación de la forma de cara. Por supuesto, una parte de esa variación desconocida se debe explicar por el ambiente; de hecho, los científicos han notado que ciertas partes de la cara, incluidas las mejillas, la mandíbula inferior y la boca, parecen más susceptibles a las influencias ambientales como la dieta, el envejecimiento y el clima. Sin embargo, algunos coinciden en que otra pista para este factor perdido está en la genética única de las familias.

Variantes grandes y pequeñas

Si las caras fueran simplemente la suma de cientos de diminutos efectos genéticos, como implican los resultados del GWAS, entonces la cara de cada niño sería una mezcla perfecta de sus dos padres, dice Hallgrimsson, alegando la misma razón de que si tiramos una moneda al aire 300 veces, en 150 oportunidades saldrá cara. Sin embargo, solo es necesario mirar a ciertas familias para ver que ese no es el caso. “Mi hijo tiene la nariz de su abuela”, detalla Hallgrimsson. “Eso debe significar que existen variantes genéticas que tienen un gran efecto en el seno de las familias”.

Pero si algunos de los genes faciales tienen efectos importantes, que son visibles dentro de las familiares que los portan, ¿por qué no se observan en el GWAS? Tal vez las variantes son muy raras en la población general. “La forma de la cara es realmente una combinación de variaciones comunes y raras”, dice Peter Claes, genetista que estudia imágenes médicas de la KU Leuven, en Bélgica. Como un posible ejemplo señala la característica nariz del actor francés Gérard Depardieu. “No conoces la genética, pero percibes que es una variante rara”, explica.

Algunos otros rasgos faciales distintivos que son hereditarios, como los hoyuelos, el mentón hendido y la uniceja, también podrían ser candidatos para identificarse como variantes raras y de alto impacto, dice Stephen Richmond, investigador en el campo de la ortodoncia de la Universidad de Cardiff (Gales, Reino Unido) que estudia genética facial. No obstante, para buscar variantes tan raras, los científicos tendrán que ir más allá de los GWAS y explorar grandes conjuntos de datos de secuencias del genoma completo. Esta tarea tendrá que esperar hasta que esas secuencias, vinculadas a mediciones faciales, se vuelvan mucho más abundantes, dice Claes.

Otra posibilidad es que las mismas variantes genéticas con efectos pequeños puedan tener efectos mayores en determinadas familias. Hallgrimsson ha observado esto en ratones: junto a un grupo de colegas, en particular Christopher Percival, ahora en la Universidad Stony Brook (EE UU), introdujeron mutaciones que afectan a la forma craneofacial en tres linajes consanguíneos de ratones. Descubrieron que los tres linajes acabaron teniendo formas faciales muy diferentes. “La misma mutación en una cepa distinta de ratones puede tener un efecto diferente, a veces incluso contrario”, destaca Hallgrimsson.

Caras muy familiares

Si ocurre algo parecido en las personas, es posible que dentro de una familia en particular (como ocurre con una cepa específica de ratones) los antecedentes genéticos únicos de esa familia hagan que determinadas variantes de la forma de la cara sean más potentes. Pero demostrar que esto ocurre en las personas, sin la ayuda de cepas consanguíneas, probablemente sea difícil, afirma Hallgrimsson.

El experto cree que sería mejor estudiar los procesos de desarrollo que subyacen a la formación de los rostros. Estos procesos involucran grupos de genes que trabajan juntos (a menudo, para regular la actividad de otros genes) con el fin controlar cómo se forman determinados órganos y tejidos durante el desarrollo embrionario. Para identificar los procesos relacionados con la forma de la cara, Hallgrimsson y su equipo utilizaron primero sofisticadas estadísticas para encontrar genes que afectan a la variación craneofacial en más de 1.100 ratones. Luego recurrieron a bases de datos genéticos para identificar los procesos de desarrollo en los que participaba cada gen. El análisis señaló tres procesos especialmente importantes: el desarrollo del cartílago, el crecimiento del cerebro y la formación ósea. Es posible, especula Hallgrimsson, que las diferencias individuales en el ritmo y la ocurrencia de estos tres procesos (y probablemente de otros) expliquen en gran medida por qué la cara de una persona es distinta de la de otra.

Curiosamente, parece que algunos de estos grupos de genes pueden tener capitanes que dirigen la actividad de otros miembros del equipo. De este modo, los investigadores que busquen comprender la variación facial podrían centrarse en la acción de esos genes capitanes, en lugar de en cientos de actores genéticos individuales. El respaldo a esta idea proviene de un nuevo e intrigante estudio realizado por Sahin Naqvi, genetista de la Universidad de Stanford (EE UU), y sus colegas.

Naqvi empezó con una paradoja. Sabía que la mayoría de los procesos de desarrollo están tan finamente sintonizados que incluso cambios sutiles en la actividad de los genes que los regulan pueden causar graves problemas de desarrollo. Pero también sabía que pequeñas diferencias en esos mismos genes probablemente sean la razón por la que su propio rostro se vea diferente al de su vecino. ¿Cómo podrían ser ciertas ambas ideas?, se preguntó Naqvi.

Son comunes los fuertes parecidos familiares, como lo muestran aquí el exprimer ministro británico Boris Johnson (segundo desde la derecha), su padre, su hermana y su hermano. Algunos investigadores sugieren que esos parecidos podrían ser el resultado de variantes genéticas raras que tienen grandes efectos dentro de una familia.

Para intentar conciliar estas dos nociones contradictorias, Naqvi y sus colegas decidieron centrarse en un gen regulador, el SOX9, que controla la actividad de muchos otros genes implicados en el desarrollo del cartílago y otros tejidos. Si una persona tiene solo una copia funcional de SOX9, el resultado es un trastorno craneofacial llamado síndrome de Pierre Robin, caracterizado por una mandíbula inferior subdesarrollada y muchos otros problemas.

El equipo de Naqvi se propuso reducir poco a poco la actividad de SOX9 y medir qué efecto tenía eso sobre los genes que regula. Para ello, diseñaron genéticamente células embrionarias humanas para poder reducir la actividad reguladora de SOX9 a voluntad. Luego, los investigadores midieron el efecto de seis niveles diferentes de SOX9 sobre la actividad de los otros genes. ¿Los genes bajo el control de SOX9 mantendrían su actividad a pesar de pequeños cambios en ese gen, sosteniendo así un desarrollo estable, o su actividad disminuiría en proporción a los cambios en SOX9?

El equipo descubrió que los genes se dividían en dos clases. La mayoría de ellos no cambiaron su actividad a menos que los niveles de SOX9 cayeran al 20% o menos de lo normal. Es decir, parecían estar protegidos incluso contra cambios relativamente grandes en SOX9. Esta amortiguación, posiblemente resultado de que otros genes reguladores compensen las reducciones en SOX9, ayudaría a mantener el desarrollo en sintonía.

Pero un reducido subconjunto de genes resultó ser sensible incluso a cambios pequeños en SOX9, aumentando o disminuyendo su propia actividad en forma coordinada. Y esos genes, descubrieron los científicos, tendían a afectar el tamaño de la mandíbula y otros rasgos faciales alterados en el síndrome de Pierre Robin. De hecho, estos genes no amortiguados parecen determinar en qué medida (mucho o poco) una cara normal se parece a una característica del síndrome Pierre Robin. En un extremo del rango se encuentran la mandíbula subdesarrollada y otros cambios estructurales del síndrome. ¿Y en el otro extremo? “Se puede pensar en el anti-Pierre Robin como una mandíbula sobredesarrollada, alargada, con un mentón prominente; en realidad, algo así como la mía”, dice Naqvi.

El síndrome de Pierre Robin (PRS) es un trastorno craneofacial caracterizado en parte por una mandíbula inferior pequeña, causado por una mutación en el gen regulador SOX9.KNOWABLE

En esencia, SOX9 lidera un grupo de genes que definen una dirección, o eje, en el que pueden variar las caras: desde más hasta menos parecidas al síndrome de Pierre-Robin. Naqvi ahora quiere ver si otros grupos de genes, cada uno liderado por un gen regulador diferente, definen ejes de variación adicionales. Sospecha, por ejemplo, que los genes sensibles a pequeños cambios en un gen llamado PAX3 podrían definir un eje relacionado con la forma de la nariz y la frente, mientras que los sensibles a otro llamado TWIST1 —que cuando muta, conduce a la fusión prematura de los huesos del cráneo—, podrían definir un eje relacionado con la longitud del cráneo y la frente.

Líneas de variación en las caras

Otra evidencia sugiere que Naqvi podría estar en el camino correcto al pensar que las caras varían a lo largo de ejes predefinidos. Por ejemplo, la genetista Hanne Hoskens, exalumna de Claes y que realiza su postdoctorado en el laboratorio de Hallgrimsson, clasificó rostros de las personas según su parecido con las características tradicionales de la acondroplasia (la forma más común de enanismo), como la frente prominente y la nariz aplanada, entre otros rasgos. Halló la experta encontró que aquellas personas en el extremo del rango con características más parecidas al enanismo tendían a tener diferentes variantes de genes relacionados con el desarrollo del cartílago que aquellos con caras menos parecidas a las tradicionales.

Si se producen patrones similares en otras vías de desarrollo, pueden establecer barreras que restrinjan la forma en que se desarrollan las caras. Eso podría ayudar a los genetistas a superar las complejidades para extraer principios más amplios que subyacen a la forma facial. “Existe un conjunto limitado de direcciones en las que las caras pueden variar”, afirma Hallgrimsson. “Hay suficientes direcciones como para que haya una enorme cantidad de variación, pero solo vemos un pequeño subconjunto de las posibilidades geométricas. Y se debe a que estos ejes están determinados por procesos de desarrollo, y estos procesos son relativamente pocos”.

Hasta que haya más resultados, es demasiado pronto para decir si este nuevo enfoque realmente contiene una clave importante para explicar por qué el rostro de una persona se ve diferente al de otra; y para entender el shock de reconocimiento que experimentó Eric Mueller cuando vio la foto de su madre por primera vez. Pero si Hallgrimsson, Naqvi y sus colegas están en el camino correcto, centrarse en las vías de desarrollo puede ser una manera de abrirse paso en la maraña de cientos de genes que, durante tanto tiempo, han oscurecido nuestra comprensión de los rostros.

https://elpais.com/ciencia/2024-03-11/el-laberinto-genetico-que-explica-por-que-hay-caras-tan-parecidas-dentro-de-una-familia.html

Pelayo Seoane López (4ºA ESO)

La salmonela y sus síntomas

Por lo general, los alimentos contaminados con Salmonella o con otros microbios dañinos tienen una apariencia, un sabor y un olor normales. Por esto es importante saber cómo prevenir una infección.

La Salmonella causa más casos de enfermedad de lo que usted pudiera suponer. Por cada caso de enfermedad por Salmonella confirmada con pruebas de laboratorio, casi otros 30 casos no se notifican. Esto se debe a que la mayoría de las personas que presentan síntomas de enfermedades transmitidas por los alimentos no van al médico ni envían una muestra a un laboratorio, por lo que nunca sabemos qué microbio les causó la enfermedad. Los CDC estiman que cada año la Salmonella causa más de 1 millón de enfermedades transmitidas por los alimentos en los Estados Unidos.

Causas de la infección por Salmonella

Usted puede contraer una infección por Salmonella al comer diferentes alimentos, como carnes de pollo, pavo, res y cerdo, huevos, frutas, germinados, otras verduras e incluso alimentos procesados, como mantequillas de nueces, pasteles de carne congelados y platos de pollo relleno. Algunos brotes de Salmonella recientes que enfermaron a personas en muchos estados se relacionaron con el consumo de harina, mantequilla de maní, palitos de salami, ensaladas prenvasadas, duraznos y pavo molido.

Los alimentos no son la única manera en que la Salmonella se propaga a las personas. Las bacterias también se propagan a través de agua contaminada, el medioambiente, otras personas y animales. Hasta las mascotas y los animales en zoológicos interactivos, granjas, ferias, y en escuelas y guarderías infantiles pueden portar Salmonella y otros microbios dañinos. Vea consejos que lo ayudarán a mantenerse seguro alrededor de sus amigos emplumados, peludos y escamosos.

Personas en mayor riesgo de contraer una infección por Salmonella

Ciertas personas tienen más probabilidades de contraer una infección grave por Salmonella. Estas personas incluyen a los niños menores de 5 años, los adultos de 65 años o más, y las personas cuyo sistema inmunitario se encuentra debilitado debido a ciertas afecciones (como diabetes, enfermedad del hígado, enfermedad de los riñones y cáncer) o a sus tratamientos.

Síntomas de la infección por Salmonella

La enfermedad causada por la Salmonella puede ser grave. Por lo general, los síntomas comienzan de 6 horas a 6 días después de la infección. Incluyen diarrea que puede tener sangre, fiebre y cólicos estomacales. La mayoría de las personas se recuperan en 4 a 7 días sin tratamiento con antibióticos. Pero algunas personas con diarrea grave podrían necesitar ser hospitalizadas o tomar antibióticos.

https://www.cdc.gov/foodsafety/es/communication/salmonella-and-food-sp.html

Óscar Gómez Bravo (4ºB ESO)

Conjunciones de Mercurio y Júpiter

El hermano pequeño del sistema solar será visible en los atardeceres y estará en conjunción con una finísima luna el lunes 11

Estos días son estupendos para observar Mercurio. El escurridizo planeta será visible en los atardeceres y estará en conjunción con una finísima luna el lunes 11. Júpiter, más alto sobre el horizonte, sigue dominando el cielo nocturno y formará otra bonita conjunción con la Luna el día 13.

MENSAJERO DE LOS DIOSES

A menudo no es fácil ver a Mercurio; el hermano pequeño del sistema solar brilla siempre discretamente y siempre a poca altura sobre el horizonte, demasiado cerca del fulgor del Sol. Pero ahora en marzo se abre un buen periodo para su observación. En este fin de semana podemos verlo tras la puesta de sol, a ras del horizonte oeste.

El Sol se pone ahora a eso de las 19:20 (hora peninsular y de Baleares). Si miramos hacia el oeste el lunes 11, unos 45 minutos tras la puesta de Sol, veremos una bonita conjunción entre Mercurio y el fino filo de la luna creciente (el novilunio tiene lugar el domingo 10). Para tener una buena visión de la conjunción hay que situarse en un lugar sin obstáculos, ni edificios, ni árboles.

Los observadores que se encontrasen en las antípodas 12 horas antes habrán podido ver esta misma conjunción con mucha menor separación entre la Luna y Mercurio. De hecho, desde algunos lugares es posible ver cómo nuestro satélite oculta al pequeño al planeta. Pero, unas horas después, cuando la conjunción es visible desde España, como decíamos, al atardecer del lunes, la Luna y Mercurio ya se han separado unos grados entre sí.

Mercurio se encuentra ahora a una distancia de 186 millones de kilómetros, esto es un poco más lejos que el Sol (que está a 150 millones de kilómetros). Uno de los mejores momentos del año para observar al esquivo planeta tendrá lugar tras el crepúsculo vespertino del 24 de marzo, cuando Mercurio alcanzará su máxima elongación este respecto al Sol. Gracias a la distancia angular (de 18,7 grados) entre el astro rey y el planeta, será posible observar a Mercurio durante unas dos horas tras la puesta de sol. Al cabo de esas dos horas, el mensajero de los dioses se ocultará suavemente tras el horizonte oeste siguiendo la misma trayectoria solar.

EL GIGANTE GASEOSO

También son buenos estos días para observar a Júpiter que, mucho más alto que Mercurio, sigue dominando con su intenso brillo el cielo por el oeste tras el atardecer.

Será particularmente interesante observarlo el miércoles 13, cuando formará una bonita estampa con el creciente lunar. Podemos observar bien esta conjunción hacia las 21h (hora peninsular y de Baleares) cuando la pareja celeste se encuentra a unos 30 grados sobre el horizonte oeste. La escena tiene lugar en Aries y, un poco más arriba podemos ver las Pléyades y las brillantes estrellas de la constelación de Tauro, entre las que destaca la rojiza Aldebarán.

Unos 6 grados por encima de Júpiter (una distancia equivalente a la que abarca el pulgar con el brazo extendido) se encuentra Urano. Pero el séptimo planeta del sistema solar está mucho más lejano: a unos 3.015 millones de kilómetros de distancia, mientras que Júpiter está a 840 millones de kilómetros. Su mayor distancia y menor tamaño hacen que, ahora, Urano tenga un brillo aparente 1.500 veces menor que el de Júpiter.

https://www.elmundo.es/ciencia-y-salud/ciencia/2024/03/09/65ea21e6e9cf4aaa138b45aa.html

Thomas Leiva Tovar (4ºA ESO)

Detectan la galaxia ‘muerta’ más antigua jamás observada

Astronomos dirigidos por la Universidad de Cambridge han observado una galaxia que repentinamente dejó de formar nuevas estrellas hace más de 13.000 millones de años.

Se trataría de la galaxia ‘muerta’ más antigua jamás observada. Tal y como se publica en ‘Nature’, utilizando el telescopio espacial James Webb, la galaxia ya no formó más estrellas cuando el universo tenía sólo 700 millones de años.

Esta galaxia parece haber vivido rápido y muerto joven: la formación de estrellas ocurrió rápidamente y se detuvo casi con la misma rapidez, lo cual es inesperado en una etapa tan temprana de la evolución del universo. Sin embargo, no está claro si el estado ‘apagado’ de esta galaxia es temporal o permanente, y qué causó que dejara de formar nuevas estrellas. Estos hallazgos podrían ser importantes para ayudar a los astrónomos a comprender cómo y por qué las galaxias dejan de formar nuevas estrellas, y si los factores que afectan la formación de estrellas han cambiado a lo largo de miles de millones de años.

«Los primeros cientos de millones de años del universo fueron una fase muy activa, con muchas nubes de gas colapsando para formar nuevas estrellas», relata Tobias Looser del Instituto Kavli de Cosmología de la Universidad de Cambridge, primer autor del artículo.

«Las galaxias necesitan un rico suministro de gas para formar nuevas estrellas, y el universo primitivo era como un buffet libre», afirmó.

Los astrónomos creen que la formación de estrellas puede ralentizarse o detenerse por diferentes factores, todos los cuales privarán a una galaxia del gas que necesita para formar nuevas estrellas. Los factores internos, como un agujero negro supermasivo o la retroalimentación de la formación estelar, pueden expulsar gas de la galaxia, provocando que la formación estelar se detenga rápidamente.

Alternativamente, el gas puede consumirse muy rápidamente durante la formación de estrellas, sin ser reabastecido rápidamente por gas fresco de los alrededores de la galaxia, lo que resulta en la hambruna de la galaxia. Utilizando datos de JADES (JWST Advanced Deep Extragalactic Survey), los astrónomos determinaron que esta galaxia experimentó un corto e intenso período de formación estelar durante un período de entre 30 y 90 millones de años. Pero entre 10 y 20 millones de años antes del momento en que se observó con Webb, la formación estelar se detuvo repentinamente.

«Todo parece suceder más rápido y más dramáticamente en el universo temprano, y eso podría incluir galaxias que pasan de una fase de formación estelar a una fase inactiva o apagada», apunta Looser. Los astrónomos han observado anteriormente galaxias muertas en el universo primitivo, pero esta galaxia es la más antigua hasta ahora: sólo 700 millones de años después del Big Bang, hace más de 13 mil millones de años. Esta observación es una de las más profundas realizadas hasta ahora con Webb.

Además de ser la más antigua en su clase, esta galaxia también tiene una masa relativamente baja, aproximadamente la misma que la Pequeña Nube de Magallanes (SMC), una galaxia enana cercana a la Vía Láctea, aunque en la SMC todavía se están formando nuevas estrellas. Otras galaxias apagadas en el universo primitivo han sido mucho más masivas, pero la sensibilidad mejorada de Webb permite observar y analizar galaxias más pequeñas y más débiles. Los astrónomos dicen que, aunque parece muerta en el momento de la observación, es posible que en los aproximadamente 13.000 millones de años transcurridos desde entonces, esta galaxia haya vuelto a la vida y haya comenzado a formar nuevas estrellas nuevamente.

https://www.elmundo.es/ciencia-y-salud/ciencia/2024/03/06/65e8b395fc6c83c75b8b45a2.html

Pelayo Seoane López (4ºA ESO)

Los 5 datos básicos a tener en cuenta antes de comenzar a tomar suplementos

¿Y si pudieras tomar una pastilla y, de repente, tener más energía, una piel mejor y un corazón más sano? Esa es la promesa que me atrae cada vez que cruzo el pasillo de los suplementos de mi farmacia, lleno de cápsulas de aceite de pescado, jarras de colágeno en polvo, masticables de magnesio y todas las vitaminas del mundo.

En España, en torno al 70% de la población tomó algún tipo de complemento alimenticio a lo largo de 2021, según un estudio de la Revista Española de Nutrición Humana y Dietética. No es de extrañar que se prevea que los suplementos se conviertan en una industria mundial de 200 000 millones de dólares en 2025.

Pero siempre he tenido una buena dosis de escepticismo sobre lo que realmente pueden hacer estos suplementos y si merece la pena pagar por ellos. Estas son algunas de las conclusiones de nuestros informes anteriores sobre suplementos, con la importante advertencia de que siempre debes consultar primero a tu médico sobre las decisiones de salud.

1) Los suplementos no están estrictamente regulados

A diferencia de lo que sucede con fármacos y medicamentos, en Europa los suplementos y complementos alimenticios no están tan regulados por la Agencia Europea de Seguridad Alimentaria. Esto conduce a que, en muchos casos, se produzca una ambigüedad en las propiedades y eficacia del producto.

Casi todas las historias que hemos publicado sobre los suplementos coinciden en un punto clave: la Administración de Alimentos y Medicamentos de EE. UU. (FDA, por sus siglas en inglés) tampoco regula los suplementos dietéticos de la misma manera que los alimentos y los medicamentos, lo que significa que las empresas no tienen que presentar los productos al organismo regulador para su aprobación antes de ponerlos en el mercado. Esto puede dar lugar a etiquetas engañosas. Jen Messer, dietista titulada y presidenta electa de la Academia de Nutrición y Dietética de New Hampshire, remitió a nuestro reportero Daryl Austin a un análisis de 57 suplementos dietéticos. Descubrió que el 84 por ciento no contenía la cantidad de ingredientes declarados, el 40 por ciento no tenía ninguno de los ingredientes declarados y el 12 por ciento «contenía ingredientes no declarados, lo que está prohibido por la FDA», dijo en nuestro artículo de noviembre de 2023.

También significa que las empresas no necesitan proporcionar a la FDA pruebas de que sus productos realmente hacen lo que sus etiquetas pretenden hacer. «Ahora mismo es el salvaje Oeste», nos dijo David Hibbett, profesor de biología de la Universidad Clark, en nuestro artículo de enero de 2024 sobre el auge del mercado de los suplementos de hongos como el chaga y la melena de león. «Las pruebas siguen siendo muy, muy limitadas y, desde luego en mi opinión, no justifican la fuerte comercialización de estos productos como suplementos nutricionales». Y, por desgracia, esta suerte de vacío legal no es exclusiva de Estados Unidos.

2) No todo el mundo debería tomarlos, ni siquiera los multivitamínicos

Crecí pensando que tomar un multivitamínico al día era el epítome de la salud, pero esto no es cierto para todos, informamos en junio de 2023 (y deberías consultar a un médico antes de comenzar un régimen diario de multivitaminas).

Hay varias razones para ello. En primer lugar, las multivitaminas pueden interferir con ciertos medicamentos, como los antibióticos o los anticoagulantes. Además, las personas con enfermedades hepáticas o renales podrían no ser capaces de eliminar eficazmente los altos niveles de nutrientes contenidos en un multivitamínico. Por último, cualquiera puede tomar demasiado de algo bueno (más adelante hablaremos de ello). En última instancia, como en todo, todo depende de las necesidades individuales.

No obstante, la Agencia española de seguridad alimentaria y nutrición (AESAN) se muestra clara: si tienes una dieta correcta, estos complementos alimenticios no son necesarios.

3) El cuerpo no descompone todas las vitaminas de la misma manera

No sólo hay que tener en cuenta factores relacionados con la salud personal. Algunas vitaminas también se absorben de forma diferente en el organismo, lo que puede suponer una gran diferencia a la hora de decidir si tomarlas o no.

En el artículo de Daryl Austin que publicamos en noviembre de 2023, los expertos advertían de que hay que tener especial cuidado con las vitaminas A y E porque son liposolubles. Esto significa que el cuerpo almacena estos nutrientes en el hígado y en los tejidos grasos para su uso futuro, en lugar de descomponerlos y metabolizarlos rápidamente como hace con otros tipos de vitaminas. Grandes dosis de cualquiera de ellas podrían perjudicarle.

4) Es posible excederse

Como he estado aludiendo aquí, existe algo llamado toxicidad vitamínica, o consumir tanta cantidad de estos nutrientes que realmente comienzan a perjudicarle en lugar de ayudarle.

Por ejemplo, la vitamina A: superar el límite máximo de ingesta diaria de 3000 microgramos puede acabar causando problemas como dolor articular, daños hepáticos y defectos congénitos. Altas dosis de vitamina E pueden interferir en la coagulación de la sangre y provocar hemorragias, entre otros problemas. Y un exceso de vitamina D puede provocar náuseas, debilidad muscular, confusión, vómitos y deshidratación.

5) Los alimentos son la mejor forma de obtener nutrientes

Muchos nutrientes como el colágeno y la vitamina C ya son abundantes en los alimentos que componen una dieta típica, y comer alimentos enteros y no procesados, como verduras y frutas ricas en fibra, es a menudo una manera más eficiente de obtener las vitaminas, minerales y probióticos que tu cuerpo necesita, nos dijo la nutricionista de la Clínica Cleveland (Estados Unidos) Gail Cresci en marzo de 2023. «Tomar un probiótico o un suplemento probiótico», dijo, «no va a arreglar una mala dieta».

Tal y como afirma la AESAN en su guía con las 5 cosas básicas que todo el mundo debe saber antes de tomar uno de estos productos, los suplementos alimenticios «nunca deben sustituir a una dieta saludable».

https://www.nationalgeographic.es/ciencia/2024/02/suplementos-datos-basicos-hay-que-saber-antes

Adrián Seijas Lomba (4ºA ESO)

El Polo Norte podría quedarse sin hielo a partir de septiembre de 2035

Ha habido que esperar cuatro millones de años, pero el próximo 1 de septiembre de 2035 el planeta podría amanecer con el insólito aspecto de un Polo Norte sin hielo. En vez de un casquete polar, lo que veremos será una masa de agua azul en una especie de rotonda que bañe las costas de Canadá, Rusia, Noruega, Dinamarca, Islandia, Estados Unidos, Suecia y Finlandia.

En los últimos 25 años, la cantidad de hielo marino del Ártico en verano ha disminuido en más de un millón de kilómetros cuadrados. Como resultado, vastas áreas del Polo Norte ahora están, en promedio, libres de hielo en verano. Pero según un artículo que acaba de publicar Nature, el Ártico podría quedar totalmente libre de hielo un septiembre entre 2035 y 2067, lo que supone 10 años antes de lo previsto.

A mediados de siglo, es probable que el Ártico pase un mes entero sin hielo flotante en septiembre, cuando la cobertura de hielo de la región sea mínima. A finales de siglo, la temporada sin hielo podría durar varios meses al año, dependiendo de los futuros escenarios de emisiones. Por ejemplo, en un escenario de altas emisiones, es decir, que todo siga igual, la región más septentrional del planeta podría quedar constantemente libre de hielo incluso en invierno.

Para los científicos, un Ártico sin hielo no significa que no habrá hielo en el agua, sino cuando tiene menos de un millón de kilómetros cuadrados. El umbral representa menos del 20% de lo que era la capa de hielo mínima estacional de la región en la década de 1980. En los últimos años, el Océano Ártico tenía en septiembre alrededor de 3,3 millones de kilómetros cuadrados de superficie de hielo marino como mínimo.

Alexandra Jahn, profesora asociada de ciencias atmosféricas y oceánicas y miembro del Instituto de Investigación Ártica y Alpina de CU Boulder, analizó la literatura existente sobre proyecciones de hielo marino y datos de la cobertura del hielo a partir de modelos climáticos computacionales, para evaluar cómo el Ártico podría cambiar diariamente en el futuro.

Las emisiones de gases de efecto invernadero son, para Jahn, el principal responsable de la pérdida de hielo marino. Una disminución de la capa de nieve y hielo aumenta la cantidad de calor procedente del sol que absorbe por el océano, acelerando el derretimiento del hielo y el calentamiento en el Ártico.

La disminución del hielo marino tiene impactos significativos en los animales del Ártico que dependen del hielo marino para sobrevivir, incluidas las focas y los osos polares. A medida que el océano se calienta, peces no nativos se trasladarán a este escenario con consecuencias todavía impredecibles.

El hielo marino juega además un papel importante a la hora de amortiguar los impactos de las olas del océano en la costa. A medida que el hielo marino retrocede, las olas del océano se harían más grandes, provocando erosión costera.

Si bien un Ártico sin hielo es inevitable, Jahn explica que en un escenario de emisiones intermedio, donde se encuentra la sociedad actual, el Ártico podría quedar libre de hielo sólo a finales de verano y principios de otoño, de agosto a octubre. Pero en un escenario de mayores emisiones, el Ártico podría estar libre de hielo durante nueve meses a finales de este siglo.

«Incluso si las condiciones sin hielo son inevitables, aún debemos mantener nuestras emisiones lo más bajas posible para evitar condiciones prolongadas sin hielo», dijo Jahn.

La buena noticia: el hielo marino del Ártico es resistente y puede regresar rápidamente si la atmósfera se enfría. «A diferencia de la capa de hielo de Groenlandia, que tardó miles de años en construirse, si derritiéramos todo el hielo marino del Ártico, y descubrimos cómo revertir el calentamiento, el hielo marino volvería en una década», dijo Jahn.

El Ártico sin hielo también tendría consecuencias geopolíticas, despertando la llamada ruta de la seda polar que uniría Europa Occidental con China, ahorrando al transporte miles de kilómetros y la piratería del estrecho de Malaca, Somalia y el Mar rojo; por no hablar del botín de 44.000 millones de barriles de gas, 90.000 millones de petróleo, además de zinc, cobalto, cobre, mercurio, oro y plata que descubriría el deshielo.

https://www.elmundo.es/ciencia-y-salud/medio-ambiente/2024/03/05/65e74d84fc6c83cc388b45b8.html

Pelayo Seoane López (4ºA ESO)

Japón halla ejemplares del anfibio más grande del mundo, casi extinguido en la naturaleza

Investigadores de la Universidad de Kioto confirmaron el hallazgo de ejemplares de salamandra gigante china, el anfibio vivo más grande del mundo, cerca de extinguirse en la naturaleza, en acuarios y zoológicos de que no los habían identificado como tal, sino como hibridaciones con otras especies.

Este anfibio (andrias davidianus) puede llegar a medir 1,8 metros y pesar 50 kilos, y la Lista Roja de la Unión Internacional para la Conservación de la Naturaleza (UICN) -exhaustivo inventario sobre el estado global de animales, hongos y plantas- lo cataloga como «en peligro crítico», el estado anterior a la extinción en libertad.

El hallazgo, anunciado este mes, se produjo mientras un equipo de científicos liderado por el profesor Nishikawa Kanto analizaba mediante muestras de tejido la genética de 73 salamandras procedentes de campos, acuarios o zoológicos de Japón que creían que descendían de salamandras chinas, para estudiar su hibridación.

La salamandra gigante china habitaba áreas del sur de ese país, pero su número disminuyó considerablemente ante la captura excesiva para la venta o cría intensiva en granjas, pues su carne está considerada un manjar en China, y ahora solo se encuentra en cuatro ubicaciones con arroyos claros y fríos en valles vegetados y escarpados.

Esta especie, que también se utiliza en la medicina tradicional china, fue introducida en Japón en el pasado, dando lugar a cruces con especies autóctonas, pero el equipo de científicos encontró cuatro ejemplares de la especie original en el marco de una investigación cuyos resultados fueron publicados en la revista Scientific Reports.

De las cuatro salamandras gigantes chinas identificadas, una estaba en el Acuario Sunshine de Tokio y otra en el Parque Zoológico Asa de Hiroshima, y Kanto cree que podría haber más ejemplares que no han sido identificados como tal en otros centros de Japón.

Kanto plantea «aprovechar esta noticia como una oportunidad para pensar en el papel de las especies invasoras», un «problema muy difícil de resolver», porque sus consecuencias pueden ser «tanto positivas como negativas», pero que puede hacernos reflexionar, indicó en un comunicado en el momento del anunció.

Los investigadores de la Universidad de Kioto pretenden trabajar en la preservación de la salamandra gigante china y poder llegar a practicar su reproducción o clonación mediante células de salamandra almacenadas, según indicaron a la cadena pública nacional NHK.

https://www.elmundo.es/ciencia-y-salud/ciencia/2024/02/26/65dc4682e85ece29558b4581.html

Hugo Martín Ramilo (4ºB ESO)