"El sabio puede cambiar de opinión. El necio, nunca" Immanuel Kant

sábado, 26 de noviembre de 2011

Diseño: El código genético, finamente ajustado


19 noviembre 2011— Francis Crick consideraba que el código genético que encontramos en la naturaleza era «un accidente congelado». Pero se está haciendo más y más patente que este código está exquisitamente ajustado —con características que sugieren desde luego que es uno entre un millón. Por tanto, ¿no debería considerarse el diseño deliberado, el diseño inteligente, como una inferencia legítima, como la mejor explicación de cómo este código llegó a existir?

Todos estamos familiarizados con el código genético, por el cual una transcripción en ARNm se traduce a los residuos de aminoácidos que conforman las proteínas. Los tripletes de nucleótidos —llamados «codones»— sirven como «palabras moleculares», donde cada una de ellas especifica un aminoácido determinado o los sitios de paro de los marcos abiertos de lectura (ORFs por sus siglas en inglés). Los ribosomas y los complejos ARNt-metionina (conocidos como metionil ARNts «cargados» se unen cerca del extremo 5' de la molécula del ARNm en el codón de iniciación AUG (que especifica el aminoácido metionina) y comienzan a traducir sus secuencias de ribonucleótido a la secuencia de aminoácidos específica necesaria para conformar una proteína funcional. Cada aminoácido se une en su extremo carboxilo al extremo 3' de su propia especie de ARNt mediante una enzima conocida como aminoacil tRNA sintetasa.

Existen dos sitios en un ribosoma para ARNts activados: el sitio peptidilo y el sitio aminoacilo (sitio P y sitio A respectivamente). El codón de iniciación, que lleva metionina, entra en el sitio P. El anticodón 3' UAC 5' del ARNt se empareja con el codón complementario 5' AUG 3' RNAm. El segundo ARNt entra en el sitio A. Una parte enzimática del ribosoma, llamada peptidil transferasa, crea entonces un enlace peptídico para unir los dos aminoácidos. Al formarse el enlace peptídico, se rompe el enlace aminoacilo que conectaba el aminoácido con su correspondiente ARNt, y el ARNt puede así abandonar el sitio P. Esto es seguido por la translocación ribosomal para posicionar un nuevo codón abierto en el sitio A vacío y también para trasladar el segundo ARNt —que está ahora unido a un dipéptido— del sitio A al sitio P. Y así se va repitiendo el ciclo hasta la llegada de un codón de paro que impida la adicional elongación de la cadena.

Para una ilustración visual de cómo esto funciona en la práctica, remito a los lectores a la siguiente breve animación:


La cantidad total de posibles tripletes de ARN asciende a 64 codones diferentes. De los mismos, 61 especifican aminoácidos, y los tres restantes (UAG, UAA y UGA) sirven como codones de paro, que detienen el proceso de síntesis de proteína. Debido a que hay sólo veinte aminoácidos diferentes, algunos de los codones son redundantes. Esto significa que varios codones pueden codificar el mismo aminoácido. Las rutas y los mecanismos celulares que hacen posible esta correspondencia de 64 a 20 es una maravilla de lógica molecular. Es suficiente para que se le caiga la baba a cualquier ingeniero. Pero las señales de designio se extienden mucho más allá de la evidente genialidad de diseño de ingeniería del aparato de traducción celular. En este artículo voy a exponer varios niveles de ingenio de un diseño deliberado que se hace patente en esta obra maestra de la nanotecnología.

¿En qué sentido está finamente ajustado el código genético?

Como ya se ha dicho anteriormente, el código genético presenta degeneración. Esto significa que diversos codones significarán a menudo el mismo aminoácido. Esta degeneración es causada principalmente por una variación en la tercera posición, que es reconocida por el nucleótido en el extremo 5' del anticodón (la llamada posición wobble —«tambaleante»). Esta hipótesis del wobble enuncia que los nucleótidos presentes en esta posición pueden realizar interacciones que no se permiten en las otras posiciones (aunque todavía quedan algunas interacciones no permitidas).

Pero esta disposición dista de ser arbitraria. De hecho, el código genético que se encuentra en la naturaleza está exquisitamente ajustado para proteger a la célula de los efectos perjudiciales de mutaciones por sustitución. El sistema está diseñado de manera tan ingeniosa que los codones que difieran por una sola base o bien especifican el mismo aminoácido, o un aminoácido miembro de un grupo químico relacionado. En otras palabras, la estructura del código genético está pensada para mitigar los efectos de aquellos errores que pudieran incorporarse durante la traducción (y que pueden darse cuando un codón resulta traducido por un anticodón casi complementario).

Por ejemplo, el aminoácido leucina está especificado por seis codones. Uno de ellos es CUU. Las mutaciones de sustitución en la posición 3' que cambian una U a una C, A o G resultan en la alteración de los codones a otros que tambiénespecifican leucina: CUC, CUA y CUG respectivamente. En cambio, si la C en la posición 5' resulta sustituida por una U, lo que obtenemos es el codón UUU. Este codón especifica la fenilalanina, un aminoácido que exhibe unas propiedades físicas y químicas similares a la leucina. Lo que debe recibir explicación es que las asignaciones de codones estén dispuestas de tal manera que se minimiza la degradación del marco abierto de lectura. Además, la mayoría de los codones especifican aminoácidos que poseen cadenas laterales simples. Esto disminuye la propensión de las mutaciones a producir codones que codifiquen secuencias de aminoácidos químicamente perturbadoras.

Freeland et al. (2000) demuestran que el código genético está sumamente optimizado —que desde luego es «el mejor de todos los códigos posibles»— teniendo en cuenta dos parámetros: primero, la probabilidad relativa de transiciones y transversiones; y segundo, el impacto relativo de las mutaciones.

El problema del rechazo fallido

Otro artículo, de Lim and Curran (2001), modela la especificidad de la formación dúplex correcta codón-anticodón durante la traducción. Según su modelo, para que un dúplex incorrecto sea rechazado por el ribosoma, es necesario que tenga al menos un puente de hidrógeno no compensado — criterio que presenta dificultades cuando los duplexes tienen un par de pirimidinas (eso es, la U o la C) en la tercera posición del codón, es decir, en la posición wobble. Las bases pirimidinas son algo más pequeñas que las bases purinas (G y A), y, en la posición wobble, pueden admitir ciertas desalineaciones en la segunda posición para producir pares no conformes a Watson-Crick que compensan los enlaces de hidrógeno ausentes. Esto resulta en una traducción errónea debido a que las desalineaciones en la segunda posición no resultan debidamente rechazadas.

Este problema se puede evitar previniendo que una pirimidina de un anticodón en la posición wobble forme un par de pirimidinas. Una modificación así acarrea que un simple anticodón que pudiera haber reconocido cuatro codones es ahora capaz de reconocer sólo dos. Así que ahora se precisará que haya un ARNt para las pirimidinas de la posición wobble y otro ARNt para las purinas de la posiciónwobble. Esto explica por qué 32 codones (los que terminan en A y G) en el código genético estándar aparecen en «cajas únicas» (family boxes) y que los otros 32 (los que acaban en C y U) aparecen en «cajas mixtas» (split boxes). De hecho, la selección de las cajas de codones «mixtos» se determina según la mismísima estereoquímica que subyace a cuál de las desalineaciones en la segunda posición son vulnerables al problema del rechazo fallido. Así, la simetría que se observa no es arbitraria.

Signos de paro codificados

Otra pasmosa característica del código genético es que las secuencias de codones para paro se superponen parcialmente con las de los codones que especifican a los aminoácidos más abundantes. Esto significa que el código genético está diseñado de tal manera que amortigua el impacto de las mutaciones con desfase del marco de lectura. Una mutación con desfase del marco de lectura sucede como resultado de indels (inserciones o deleciones) de una cantidad de nucleótidos que no sea divisible por tres. Un acontecimiento de esta naturaleza provoca un desplazamiento del marco de lectura, y resulta en la producción y acumulación de proteínas mal plegadas. Cuanto antes tenga lugar esta indel en la secuencia, tanto mayor la alteración de la secuencia de la proteína aminoácida.

Se considera que el código genético está compuesto de grupos de cuatro codones donde las primeras posiciones son las mismas para todos cuatro (mientras que la tercera puede estar ocupada por cualquier base). Cuando los codones codifican el mismo aminoácido, son designados como «una familia de codones». La mitad del código genético está compuesto de estas familias de codones. En las familias de codones designadas AAN y AGN (que categorizan los tripletes de Asn/Lys y Ser/Arg, respectivamente), los tripletes se superponen con los codones UAA y UAG que ponen fin a la traducción. Estas señales codificadas de paro ayudan a prevenir la acumulación de proteínas mal plegadas.

Como lo explican Bollenbach et al. (2007),

... los codones de paro pueden ocultarse fácilmente dentro de una secuencia. Por ejemplo, el codón de paro UGA está sólo a un desplazamiento de NNU|GAN; los codones GAN codifican la Asp y la Glu, que son muy comunes en secuencias proteínicas. Parecidamente, el UAA y el UAG pueden ser desplazados en el marco de lectura para dar NNU|AAN y NNU|AGN (los codones AAN codifican Asn o Lys y AGN da Ser o Arg). la Glu, Lys, Asp, Ser, y Arg son aminoácidos relativamente comunes en el genoma, de modo que la probabilidad de que aparezca un codón de paro por una mala lectura de un codón de uno de estos tres aminoácidos es sumamente elevada. El hecho de que pueda «ocultarse» un codón de esta manera mediante un desplazamiento del marco de lectura significa que incluso una secuencia de señal que resulte incluir un codón de paro (problema que tiene que darse más pronto o más tarde) se puede codificar dentro de la secuencia de proteína mediante el uso de uno de los dos marcos de lectura en los que el codón de paro codifica un aminoácido de uso frecuente.

Lo extraordinario es que este sistema de correspondencia de 62 a 20 está diseñado de modo que se minimice la cantidad de aminoácidos que se traducen a partir de un marco de lectura desplazado antes que aparezca uno de los codones de paro. Codones de alta frecuencia (p. ej., los que codifican ácido aspártico o glutámico) pueden con frecuencia formar codones de paro en caso de un desplazamiento del marco de lectura. Así, en el código genético convencional, la traducción procedente de un marco desplazado de lectura se detiene más rápido, en promedio, que en el 99,3% de códigos alternativos (Itzkovitz y Alon, 2007).

Relacionado con esto hay la capacidad, de la que también nos informan Itzkovitz y Alon, del código genético universal de «permitir secuencias arbitrarias de nucleótidos dentro de secuencias codificantes mucho mejor que la inmensa mayoría de otros posibles códigos genéticos». Comunican que:

Encontramos que el código genético universal puede admitir secuencias arbitrarias de nucleótidos dentro de regiones codificantes mucho mejor que la inmensa mayoría de otros posibles códigos genéticos. Encontramos además que la capacidad de soportar códigos paralelos va fuertemente correlacionada con una propiedad adicional: la minimización de los efectos de los errores de traducción por desplazamiento de marco de lectura.

El código genético resulta así sumamente optimizado para codificar información adicional más allá de la secuencia aminoácida en secuencias codificantes de proteínas. Entre los ejemplos se encuentran las señales de corte y empalme del ARN y la información acerca de dónde se deberían posicionar los nucleosomas en el ADN, así como secuencias para la estructura secundaria del ARN.

El alfabeto de la naturaleza es no aleatorio

Philip y Freeland (2011) llevan este tema a un nivel aún más profundo, al sugerir que el conjunto de 20 aminoácidos que se usan en la naturaleza es fundamentalmente no aleatorio. Los autores comparaban la cobertura del alfabeto estándar de 20 aminoácidos respecto a «tamaño, carga e hidrofobicidad con valores equivalentes calculados para una muestra de 1 millón de conjuntos alternativos (cada uno de los cuales comprendiendo también 20 miembros) entresacados al azar de un conjunto de 50 verosímiles candidatos prebióticos».

Los autores comunican que

... el alfabeto estándar exhibe una mejor cobertura (esto es, mayor amplitud y mayor uniformidad) que cualquier conjunto aleatorio para cada uno de los tamaños, cargas e hidrofobicidad, y para todas las combinaciones de los mismos. En otras palabras, dentro de los límites de nuestras presuposiciones, el conjunto completo de 20 aminoácidos codificados genéticamente se ajusta a nuestro criterio adaptativo hipotético relativo a cualquier cosa que el azar hubiera podido ensamblar de lo que estaba prebióticamente disponible.

Así, los autores descartan inmediatamente la hipótesis del azar como una opción inviable. La importancia de esto se extiende más allá, porque los investigadores también investigan los ocho aminoácidos prebióticamente plausibles que se encuentran entre los 20 que aparecen actualmente en las proteínas biológicas. Comparan las propiedades de dichos aminoácidos con conjuntos alternativos escogidos al azar, estableciendo —una vez más— la naturaleza fundamentalmente no aleatoria de los utilizados.

La imposibilidad de la evolución del código genético

Los cambios en asignaciones de codones serían catastróficos para la célula, porque tal mutación llevaría en último término a cambios de la secuencia aminoácida en cada proteína producida por la célula. Esto significa que uno no puede tener un código genético en evolución significativa, aunque —se puede admitir— hay una o dos variaciones menores del código genético estándar. Algunos han tratado de argumentar alrededor de esto postulando que los codones menos usados pueden ser redesignados a aminoácidos diferentes aunque relacionados, permitiendo así optimizar el código genético. Pero esta propuesta se enfrenta con formidables dificultades. Por una parte, parece muy improbable que con la sustitución de algunas de las asignaciones menos usadas con un aminoácido relacionado se podría llegar al nivel de optimización que encontramos en el código convencional.

Además, se suscita naturalmente la cuestión acerca de qué utilidad selectiva exhibirían los nuevos aminoácidos. De hecho, no tendrían utilidad alguna hasta que fuesen incorporados a proteínas. Pero esto no sucederá hasta que queden incorporados en el código genético. Y por ello tienen que ser sintetizados por enzimas que carecen de ellos. Y no olvidemos la necesidad de los ARNts y enzimas activadores específicos que son necesarios para incluirlos en el código.

Una dificultad relacionada con las explicaciones evolucionistas usuales es que un fondo de aminoácidos bióticos sustancialmente inferior a 20 es susceptible de reducir sustancialmente la variabilidad de las proteínas sintetizadas por los ribosomas. Y es improbable que la selección prebiótica cribe la masa de variaciones para este carácter de optimización aminoácida antes del origen de la vida autorreplicante (en muchos respectos, el término «selección prebiótica» es más bien un oxímoron).

Se suscita también el problema adicional del potencial para la ambigüedad en la correspondencia de los codones. Si, por ejemplo, el 80% de las veces un codón determinado especifica un aminoácido y el 20% especifica otro, esta ambigüedad de correspondencia llevaría a un caos celular.

Para una reseña exhaustiva de diversos intentos de explicar la evolución del código, remito a los lectores a este artículo de 2009 por Eugene Koonin y Artem Novozhilov. Concluyen ellos su reseña crítica lamentando que

En nuestra opinión, a pesar de extensos y en muchos casos elaborados intentos por modelar la optimización del código, de teorizar de manera ingeniosa siguiendo líneas de la teoría de la coevolución, y de considerable experimentación, se han hecho bien pocos progresos reales.

Siguen comunicando que

Procediendo a resumir la situación actual en el estudio de la evolución del código, no podemos sustraernos a un considerable escepticismo. Parece que la pregunta fundamental en dos términos: «¿Por qué es el código genético como es, y cómo llego a existir?», pregunta que se planteó hace más de 50 años en el amanecer de la biología molecular, podría seguir en pie durante otros 50 años. Nuestro consuelo es que no podemos pensar de ningún otro problema más fundamental en biología.

Sin embargo, incluso si concediésemos la premisa de que el código genético se pueda modificar con el tiempo, queda por determinar si hay suficientes recursos probabilísticos disponibles para justificar apelaciones al papel del azar y de la necesidad. A la vista de la descomunal cantidad de códigos que se tendrían que ensayar y evaluar, los escenarios evolucionistas parecen muy inverosímiles.

Haciendo matemáticas

Hubert Yockey, biofísico y teórico de la información, ha argumentado que la cantidad de potenciales códigos genéticos está en el orden de 1,40 x 10^70. Yockey concede la cifra sumamente cauta de 6,3 x 10^15 segundos para el tiempo disponible para la evolución del código genético. Observemos que esto da por supuesto que el código genético ha tenido para evolucionar todo el tiempo disponible desde el Big Bang. Entonces, ¿cuántos códigos por segundo se tendrían que evaluar para que la selección natural «tropezase» con el código genético universal que encontramos en la naturaleza? Las matemáticas nos dicen que aproximadamente 10^55 códigos por segundo.

Reflexionemos. Incluso si concedemos unos valores tan absurdos —todo el tiempo disponible desde el Big Bang—, sería necesario que la selección natural evaluase 10^55 códigos genéticos por segundo para tener una posibilidad razonable de tropezar con el código genético optimizado que encontramos en la naturaleza. Este traicionero obstáculo queda agudizado cuando consideramos estimaciones más razonables. En el modelo evolutivo comúnmente aceptado, la tierra hubiera quedado bio-habitable hace unos 3,85 mil millones de años, y las señales de la primera vida hubieran aparecido hace alrededor de 3,8 mil millones de años. Unas estimaciones más realistas del tiempo disponible hacen solo más abrumador el problema. Para una adicional consideración de este tema, véase el libro del bioquímico Fazale Rana, The Cell's Design [El diseño de la célula].

Codones superpuestos y cambio de marco de lectura por los ribosomas

Cambio del marco de lectura. Ilustración cortesía de la base de datos rfam

Otra y extraordinaria característica de diseño deliberado del código genético es su capacidad de tener marcos de lectura superpuestos de modo que se puedan producir dos y más proteínas a partir de la misma transcripción. Este fenómeno se conoce como «desplazamiento del marco de lectura por el ribosoma», y se encuentra comúnmente en virus incluyendo el virus del enanismo amarillo de la cebada, el virus del enrollamiento de la hoja de la patata, y en el retrovirus 1 de los simios.

El desplazamiento del marco de lectura por parte del ribosoma es promovido por una estructura de pseudonudo (que se muestra en el diagrama), y también un sitio específico en el ARNm, conocido como secuencia resbaladiza (slippery), que normalmente contiene varios residuos de adenina. Cuando sucede esto, el ribosoma retrocede una base y luego procede a leer la transcripción del ARNm en un diferente marco de lectura. ¡Esto permite la producción de dos o más diferentes proteínas desde la misma transcripción!

Como se ha mencionado, este desplazamiento programado del marco de lectura del ribosoma está particularmente extendido en los virus, donde el genoma ha de ser pequeño debido a la pequeña capacidad de la cápside vírica.

Actualmente se sabe que el desplazamiento del marco de lectura por el ribosoma tiene lugar en todos los tres dominios de la vida. Un ejemplo de esto en células eucariotas aparece en la levadura Saccaromyces cerevisiae, donde este proceso produce las proteínas Est3p y Abp140p.

Conclusión

A la luz de hechos como los anteriores, se está haciendo más y más claro que el genoma es bidireccional, polifacético e interfoliado en cada etapa. Los pretendidos mecanismos sin dirección de azar y necesidad son demostrablemente inadecuados para explicar esta maravilla de ingeniería. Unos parámetros tan delicadamente equilibrados y finamente ajustados se asocian rutinariamente con agentes que actúan con deliberación. Los agentes inteligentes están dotados de la capacidad de previsión y tienen la capacidad de visualizar y de actualizar posteriormente un punto final complejo. Si en cualquier otro ámbito de la experiencia humana estos elementos se asocian rutinariamente con causas inteligentes —y exclusivamente con causas inteligentes—, ¿no estamos justificados en postular que este sistema también se originó por voluntad de un agente consciente con un propósito deliberado?

Fuente: Evolution News – The Finely Tuned Genetic Code 19/11/2011
Redacción: Jonathan M © - www.evolutionnews.org Traducción y adaptación: Santiago Escuain — © SEDIN 2011 - www.sedin.org Usado con permiso para: www.culturacristiana.org

viernes, 25 de noviembre de 2011

Lee Strobel: El caso de un Creador, "Documental"

Investigación de un periodista ateo en busca de una explicación científica acerca de la existencia de Dios. ¿Los decubrimientos recientes en las distintas areas de la ciencia nos acercan o alejan de la posible existencia de un Dios Creador? Las deficiencias del Darwinismo ante la Explosión Cámbrica. Disensión Científica al Darwinismo. Las deficiencias del Darwinismo y del materialismo reduccionista. El origen del Universo. Universo Bien Afinado.

jueves, 24 de noviembre de 2011

David Berlinski escribe sobre Proceso a Darwin



 

David Berlinski 20 de noviembre de 2011 | Permalink

Con motivo de los 20 años de la publicación de Proceso a Darwin


En 1985, Richard Dawkins publicó El relojero ciego. Allí Dawkins argumentaba que la apariencia de diseño en la naturaleza es un espejismo. Según él, las complejas estructuras biológicas pueden explicarse totalmente por variaciones al azar y la selección natural. Lo que no dice Dawkins es por qué la biología debe ser tan pródiga en espejismos. El relojero ciego captó la imaginación del público, pero en el esfuerzo por conseguir la adhesión del público se dejó bien poca cosa al azar. Aquellos críticos que creían que los sistemas vivos aparentan estar diseñados porque en verdad están diseñados sufrieron un ataque preventivo desde el New York Times. «Así son los hábitos mentakes de los intelectos no cultivados», escribía el biólogo Michael Ghiselin: « -- de los niños, de los salvajes y de los simplones».

Comentarios como éste tuvieron el efecto de una pieza de carne cruda echada sin cuidado entre carnívoros. Hubo una contienda por conseguir el primer bocado. Nadie se preocupó por atacar al ridículo Ghiselin. Era Richard Dawkins quien se había puesto en evidencia, y, detrás de Dawkins, codo a codo, Charles Darwin. Con la publicación de Proceso a Darwin en 1991, Phil Johnson hizo lo que con frecuencia hacen los carnívoros: Mordió.

Johnson era a la sazón profesor de derecho en la Universidad de California en Berkeley, un hombre cuya educación le había dado lo que tienen tan a menudo los grandes abogados, un ojo penetrante para el tema central. La teoría de Darwin, observó Johnson, difícilmente necesita ningún respaldo empírico: Es su propia mejor amiga. «La presuposición dominante en la ciencia evolutiva», escribió, «parece ser que las posibilidades especulativas, sin confirmación experimental, son todo lo que es realmente necesario».

Esto es erróneo sólo hasta allí donde las posibilidades especulativas sin confirmación experimental son a menudo todo lo que es realmente posible.

Cada paleontólogo que ha escrito desde que Darwin publicó su obra maestra en 1859 ha sabido que el registro fósil no ofrece respaldo a la teoría de Darwin. La teoría predecía un continuo de formas biológicas, y en tal magnitud que desde la perspectiva correcta las especies se considerarían como artificios de la taxonomía, como la clasificación de ciertos tamaños en los trajes humanos como fornidos. Las cuestiones acerca del origen de las especies se resolvieron de la mejor forma posible: No hay especies, y por tanto no hay problema. Por cuanto el registro histórico sugería una progresión por separado de formas biológicas fijas, resultaba fatal para el proyecto de Darwin. Tanto más razón, argumentaba Darwin, para descartar la prueba en favor de la teoría. «No pretendo», escribió, «que jamás habría yo sospechado cuán deficiente registro de las mutaciones de la vida se presentaba en la sección geológica mejor preservada, si la dificultad de nuestra falta de descubrimientos de innumerables eslabones de transición entre las especies que aparecieron al comienzo y final de cada formación no gravitase tan pesadamente sobre mi teoría».

Como Johnson observaba, esto es un galimatías para autoprotección.

Son pocos los biólogos serios que en la actualidad estén dispuestos a defender la posición que Dawkins expresó en El relojero ciego. La metáfora sigue siendo deslumbrante, y así el relojero sigue ciego, pero ahora resulta que también es sordo y mudo. Con unos pocos más impedimentos, igual podría estar muerto. La publicación en 1983 por Motoo Kimura de La teoría neutral de la evolución molecular consolidó unas ideas que Kimura había introducido a finales de la década de 1960. A nivel molecular, la evolución es totalmente estocástica, y, si tiene lugar en absoluto, procede por deriva siguiendo un modelo de hojas y corriente. Las teorías de Kimura dejaron como un enigma la emergencia de las estructuras biológicas complejas, pero desempeñaron una importante función en la economía local de la creencia. Permitió a los biólogos afirmar que estaban abiertos a las críticas responsables. «Una crítica del neodarwinismo», alardeaba el biólogo holandés Gert Korthof, «puede incorporarse en el neodarwinismo si hay datos y una buena teoría, lo que contribuye al progreso de la ciencia.»

Con esta norma, si el arcángel Gabriel fuese a aceptar la responsabilidad personal de la explosión cámbrica, sus puntos de vista podrían ser descritos de manera amplia como neodarwinistas.

En Proceso a Darwin, Johnson ascendió majestuosamente por encima del punto usual del escepticismo. Fue el gran caso de Darwin et al contra la Tradición Religiosa Occidental lo que ocupó su atención. Esta batalla había comenzado mucho antes que Johnson comenzase a escribir. Pero el caso no había quedado decidido. No había quedado decidido de manera decisiva y, al modo de un espantoso mutilado, había seguido golpeteando sus muletas por todos los tribunales inferiores del infierno y de Dover, Pennsylvania.

Unos cuantos jueces cabeceantes como Stephen Jay Gould pensaron que resolverían el asunto dividiendo equitativamente entre los litigantes. A la ciencia, Gould le asignó todo lo importante, y a la religión, nada. De esta naturaleza era su teoría del magisterio no coincidente, o NOMA por sus siglas en inglés, un término que sugiere que Gould estaba dotando de una nueva ala al Museo de Arte Moderno. Sirviendo a dos señores, Gould suponía que también los dos le servirían luego a su vez. Estaba equivocado. Al abordar la teoría de la evolución de Darwin, los evolucionistas teístas adoptaron una postura de expectante veneración, imaginando esperanzados que su deferencia les permitiría lamer los platos de varias mesas científicas. Pronto recibieron seguridades de que al haberse acomodado a cambio de nada, que precisamente nada era lo que iban a recibir. Y de gente de la calaña de Ricard Dawkins o Daniel Dennert, Gould recibió lo que él se había merecido.

Y también de parte de Phillip Johnson, pero de forma diferente y con unos fines diferentes en mente.

El sistema científico establecido había creído durante mucho tiempo que en res Darwin et al contra La Tradición Religiosa Occidental, Darwin iba a prevalecer. Esperaban que se les asignaría el gobierno sobre la ideología de una sociedad democrática. Y ya sentían un escozor colectivo en las palmas de sus manos. Los diarios cantaban las alabanzas de Darwin, y los documentales de la televisión —con un narrador jadeante y una selva llena de bichos— celebraban su triunfo. Los conservadores de los museos se precipitaban a construir dioramas darwinistas donde se exhibía a seres humanos ascendiendo, paso a paso, desde algún antiguo cónclave de simios, muy parecido a sala de la facultad de Harvard. Se puso un muy considerable aparato de agitación y propaganda a disposición de la comunidad darwinista.

Y, sin embargo, por mucho que se haya dicho que la teoría de Darwin está más allá de toda reevaluación y crítica, quedó en pie la convicción de que no era así, y que si lo era, no lo era del todo.

«¿Por qué no considerar —decía Johnson— la posibilidad de que la vida es lo que parece ser de forma tan evidente, el producto de una inteligencia creativa?»

Este planteamiento es totalmente razonable. Es la pregunta que toda persona reflexiva se siente inclinada a hacer.

Entonces, ¿por qué no hacerla?

No hay ninguna regla que justifique a la ciencia como institución que excluya tal cosa. Las que se suelen emplear —el naturalismo, la falsabilidad, el materialismo, el naturalismo metodológico— son inútiles como reglas porque está claro que son formas de esquivar la cuestión.

El genetista Richard Lewontin —de Harvard, cosa rara— proporcionaba una respuesta a la pregunta de Johnson que constituye una obra maestra de simplicidad primitiva. Desde luego merece ser citada en extenso y citada en su plenitud:

Nuestra buena disposición a aceptar asertos científicos contrarios al sentido común es la clave para una comprensión de la verdadera lucha entre la ciencia y lo sobrenatural. Nos ponemos del lado de la ciencia a pesar del patente absurdo de algunas de sus construcciones, a pesar de su fracaso al no cumplir muchas de sus extravagantes promesas de salud y de vida, a pesar de la tolerancia de la comunidad científica hacia historias sin fundamento de «porque sí», porque tenemos un compromiso previo, un compromiso con el materialismo. No se trata de que los métodos y las instituciones de la ciencia nos obliguen de alguna manera a aceptar una explicación material del mundo fenomenológico, sino al contrario, que estamos obligados por nuestra adhesión previa a las causas materiales a crear un aparato de investigación y un conjunto de conceptos que produzcan explicaciones materiales, no importa cuán contrarias sean a la intuición, no importa lo extrañas que sean para los no iniciados. Además, este materialismo es absoluto, porque no podemos permitir un Pie Divino en la puerta. Lewis Beck, el eminente erudito sobre Kant, solía decir que cualquiera que pudiera creer en Dios podía creer en cualquier cosa. Apelar a una deidad omnipotente significa permitir que en cualquier momento se puedan quebrar las regularidades de la naturaleza, que pueden suceder milagros.

Hay mucho en estas observaciones que es analíticamente defecuoso. El «compromiso con el materialismo» que Lewontin defiende es apenas lo suficientemente claro para merecer una refutación. La historia de la física sugiere que todo vale si algo funciona. Es una máxima tan útil en la física matemática como en las finanzas internacionales.

Sin embargo, Lewontin, tal como lo comprendió Johnson, había captado apropiadamente la dinámica del Gran Caso, su significado más interno. Lo que queda cuando se substrae el materialismo (o cualquier otra cosa) del compromiso previo de Lewontin es el compromiso previo mismo; y, como sucede con todos dichos compromisos, es un compromiso pase lo que pase. Si hubieran leído la publicación New York Review of Books, los mullahs en Afganistán hubieran comprendido perfectamente a Lewontin. Sólo hubieran estado en desacuerdo con el bando que había escogido.

Las teorías de Darwin tienen correspondientemente menos importancia por lo que explican, que es bien poca cosa, y más importancia por lo que niegan, que es más o menos la clara evidencia de nuestros sentidos. «Darwin —observa amablemente Richard Dawkins— hizo posible ser un ateo intelectualmente satisfecho.»

Pero el Gran Caso, como recuerda Johnson a sus lectores, no ha sido todavía decidido en el único tribunal que cuenta, que es la reflexión considerada de la raza humana. Los esfuerzos por parte de una de las partes por ausentarse del juicio son algo prematuros. Hay demasiado en juego.

Lo mucho que está en juego explica mucho acerca de la retórica que se manifiesta en el debate en los Estados Unidos, su vileza. Biólogos como Jerry Coyne, Donald Prothero, Larry Moran o P. Z. Myers mantienen la opinión de que si no pueden ganar el argumento, lo mejor será no perderlo, y, ¿qué mejor manera de no perder un argumento que insultar al antagonista? Si resulta necesario, el sistema establecido en el ámbito académico de la biología ha estado bien dispuesto a demandar de los Tribunales Federales que hagan lo que no han conseguido hacer ante el tribunal de la opinión pública. Si la ley no está bien dispuesta a actuar por ellos, están bien dispuestos a ignorarla. Después de haberse sentido intimidado por algún tedioso corifeo darwinista, el Centro Científico de California canceló con alegre despreocupación un contrato vigente para exhibir un documental acerca de la Explosión Cámbrica. Bajo la intimidación de algún otro corifeo darwinista, el Departamento de Física en la Universidad de Kentucky negó al astrónomo Martin Gaskell una cátedra en astrofísica que claramente se le debía.

El Centro Científico de California pagó compensación.

La Universidad de Kentucky pagó compensación.

Y como Philip Johnson hubiera podido recordarles, la ley es una espada de dos filos.

En el Instituto Dicovery ofrecemos a menudo una Oración de Acción de Gracias ecuménica al Todopoderoso por personajes como P. Z. Myers, Larry Moran, Barbara Forrest, Rob Pennock y Jeffrey Shallit.

Por Donald Prothero estamos dispuestos a sacrificar un carnero.

¿Y ahora? Tanto los críticos como los defensores de la teoría de Darwin han quedado anonadados ante los datos. Somos beneficiarios de veinte años de brillantes y profundos trabajos de laboratorio en biología molecular y bioquímica. Los sistemas vivientes son más complejos que nunca antes hubiéramos podido imaginar. Son extraños en su organización y naturaleza. No hay ninguna teoría remotamente adecuada ante estos hechos.

Hay algunas indicaciones de que una vez más el diapasón de la opinión está experimentando cambios. Las reivindicaciones del diseño inteligente son demasiado insistentes y demasiado verosímiles para ser frívolamente descartados, y las ineptitudes de la teoría darwinista son demasiado obvias para ser frívolamente toleradas. El tiempo ha confirmado lo que críticos como Phil Johnson han siempre sospechado. La teoría de Darwin es de lejos mucho menos una teoría científica que la posición por defecto de una cosmovisión en la que el universo y todo en el mismo se autoensambla de sí mismo en una procesión mágica sin fin. La tradición religiosa, y con ella un sentido del misterio, del terror y de la grandeza de la vida, siempre ha incorporado percepciones que jamás fueron triviales.

La tierra va subiendo al mismo tiempo que se hunde.

Y este es también un mensaje que Phil Johnson tuvo el placer de comunicar.

NOTA EDITORIAL: David Berlinski escribe para dar una perspectiva de la situación en el actual debate entre la tesis del diseño inteligente, por un lado, y la perspectiva materialista dominante en los medios de comunicación en nuestra sociedad. Su afán en este artículo no es tanto convencer como clarificar, de una manera satíricamente clarividente y reveladora, acerca del fundamento y tácticas retóricas de los proponentes del darwinismo.

*   *   *   *   *

Estos días se cumplen los veinte años de la publicación del libro Proceso a Darwin en inglés, en 1991, y se han cumplido también dieciséis años de la traducción al español de la segunda edición. El libro en español está disponible en su revisión de 2011 para su lectura en línea: PULSE AQUÍ.



David Berlinski recibió su doctorado en filosofía por la Universidad de Princeton, y posteriormente fue investigador postdoctoral en matemáticas y biología molecular en la Universidad de Columbia. Es autor de obras sobre análisis de sistemas, topología diferencial, biología teórica, filosofía analítica y la filosofía de las matemáticas, así como de tres novelas. También ha enseñado filosofía, matemáticas y literatura inglesa en Stanford, Rutgers, la Universidad de la Ciudad de Nueva York y la Université de Paris. Además ha sido miembro investigador en el Instituto Internacional para Análisis Aplicado de Sistemas en Austria y en el Institut des Hautes Études Scientifiques. Vive en París. Para más información, acceda a www.davidberlinski.org


Fuente: Evolution News – Majestic Ascent: Berlinski on Darwin on Trial 20/11/2011
Redacción: Jonathan M © - www.evolutionnews.org Traducción y adaptación: Santiago Escuain — © SEDIN 2011 - www.sedin.org usado con permiso para: www.culturacristiana.org

martes, 22 de noviembre de 2011

La definición del amor





Letra en español (Nota: No es una traducción exacta)



Hace algunos años se popularizo una frase que cantaban los Beatles, ellos decían “Todo lo que necesitas es amor”.... mi pregunta es ¿A que tipo de amor se referían ellos? Nuestra sociedad post-modernista tiene un concepto de amor, pero lo que la cultura popular entiende por amor, no necesariamente es la definición autentica del amor verdadero. 

Antes de ahondar en el tema, es bueno identificar cual es el significado del amor para nuestra sociedad moderna. ¿Cual es la cosmovisión del amor en nuestra cultura popular? 

Cuando identificamos los rasgos de la manera bajo la cual la  modernidad ha interpretado el amor, no estamos lejos de decir: Que lo que se suele denominar amor, no es en absoluto un amor auténtico. Es un fraude total, lejos de ser “todo lo que necesitas” es algo que debes evitar a toda costa. 

Las ideas tienen consecuencias y las ideas que han venido surgiendo sobre la interpretación del amor durante los años, han dado paso a una desfiguración completa de tan noble definición. 

Las películas, la televisión, la radio, el internet y todos los medios de comunicación se han encargado de propagar estas ideas modernas sobre el tema… 

Por ejemplo, nos presentan un amor íntimamente asociado a la inmoralidad que existe en esas escenas que ya todos conocemos, sexo, desenfreno, “amor” egoísta que lo quiere todo para el, pero no piensa en lo que es capaz de dar a la persona “amada”, nos presentan un amor incapaz de ser paciente y de esperar el tiempo correcto, nos presentan un “amor” motivado por intereses, nos ponen en bandeja de plata un amor que no entiende que es el sacrificio por la persona amada, un amor mutilado de honestidad, humildad, sinceridad, sin dobles intenciones… como para expresarlo al prójimo. 

La cultura popular intenta desesperadamente difuminar la línea que separa el amor verdadero de la pasión inmoral, de lo correcto e incorrecto. La inmoralidad es una perversión total del amor verdadero; la codicia otra corrupción del amor que se origina en el deseo narcisista de auto gratificación, en lugar del bien de los demás. La pureza no tiene cabida en la cosmovisión moderna del amor. 

Lamentablemente hemos llegado a aceptar que el amor es la amplia tolerancia del pecado, abrazando al bien y el mal por igual. 

Mientras que el amor autentico nunca moverá a un hombre, o a una mujer, o a un joven, o a un niño, a desafiar las normas morales y sociales, o a ser indiferente hacia ellas. 

La definición correcta del amor nace desde el corazón de Dios nuestro creador, puesto que el es amor. Esta definición nace para ser practicada entre sus criaturas a todo nivel, nivel personal y como consecuencia interpersonal. 

En todas nuestras esferas de relaciones, ya sea en la esfera romántica de pareja, como en la esfera familiar, en la esfera que la componen nuestros amigos, nuestros vecinos, todas las personas que de alguna forma tengan relación con nosotros. 

La definición del amor dada por Dios 

El amor es sufrido, es benigno; el amor no tiene envidia, el amor no es jactancioso, no se envanece; no hace nada indebido, no busca lo suyo, no se irrita, no guarda rencor; no se goza de la injusticia, mas se goza de la verdad. Todo lo sufre, todo lo cree, todo lo espera, todo lo soporta. El amor nunca deja de ser. 

En otras palabras, el amor verdadero es siempre un acto de sacrificio inspirado por la vehemencia del amor, padecimiento, dolor, tolerancia por la persona amada. A esto nos referimos cuando decimos que el amor es sufrido. Jesucristo lo hizo y creo que todos los que somos cristianos y aun los que no son cristianos alguna vez lo han escuchado de la forma en la que lo hizo. 

El amor es benigno, es decir es: Agradable, dulce, con un trato, cuidadoso para con sus semejantes, tiene buena voluntad y afecto en sus relaciones. 

El amor no tiene envidia, no se pasa pensando con tristeza y pesar en las cosas que no tiene, y que desea pero son del bien ajeno. 

El amor no se jacta, no presume de sus cualidades, habilidades, de sus acciones o de sus posesiones, sean estas cuales sean. El amor es humilde. 

El amor no se envanece, no se comportarse con orgullo o superioridad frente a los demás, tratándolos de un modo despectivo y desconsiderado. No es soberbio ni vanidoso. 

El amor no hace lo indebido, el amor no empuja a las personas a actuar inmoralmente; lamentablemente como lo explicaba anteriormente la cosmovisión del mundo ha corrompido a tal grado esta noble palabra, que ahora parece ser que en la cultura moderna el amor abraza lo bueno y lo malo. Pero el verdadero amor no propone hacer cosas incorrectas, el amor distingue lo bueno y lo persigue. 

El amor no busca lo suyo, el amor no es inmoderado y excesivo, para atender desmedidamente al propio interés, sin cuidarse del de los demás. 

El amor no se irrita, el amor esta alejado de la ira; la ira esta asociada directamente a un enfado muy grande o violento en el que la persona pierde el dominio sobre sí misma y siente indignación y enojo. El amor nunca llega a perder el dominio de si mismo por un enfado y llegar a este punto. El amor soporta y puede manejar un enfado sin caer a la violencia o mal trato. 

El amor no guarda rencor, el amor genuino es incapaz de guardar un resentimiento arraigado, o resentimientos enraizados en el corazón. 

El amor no se goza de la injusticia, el amor nunca se alegra por la desgracia, la adversidad de las personas, de la pobreza, miseria, necesidad, hambre, o una cualquier condición desfavorable a la de uno mismo, en otras personas. 

El amor se goza de la verdad, el amor se alegra de los juicios justos, y de las condiciones verdaderas, que justamente encajen y correspondan entre la realidad y lo que se piensa, la verdad, la justicia, el amor se goza en ella. 

El amor todo lo sufre, el amor esta dispuesto a sufrir padecimientos, condiciones desfavorables por el simple hecho de poder demostrar inspirado en el amor una actitud noble, frente a otra persona en determinadas condiciones. 

El amor todo lo cree, el amor no es escéptico, el amor siempre considera posible o probable tener por cierto algo que el entendimiento no alcanza o que no está comprobado o demostrado. El amor es el centro de la fe. 

El amor todo lo espera, el amor no comienza a actuar hasta que suceda lo que se espera, el amor es paciente, sumamente paciente, no se anticipa a nada. 

El amor todo lo soporta, el amor tiene la capacidad de sostener una carga sobre si, sea cual sea esta carga. El amor aguanta con paciencia, dolor o resignación una cosa que no es agradable 

El amor nunca deja de ser, el amor real nunca deja de existir. 

Sin duda luego de la definición del amor desde la perspectiva de Dios, nos damos cuenta cuan divergente es la cosmovisión del amor en nuestra sociedad moderna, el reto es volver a los principios que nos revelan el amor mas puro, el amor revelado por Dios, para que el ser humano lo pueda practicar en sus relaciones. 

Autor:
Edgar Ramírez
Notas: I Corintios 13 
RVR 1960
Con cariño para: Iris Salazar



lunes, 21 de noviembre de 2011

Entrevista de César a Antonio Martínez y Santiago Escuain

Cesar Vidal entrevista a Antonio Martínez, doctor en oftalmología y Santiago Escuain, químico y traductor científico, sobre el tema del Diseño Inteligente.

El naufragio de las investigaciones sobre el Origen de la Vida

David Coppedge
Ha visto la luz en Scientific American un importante estudio acerca de la situación de la investigación acerca del origen de la vida. Robert Shapiro, un experto y galardonado químico, investigador oncológico, profesor emérito y autor de libros acerca de este campo, desmitifica el experimento de Miller, el Mundo del ARN y otros experimentos populares como callejones sin salida irreales. Al describir el fantasioso pensamiento de algunos investigadores, decía: «En unaforma de vitalismo molecular, algunos científicos han dado por supuesto que la naturaleza tiene una tendencia innata a producir de manera preferente los componentes de la vida en lugar de las huestes de otras moléculas que pueden también surgir de las reglas de la química orgánica».

Shapiro había estado explicando que se pueden formar millones de moléculas orgánicas que no son nucleótidos de ARN. Y éstas no solo son inútiles para la vida, sino que interfieren e interceptan las reacciones beneficiosas. Luego pasaba a describir como la extrapolación a partir del Experimento de Miller produjo una sensación injustificada de euforia entre los investigadores: «Mediante la extrapolación de estos resultados, algunos escritores han dado por supuestoque todos los componentes de la vida se podrían formar con facilidad en experimentos tipo Miller y que estaban presentes en meteoritos y otros cuerpos extraterrestres. Pero no es así», advertía en una sección titulada «La Olla de Sopa está Vacía». Decía que ningún experimento ha producido aminoácidos con más de tres carbonos (la vida usa algunos con seis), y que ningún experimento tipo Miller ha producido jamás ni nucleótidos ni nucleósidos, esenciales para el ADN y el ARN.

Shapiro describió con cierto detalle las difíciles etapas que los químicos organicos emplean para sintetizar los elementos constructivos del ARN, usando condiciones sumamente irreales para la Tierra primitiva. «El tema era la demostración de que los humanos podían producir, aunque de forma muy ineficaz, sustancias que se encuentran en la naturaleza», decía él. «Desafortunadamente, no había ni químicos ni laboratorios en la Tierra primitiva para producir ARN.» Aquí tenemos un ejemplo de cómo los científicos tuvieron que trabajar para producir citosina, una de las bases del ADN:
Citaré un ejemplo de síntesis prebiótica, publicado en 1995 porNature y reproducido en el New York Times. La base citosina del ARN se preparó con un elevado rendimiento calentando dos sustancias químicas purificadas en un tubo de vidrio sellado a 100 grados centígrados durante un día. Uno de los reactivos el cianoacetaldehído, es una sustancia reactiva capaz de combinar con una cantidad de sustancias químicas comunes que pueden haber estado presentes en la Tierra primitiva. Estas sustancias competidoras fueron excluidasSe necesitaba una concentración sumamente elevada para inducir la otra participante, la urea, para reaccionar a una velocidad suficiente para que la reacción tuviera éxito. El producto, citosina, puede autodestruirse por reacción simple con agua. Cuando se rebajó la concentración de la urea, o se dejó que la reacción continuase demasiado tiempo, cualquier citosina formada quedaba destruida a continuación. Estareacción destructiva se había descubierto en mi laboratorio, como parte de mi investigación continuada sobre daños ambientales sobre el ADN. Nuestras propias células afrontan esto manteniendo un conjunto de enzimas especializadas en reparación del ADN.
Parece haber una acusada diferencia entre el Mundo Real y el imaginario Mundo del ARN. A pesar de esta desconexión, Shapiro describe algo del bombo publicitario que generó el escenario del Mundo del ARN cuando Gilbert lo sugirió por primera vez en 1986. «La hipótesis de que la vida comenzó con el ARN se presentó como una realidad factible, en lugar de como una especulación, en las revistas, los libros de texto y los medios de comunicación», decía él. También describió los aros intelectuales por los que han tenido que pasar los investigadores para conseguir hacer que este escenario funcione: la congelación de océanos, el desecado de lagunas, desiertos secos y otros medios improbables en secuencias específicas para prevenir que las moléculas se destruyesen. Esto equivale a atribuir una conducta de satisfacción de deseos y de cumplimiento de objetivos a objetos inanimados, como Shapiro deja claro con esta pintoresca analogía:
La analogía que viene a la mente es la de un jugador de golf que, tras haber jugado una pelota de golf a través de un campo de golf de 18 agujeros, luego supusiera que la bola también podría jugar por sí misma por el campo en su ausencia. Él ya había demostrado laposibilidad del hecho; solo sería necesario ahora suponer que alguna combinación de fuerzas naturales (por ejemplo, terremotos, vientos, tornados e inundaciones) pudieran producir el mismo resultado, dado el tiempo suficiente. No sería necesario quebrar ninguna ley física para que tuviese lugar la formación espontánea del ARN, pero las posibilidades contrarias son tan inmensas, que lasugerencia implica que el mundo no viviente tenía un deseo innato de generar ARN. La mayoría de los científicos en el campo del origen de la vida que siguen sustentando la teoría de que el ARN fue primeroo o bien aceptan este concepto (de forma implícita, si no explícita), o bien creen que las probabilidades inmensamente desfavorables fueron sencillamente vencidas por la buena suerte.
Contemplándolo de forma realista, hay la misma probabilidad de formación de moléculas perjudiciales. Estas funcionarán como terminadoras de cualquier molécula prometedora, dice Shapiro, que luego usa otra analogía. Describe a un gorila tecleando en un enorme teclado que contiene no solo el alfabeto latino, sino también todas las letras de todos los demás lenguajes y todos los conjuntos de símbolos de un ordenador normal. «Las probabilidades de una redacción espontánea de un replicador en el estanque que he descrito se puedencomparar con las de que el gorila redacte, en inglés, una receta coherente para la preparación de chili con carne.» Por esto mismo Gerald Joyce, el mismísmo Mr. Mundo-ARN, y Leslie Orgel, un veterano investigador en el campo del origen de la vida con Stanley Miller, llegaron a la conclusión de que la aparición espontánea de cadenas de ARN en la tierra primitiva «hubiera sido prácticamente un milagro».

Y todas estas malas noticias nos las encontramos justo a mitad del artículo. ¿Acaso nos trae algunas noticias? No todavía; primero tenemos que aceptar la regla fundamental enunciada por el premio Nobel Christian de Duve, que llamó a «rechazar aquellas improbabilidades tan inconmensurablemente elevadasque solo pueden designarse como milagros, fenómenos que caen fuera del ámbito de la indagación científica». Esto excluye comenzar a partir de moléculas complejas como el ADN, el ARN y las proteínas [véase El Origen del Primer Sistema Vivo].

En base a dicho principio, Shapiro abogó por un retorno a escenarios con ciclos medioambientales involucrando moléculas simples. Estos escenariostermodinámicos o de «metabolismo primero» son solo populares entre alrededor de un tercio de los investigadores sobre el origen de la vida en este momento. Entre sus partidarios destacados se encuentran Harold Morowitz, Gunter Wachtershauser, Christian de Duve, Freeman Dyson y el mismo Shapiro. Sus hipótesis también tienen ciertos requisitos que deben cumplir: una fuente de energía, límites, maneras de acoplar la energía a la organización, y un sistema o ciclo químico capaz de crecer y de reproducirse. (Los problemas de la genética y de la herencia se desplazan al futuro en estas teorías.) ¿Y cómo les va? «A lo largo de los años, muchos artículos teóricos han propuesto determinados esquemas basados «metabolismo primero», pero se ha realizado relativamente poco trabajo experimental en apoyo de los mismos», admite Shapiro. «En aquellos casos en los que se han publicado experimentos, generalmente han servido para demostrar la verosimilitud de etapas individuales dentro de un ciclo propuesto». Además, «la comprensión de las etapas iniciales que llevan a la vida no revelaría los acontecimientos específicos que llevaron a los conocidos organismos de base ADN-ARN-proteína actuales». Como tampoco ningunos ciclos prebióticos verosímiles demostrarían que esto es lo que sucedió en la tierra primitiva. El éxito en los experimentos acerca del «metabolismo primero» solo contribuirían a alimentar la esperanza de que los ciclos prebióticos son creíbles en principio, no que realmente tuvieron lugar.

Sin embargo, el mismo Shapiro tuvo que volver a los milagros que antes había rechazado. «Algún acontecimiento o circunstancia casuales pueden haberllevado a la vinculación de nucleótidos para formar ARN», especula él. ¿Y de dónde vinieron los nucleótidos? ¿Acaso él mismo no había dicho que su formación era improbable hasta lo imposible? ¿Cómo escaparon a la rápida destrucción por el agua? Dejando aparte estos puntos, quizá los nucleótidos sirvieron inicialmente para otros fines y fueron cooptados, por azar, en el sistema de la vida en desarrollo. Sin embargo, exponiendo que estos pensamientos son poco más que un sueño imposible, admite: «Serían necesarios muchos pasos adicionales en la evolución para "inventar" los elaborados mecanismos para la replicación y la síntesis específica de proteínas que observamos en la vida en la actualidad».

Llega ahora el final apoteósico de Shapiro. Para un artículo predominantemente desalentador y crítico, su último párrafo es sorprendentemente optimista. Exponiendo que los escenarios sumamente inverosímiles de grandes moléculas implican un universo desolado, ofrece esperanzas con la alternativa de las moléculas pequeñas. Citando a Stuart Kauffman: «Si todo esto es cierto, la vida es inmensamente más probable de lo que hemos supuesto. No solo estamos en nuestra casa en el universo, sino que hay mucha más probabilidad de que lo estemos compartiendo con compañeros desconocidos».

Actualización Al día siguiente aparecieron cartas al editor en Science,1debatiendo las dos teorías principales sobre el origen de la vida. Los signatarios incluían la mayoría de los grandes nombs: Stanley Miller, Jeffrey Bada, Robert Hazen y otros debatiendo con Gunter Wachtershauser y Claudia Huber. Después de tamizar la jerga técnica, el lector se queda con la fuerte impresión de que esencialmente ambos campos se han refutado mutuamente. Del lado de la sopa primordial, los signatarios desmontaron detalles en un artículo emitido por el lado del «metabolismo primero». Las concentraciones de los reactivos y las condiciones especificadas se calificaron como «inverosímiles» y «sobremanera improbables».

Wachtershauser y Huber replicaron que la «teoría de la sopa prebiótica» demanda una «dilatada y poco clara autoorganización en un océano frío y primitivo», que según ellos es más improbable que el medio ambiente volcánico de su propia teoría del «organismo pionero» (metabolismo primero». Es una insensatez esperar que los productos de una sopa prebiótica sobrevivan en el océano, de entre todos los lugares, «donde después de algunos miles o millones de años, y bajo toda manera de diversas influencias, se cree que la magia de la autoorganización generó de alguna manera una primera forma de vida no especificada». Los puñales destellan en la lucha entre las dos principales escuelas.


1Cartas, «Debating Evidence for the Origin of Life on Earth [El debate de la evidencia acerca del origen de la vida en la tierra]», Science, 16 February 2007: Vol. 315. no. 5814, pp. 937 - 939, DOI: 10.1126/science.315.5814.937c.
Gracias, Robert Shapiro, por poner a descubierto las falsedades con las que nos han estado alimentando durante casi un siglo. El Experimento de Miller, el Mundo del ARN y todo el bombo publicitario de incontables comunicaciones, artículos, divulgaciones en la prensa popular y animaciones de la TV son mitos imposibles. Agradecemos su ayuda en ayudar a revelar por qué todo ha sido una falsedad impuesta con bombo publicitario. Ahora acabe bien su trabajo y expónganos que su modelo no es mejor que el otro.
Usted sabe que no puede quedarse indefinidamente en el campo de las moléculas pequeñas. No ha comenzado a salvar el abismo entre los ciclos metabólicos con pequeñas moléculas e inverosímiles sistemas con grandes moléculas (ARN, ADN y proteínas). Sea cual sea la manera en que usted trate de cerrar el vacío, va a incurrir en las mismas críticas que usted suscitó contra los cuentacuentos del Mundo del ARN. No puede recurrir a la selección natural sin una replicación precisa (véase El Origen del Primer Sistema Vivo).

¡Qué extraño de qué manera esta gente pretende que si pueden simplemente conseguir que unas moléculas tiren de sí mismas hacia arriba hasta la etapa de replicación, las mutaciones y la selección natural asumirán el control del proceso a partir de entonces! ¡Antes que puedas decir 4 mil millones de años ya tenemos bioquímicos investigando!

El artículo de Shapiro es muy valioso para exponer la inmensa diferencia entre el bombo publicitario acerca del origen de la vida y su inverosimilitud —más aun, imposibilidad— en la química del mundo real. Su alternativa es débil y agobiada por las mismas dificultades. Si una bola de golf no va a acabar los agujeros 14 a 18 por sí misma sin necesidad de ayuda, tampoco acabará los agujeros 1-5. Si un gorila no puede teclear una receta en inglés para chile con carne con la ayuda de miles de teclas en un teclado, tampoco podrá teclear una receta para sopa caliente, ni usando solo un 1% de las teclas. Además, ni el gorila ni la bola de golf van a quererencaminarse en el proyecto evolutivo. No podemos atribuir un «deseo innato» a un gorila, a una bola de golf, ni a un planeta estéril de sustancias químicas para producir lenguajes codificados y máquinas moleculares.

Más tarde o más temprano, toda la maquinaria, los replicadores, los códigos genéticos y los complejos procesos de disminución de entropía tendrán que entrar en la cuenta. Cuando Shapiro se dé cuenta de que su alternativa es tan culpable como la que él critica, puede que se nos una un ardiente nuevo defensor del diseño inteligente en nuestras filas. Únase al bando vencedor, doctor Shapiro, antes de caer junto con los perdedores en el agujero negro de las falsedades intelectuales.

PARA LECTURA ADICIONAL

Fuente: Creation·Evolution Headlines - OOL on the Rocks 15/2/2007
Redacción: David Coppedge © 2007 Creation Safaris - http://www.creationsafaris.com/
Traducción: Santiago Escuain — © SEDIN 2008 - http://www.sedin.org/
Usado con permiso del traductor para: www.culturacristiana.org

Cultura Cristiana Copyright © 2011 | Template created by O Pregador | Powered by Blogger