Buscador de El peregrino curioso

Cargando...

sábado, 10 de septiembre de 2011

El concepto de Mesopotamia

Si hubiera que elegir, dentro de la historia, un concepto muy muy popular, pero a su vez muy muy muy desconocido, babilonia sería la mejor candidata. Para el no iniciado, distinguir babilonia de sumeria o de mesopotamia es una quimera. Cuando hablamos de «los mesopotámicos», y también de «los babilonios», y de «los sumerios», o incluso de «los acadios», no sabemos muy bien cómo distinguir uno de otros. Y la diferencia es que, mientras la primera palabra «mesopotamia», hace referencia a una región geográfica, las tres restantes hacen referencia a distintas «civilizaciones» de esa misma región. Y entonces, ¿qué es Mesopotamia? Pues entenderemos mesopotamia como la región de la cuenca hidrográfica de los ríos Tigris y Éufrates. Conocer la naturaleza climática de Mesopotamia es muy importante si se quiere conocer la realidad ideológica y cultural de la región, motivo que da origen a esta descripción.

Expliquemos brevemente algunos conceptos sobre hidrología antes de entender bien esto último. Ya sabemos que un río nace en las montañas, pero un río también puede nacer a partir de aguas subterráneas que salen a la superficie. Lo importante es que, desde su nacimiento, y por influjo de la gravedad, el río va descendiendo en altitud por la superficie de la tierra hasta llegar a la altura 0, es decir, al mar, punto llamado desembocadura. Cuando un río, en vez de desembocar directamente al mar, desemboca en otro río, se le llama afluente (y por lo tanto no es un río).

En el caso de un río que nace gracias a aguas subterráneas, está claro quién es su donante de agua (las propias aguas subterráneas) pero, en el caso de ríos que nacen en una montaña, ¿quién le da agua? Pues efectivamente, las lluvias no, pues las lluvias solo alimentan ríos, nunca los forman. Es el hielo: la lluvia que caen en latitudes altas de las montañas, caen congeladas formando un casquete polar que se derrite progresivamente a lo largo del año. Es por ello que este tipo de ríos tienen su estiaje (su caudal mínimo, es decir, menor cantidad de agua) en invierno, y sus máximos caudales en verano (cuando se derrite el hielo en mayor proporción).

Mesopotamia
Tanto el río Tigris como el Eufrates son ríos de esta naturaleza. Veámos un gráfico:


De los dos ríos, el Éufrates es el de la izquierda, y el Tigris el de la derecha. Vemos como el nacimiento de ambos ríos sucede en los montes Tauro (al norte, en Turquía). Ambos ríos están alimentados por más afluentes que, a su vez, nacen también en los montes Tauro, y algunos afluentes del Tigris en los zagros (al este, pertenecientes a la actual Irán). Todos estos afluentes siguen una historia similar: nacen en casquetes polares y se llenan de agua por la fundición de estos.

En el movimiento de las aguas de ríos y sus afluentes, se va produciendo una erosión conjunta que provoca una depresión en el terreno. Esta depresión conjunta es la que recibe el nombre de cuenca hidrográfica, o sencillamente cuenca. Véamos como ejemplo las cuencas hidrográficas de España, cada una dominada por cada uno de los «grandes ríos».


Si nos fijamos, en los bordes de cada cuenca hidrográfica, podemos observar en el gráfico un color marroncito que indica una mayor altitud, en contraste con la depresión provocada por los ríos y afluentes que caracterizan a cada cuenca. Mesopotamia es, sin más, la cuenca hidrográfica conjunta de los ríos Tigris y Éufrates que conlleva un espacio más amplio que, simplemente, «la Tierra entre ríos», como originalmente era llamado por los griegos (de hecho, es ésta la etimología de la palabra). A esta cuenca se le denomina cuenca de Shatt-el-Arab, que también es el nombre que recibe el último tramo de ambos ríos, justo después de su unión cerca de la desembocadura (obsérvese en el mapa).

La naturaleza de la cuenca
Los caudales de estos afluentes incrementan el caudal de los ríos principales, estando sus máximos en verano como ya hemos mencionado. A su vez, las propias lluvias incrementan los caudales, una vez más, tanto de los afluentes como de los ríos principales, dándoles aprovisionamiento de caudal también en invierno. De esta forma, hay un aprovisionamiento de agua perenne, aunque no tan constante, puesto que durante el año el caudal varía considerablemente. Además, los régimens de lluvia y temperatura tampoco son constantes de año en año. Dado esta acumulación de fuentes de agua (hielo, lluvia, y afluentes) un pequeño incremento en las lluvias puede provocar un gran incremento del caudal de los grandes ríos, con los peligros que ocasiona las consecuentes inundaciones. A su vez, un descenso en las lluvias provocaría un gran descenso del caudal de los ríos, con los problemas de supervivencia que la falta de agua puede ocasionar si la población es especialmente grande. Como detalle adicional, las inundaciones del Tigris son más frecuentes y fuertes que del Éufrates, y por ello el número de asentamientos en el primer río es menor.

Pero la naturaleza y complejidad de esta cuenca geográfica no acaba aquí. Como hemos visto, la cuenca se sitúa bajo los montes Tauro y dejando a su derecha a los montes Zagros. Pero a su izquierda hay otro grupo montañoso, como también vemos en la imágen, correspondientes en realidad a varias cadenas montañosas: Amanus, Alauitas, el Líbano y el Anti-líbano. Todo forma un arco montañoso que aisla a Mesopotamia del clima continental o al clima mediterráneo. Además, estas cadenas montañosas reducen la cantidad de lluvias de Mesopotamia por todos los frentes. Cuando un conjunto de nubes se desplaza, al encontrarse con montañas, las nubes ascienden en altura (debido a que no pueden atravesar la montaña) enfriándose y cambiando de altitud con rapidez, lo que provoca la condensación del vapor de agua generando lluvia. Cuando las nubes llegan a la cuenca, ya han descargado gran cantidad de su contenido.

Por otro lado, por su ubicación geográfica (se sitúa entre los trópicos) el clima de Mesopotamia es desértico, al igual que le pasa al Sáhara, al desierto de Arabia o al desierto de Siria (puede verse en la imágen). Al norte del Sáhara y al sur de Europa el clima no es desértico gracias al mar mediterráneo, pero como acabamos de describir, el clima mediterráneo no llega a afectar a Mesopotamia por culpa de las cadenas montañosas occidentales, como acabamos de describir.

Podemos imaginar, con tal escaso régimen de lluvias y tendencia a la aridez, cuál es la importancia de ambos ríos para la habitabilidad de la región. De hecho, mientras que la sedentarización y luego la agricultura nacen en las inmediaciones de las cadenas montañosas libaneses e israelies sobre el 9.500 a.C (y poco más tarde en los montes Tauro), el neolítico no llega a Mesopotamia hasta el 6.000 a.C, que terminaría por imponerse gracias a la especial fertilidad de ambos ríos. Es la naturaleza climática de esta cuenca hidrográfica la que caracterizará a Mesopotamia tanto en lo que respecta a su religión, sus constumbres y la identidad cultural de la población de la región hasta su caida bajo dominio persa a mitad del siglo VI a.C.

Leer más...

viernes, 26 de agosto de 2011

Las glaciaciones a través del oxígeno (1/2)

A los interesados en prehistoria, que todos ya sabemos se protagoniza fundamentalmente en el pleistoceno, también ha de interesarles comprender bien todo lo relacionado con las glaciaciones, su impacto biológico y el rol del hombre en ese escenario, pues es el clima lo que cambia la ecología, dirige la evolución de las especies y provoca sus cambios culturales. Entender la prehistoria es saber contextualizarla bien con sus glaciaciones. Este hilo (de dos post) intentará ayudar a desmembrar un poco más la maraña conceptual que lo rodea —lo del oxígeno lo enteréis en la segunda entrega.

Cuando se habla de evolución humana, hay varios aspectos claves fundamentales para organizar el conocimiento de la prehistoria. Por un lado, hace falta conocer bien los «estadios evolutivos», grosso modo, de nuestra evolución biológica y también cultural. Puede divirse ésta en cuatro épocas, partiendo de una población de una especie ancestra tanto de los chimpancés como de nosotros:
  • Desde que dicha población original se diversificó (una se dirige a chimpancé y otra a nosotros), hace unos 6 millones de años, hasta hace unos 4.5 millones de años. Corresponde a las especies llamadas pre-australopitecinas (orrorin/ardipithecus).
  • Época de los australopitecinos. Desde los 4 a los 2.5 millones de años.
  • Comienzo de la época de los géneros homo/paranthropus. En ésta época comienza la industria lítica y la dispersión por África y Europa. Desde hace 2.5 millones de años a 200.000.
  • Homo sapiens. Desde hace unos 200.000 años. Conflicto sapiens/neanderthalensis en Europa. Poblamiento de ámerica.
  • Comienzo del holoceno y neolítico, hace unos 12.000 años. Aparición del sedentarismo y finalmente la civilización. Continúa hasta hoy.
Los dos primeros estadios coindicen aproximadamente con el plioceno (5.3-2.5 millones de años). Se caracteriza por tener un clima más frío que el anterior (mioceno), similar al actual. Los dos siguientes estadios están caracterizados por el pleistoceno, que es un gran periodo glaciar (con periodos intermedios cálidos llamados interglaciares). El último estadio se corresponde con el Holoceno, más cálido y estable que el pleistoceno, estabilidad climática que propició la aparición del sedentarismo continuado y el desarrollo de la civilización.

Es en el pleistoceno donde centraremos este hilo, y en concreto, como sabemos lo que sabemos acerca de las glaciaciones, y cuántas hay, además de saber cómo se nombran. En un futuro artículo —ya veré si pongo nombre a una serie—, veremos detalladamente como estos cambios climáticos pudieron afectar a la evolución biológica y cultural del hombre.

Bloques erráticos

Nos situamos a finales del siglo XVIII y principios del XIX. La visión de la evolución del hombre era bastante sencilla. Dios creó la Tierra hace unos 6.000 años. Hace unos 3.000 hubo un diluvio universal. Durante ese intervalo, hubo varios episodios catastróficos, donde todas las especies eran aniquiladas y la geología de la Tierra se modificaba brúscamente. Así se explicaban, por un lado, los distintos sistemas montañosos y las grandes variaciones de la geología del planeta. A su vez, explicaba por qué en los estratos geológicos había distintas faunas. Antes del diluvio, después de un último episodio catastrófico, el hombre creo al hombre junto a una nueva fauna. Después del diluvio, Dios creó la fauna actual. Los nuevos pobladores supervivientes del diluvio habían olvidado el uso del hierro, y así se explicaba el por qué se habían encontrado herramientas de piedra (las llamadas ceraunias).

Un elemento clave en la aparición del concepto de las glaciaciones viene de unos bloques de pierda, llamados erráticos, porque la composición y los materiales que formaban a dichos bloques enormes de piedra no coincidían con la geología del medio donde se habían encontrado. Se suponían que eran bloques traidos de otros lugares por las aguas del último diluvio.

Pero junto a otros muchos detalles, relacionados con diversos fenómenos observados en los alpes y otros conjuntos montañosos con glaciares, se empezó a defender el origen de dichos bloques erráticos como traídos por grandes masas de hielo, en épocas de la tierra más frías que la actual, donde dichos glaciares eran más extensos. Louis Agassiz fue el científico más importante en la expansión de esta idea. Continuando dichos estudios llegó a saberse que la expansión del hielo fue tal, que los distintos glaciares de los distintos conjuntos montañosos del norte de Europa y América estaban unidos entre sí, dejando a las latitudes altas del planeta totalmente congeladas.

Capas de hielo

Del mismo modo que en un acantilado o una montaña pueden observarse capas geológicas, llamadas estratos, en los glaciares también se acumulan distintas capas de hielo, con distintas propiedades que pueden estudiarse independientemente. Así, analizando esas capas pueden diferenciarse épocas con mayor acumulación de hielo, y épocas con menor acumulación, diferenciando distintas épocas más frías, correspondientes a glaciares, y épocas más cálidas, no glaciares, llamadas interglaciares. Hoy sabemos, aunque con mayor incertidumbre a medida que nos alejamos en el tiempo, cuáles han sido los distintos ciclos glaciares que ha protagonizado la tierra desde que comenzó su vida hace unos 4.700 millones de años hasta hoy. Nosotros nos vamos a centrar en las glaciaciones del pleistoceno.

Normalmente, hacer este tipo de estudios en capas glaciares requiere elegir un lugar donde excavar y analizar las distintas capas que vayan apareciendo. Así, para cada época o etapa del ciclo habrá un lugar más adecuada que otro para realizar su estudio, y de esta forma las distintas glaciaciones que conocemos reciben los nombres de los lugares donde han sido estudiados.

Por ejemplo, en centroeuropa tenemos la glaciación Würm (la última del pleistoceno) que corresponde al nombre de un pequeño río que pertenece a la cuenca Alpina. La misma glaciación es llamada Vistula en el norte de europa, y es, a su vez, el río más importante de Polonia. En norteamérica, es llamado Wisconsin, por el estado americano. Existen unos 10 nombres distintos para la misma glaciación según distintos lugares alrededor del globo, y evidentemente, ese «fenómeno global» de glaciación tiene diversas particularidades y cronologías locales, más o menos correspondidas entre sí.
Leer más...

jueves, 14 de octubre de 2010

Positivismo

¿Es la vida un sueño? Esta pregunta evoca a musicales de cine donde los actores saltan y bailan por la calle. Es una pregunta que jamás se haría alguien sin demasiado tiempo libre. Tampoco un chulo de «tuto» que se dedica a robar bocadillos en el recreo, adolescentes de andares chulescos que curiosamente nunca engordan; ¿venderán los bocadillos?

Pero esta pregunta sobre el sueño que parece tan cursilona e incluso ridícula está muy relacionada con el más duro de los problemas a los que se han enfrentado pensadores, científicos, filósofos y demás personas, distribuidas por el espacio geográfico y el tiempo histórico, que se han dedicado al saber. Esta pregunta está muy relacionada con las aparentes limitaciones intelectuales que nos hacen en ocasiones no saber discernir entre la realidad y la ficción, limitaciones que tampoco son suficientes para derrocar al asedio de nuestros sentidos.

Tenemos por tanto, dos formas de la cuestión:
  • ¿Es la realidad que vivimos una producción de nuestra mente?
  • ¿Es la realidad totalmente distinta a como las recibimos por los sentidos?
Ambas cuestiones son razonables. Si asumimos que la realidad es una producción de nuestra mente, no habrá nadie que pueda convencernos de lo contrario, total, dicha persona junto a sus argumentos también serán producción de nuestra mente. Y desde un sueño, nunca somos conscientes de que estamos durmiendo, hasta que nos despertamos. ¿Quién puede decirnos que nuestra vida no es más que un preludio a otro despertar? Esta postura es llamada solipsismo, y hay quién lleva éste aspecto al extremo, y está tan convencido de que todo el universo vivido es un invento propio, que llega a la conclusión de que es Dios. Y lo peor es que esta conclusión es totalmente razonable, y además, imposible de negar.

A su vez, todos sabemos como los sentidos pueden ofrecer percepciones falsas de la realidad. Todos nos hemos enfrentado alguna vez a un efecto óptico. También conocemos el fenómeno de la perspectiva: un objeto más grande y lejano reduce su tamaño. Los colores sufren una suerte similar: la luz puede propagarse a distintas frecuencias y el rango de frecuencias es muy amplio, pero solo un intervalo de frecuencias es el que el ojo humano puede ver. Las frecuencias menores de ese intervalo corresponde al color rojo, y las más altas al color violeta. Frecuencias intermedias se ven como colores intermedios, y así, los colores se ordenan en una linea recta, la misma que muestra el arcoiris. Es decir, ¡los colores no existen!, es una interpretación que hacemos de la luz que nos llega a los ojos: el color no está en la luz, está en el uso que hace la mente de ella. Pero, encima de que los colores ni siquiera existen, el ojo humano en vez de una recta vé un círculo cromático; ¡un círculo!. Vemos que la naturaleza de los colores que percibimos es distinta a la naturaleza de los colores que (no-)existen.

¿Por qué vemos un círculo cromático? En el ojo existen unas glándulas llamadas conos, que son de tres tipos. Unas están encargadas de recibir la luz que se interpreta como rojo, otras para el color verde, y otras para el azul. Como estás glándulas pueden excitarse a la vez según la luz recibida, se mezclan los colores que queramos. Así, esa línea cromática de la naturaleza es unida por nuestra mente desde sus extremos creando un círculo cromático.

Pero hay más «mentiras» de los sentidos. En diferentes estados psicológicos nuestros sentidos también cambian: cuando tenemos miedo, se nos afina el oido, escuchando sonidos que de otra forma «no existirían». Y si hemos consumido algo de alcohol, no sentimos los dolores de la misma forma, sentimos menos. Esto sucede porque el dolor se produce en el cerebro: en el lugar del cuerpo afectado, se generan neurotransmisores que llegan al cerebro. La cantidad de neurotransmisores transmitidos es proporcional a la violencia del contacto. Y a una mayor cantidad de neurotransmisores llegados al cerebro, mayor será la señal de peligro: mayor será el dolor sentido. Si consumimos alcohol, se inhibe la producción de neurotransmisores, es decir, hay menos neurotransmisores en acción y se siente menos dolor, aunque la violencia del contacto sea la misma.

Se podrían dar cientos de ejemplos de la «falsa realidad» de los sentidos. Y los filósofos, desde el siglo VI aC hasta el siglo XIX dC, conscientes de este problema, buscaban la naturaleza de la «verdadera realidad superior a los sentidos», a fin de describirla. A esta rama sobre la búsqueda de la verdad última se llama ontología. Cuando la ontología se busca alrededor del concepto de Dios, se llama teología. Sino, es metafísica.

Pero resulta que para nosotros es innacesible cualquier conocimiento fuera de lo que sea «sensible», o «sensible de ser sentido», es decir, fuera de la experiencia. En ontología solo podemos especular, y dada cualquier posible propuesta, siempre podemos cuestionar su legitimidad. Por ello Kant llegó a decir que la metafísica llevaba siglos dando vueltas sobre el mismo punto sin llegar a ninguna conclusión. Lo único que lograron es darse cuenta de la dificultad del problema, y la verdad es que se perdieron demasiados siglos valiosos para ello.

Y es que nuestro principal vicio y defecto es nuestra infinita capacidad de proponer nuevas dudas. ¿Y sí hay una realidad fuera de nuestra capacidades intelectuales?, ¿y si la realidad es un completo abstracto que interpretamos fatal?. Si proponemos culquier pregunta de ésta naturaleza «extra-física», nos damos cuenta de que no podemos ni negarla ni afirmarla. El ejemplo más paradigmático es Dios. ¿Dios existe? A no ser que él de muestras de revelación que todos podamos observar, no podemos afirmar ni desmentir su existencia.

Pero hay una solución relativamente sencilla a este problema, y los ateos ahora me entenderán muy bien: un argumento sencillo para decir que Dios no existe es el siguiente, «el hombre no es obra de Dios, es Dios quien es obra de él». Así, nos damos cuenta que el núcleo de la cuestión no son las dudas en sí, sino el hecho de haberlas planteado.

Debido a que el único concepto seguro e infalible es el de «fenómeno observable», es decir, una piedra que cae, un relámpago que clarea las nubes, o un charco de agua que hierve alrededor de un geiser, podemos conformarmos con afirmar que toda la realidad existente es la «fenoménica», y que cualquier otra cuestión «más allá de la física» no es más que un invento por culpa de nuestra infinita capacidad de hacernos preguntas. Y esta postura de dar por afirmativa a la realidad recibida por la experiencia sensible (y descrita usando el método científico) se llama positivismo, nombre que da título a esta entrada.

Leer más...

sábado, 18 de septiembre de 2010

Clasificación de los seres vivos

Muchos de nosotros tenemos en nuestras casas mascotas. Hay perros, gatos, pájaros, iguanas, tortugas, y un sin fin de animales más. También están los animales domesticados que no son mascotas: ovejas, vacas, cabras, gallos, conejos. Y también conocemos animales salvajes como leones, hienas, jirafas, elefantes y gorilas.

Pero solo he citado algunos animales clásicos, y además, conocidos en el mundo occidental. Si nos vamos a américa, nos encontramos con otros tipos de animales conocidos como las picas, llamas, zarigüeyas o coatíes. En asia tenemos musgaños, el tahr árabe, ginetas, jerbos o tejones. Y aún no hemos nombrado a ningún insecto, a ningún tipo de pez. Y fuera de los animales, no hemos hablado de plantas, ni hongos, ni tipos bacterianos. Grupos con una gran diversidad.

Y ahora abramos más nuestras mentes y olvidemosnos de los seres vivos actuales. La vida comenzó en la tierra probablemente hace más de cuatro mil millones de años, y en todo este tiempo se han sucedido en nuestro planeta un gran número de organismos vivos que dejan en ridículo la diversidad actual. Esta claro, que si alguien se dedica a estudiar a los organismos que existen y existieron en la Tierra, no se puede hablar en términos de gallos, picas, monos y demás nombres familiares y vulgares, cuyas fronteras en muchos casos están poco delimitadas.

La forma de paliar una situación tan complicada como la organización de los tipos de organismos, es definir qué vamos a entender por "tipo de organismo", es decir, cuál es la unidad mínima de información con la que vamos a tratar a la hora de clasificar seres vivos. Hablo del concepto de especie. Este término es dificil de definir, de hecho, es una cuestión abierta por más de dos siglos que aún no ha sido resuelta. Pero por ahora nos basta considerar especie con la definición común que ya todos conocemos.

Pero a las especies hay que agruparlas en categorías de algún modo, y es éste modo elegido el que delimitará la "escuela de pensamiento" en la clasificación. La ciencia de la clasificación es llamada taxonomía, y en el contexto de la biología, la taxonomía se encarga de describir a las especies, dándoles nombres científicos, estudiar su distribución, y en definitiva, caracterizar a las especies y organizarlas. Cada nivel en la clasificación se denomina taxón. En este artículo veremos los dos enfoques principales, uno basado en carácteres, y otro basado en filogenias.

Escuela fenética

La primera clasificación de los seres vivos conocida era la acuñada por Aristóteles, cuya "escuela de pensamiento", se mantuvo sin cambios hasta el fortalecimiento de las ideas filosóficas evolucionistas y su posterior introducción en el ámbito científico de mano de Charles Darwin, que fue el primero en convertir las ideas evolucionistas clásicas en una teoría científica.

En este enfoque primordial, las especies se veían como "tipos" de organismos, inmutables en el tiempo, que tenían una esencia única e intrínseca a la especie. Y así, las especies, a un muygrosso modo, se clasificaban únicamente en géneros que agrupaban a especies parecidas. Luego, Carlos Linneo, ya en el siglo XVIII, publicó un libro llamado Sistema Naturae donde acuñó nuevos términos y creó más taxones en la clasificación. Así, los géneros se agrupaban en familias, las familias en órdenes, los órdenes en clases y las clases en reinos. Con el tiempo se han creado nuevas divisiones, algunas tan importantes como filo o tribu, y otras más circustanciales como cohorte o división. Luego, se usan sub o super taxones para clasificar con mayor granularidad a grupos muy grandes. Por un ejemplo, un filo muy amplio (que contiene a un gran número de especies) se puede dividir en subfilos, o varias familias en superfamilias, dado que el órden que la contenga sea muy amplio. Así, también aparecen magórdenes, pavórdenes, superfamilias, subtribus, subespecies, infracohortes, etc, siempre dependiendo de las circunstancias del grupo biológico en particular.



Además, Linneo estableció la llamada notación binominal científica en la clasificación, que consiste en usar dos nombres para nombrar a una especie, al primer nombre es el nombre del género al que pertenece, y el segundo nombre es la denominación de la especie concreta dentro del género. Además, los nombres de las especies deben ser en latín y escribirse en cursivas, siendo la primera letra del nombre del género en mayúsculas, y el resto en minúsculas, así, la especie Homo sapiens pertenece al género Homo, y la especie inter-específica es sapiens. Y de éste modo también, un león es Panthera leo, un tigre, Panthera tigris, y una pantera, Panthera phantera, lo que significa que las tres especies pertenecen al mismo género, género Panthera. Los nombres del resto de taxones, como reinos o divisiones, no tienen por qué nombrarse en cursivas ni en mayúsculas (aunque siempre en latín), y se puede decir libremente reino animalia o clase mammalia. Esta tradición sigue siendo la estándar en la biología actual.

Esta visión original y fijista de una especie (ampliamente acorde luego con las ideas creacionistas del medievo), que podemos llamar taxonomía tradicional, es cómoda y útil para la clasificación, pero reflejaba un gran desconocimiento de la realidad biológica: variabilidad interna de cada especie, herencia con modificación, especies bacterianas, transferencia horizontal de genes, y demás mecanismos que complican la visión, clasificación e incluso definición de especie, que hoy en día ya se torna muy complicada.

En su matriz moderna, la escuela fenética es la heredera de la taxonomía tradicional. En esta primera escuela de pensamiento la forma de agrupar a las especies en grupos mayores depende de las características de la especie. Dos especies que pertenecen al mismo género, es porque comparten una características que pertenece al género. A su vez, varios géneros de una misma familia tienen en común aquella característica que define a su familia, y así paulatinamente hasta llegar al nivel de reino.

Los partidarios modernos de la escuela fenética, difieren de la taxonomía tradicional en que en la primera se usan ciertas características para definir taxones, mientras que en la taxonomía fenética se anota el número de similitudes o características compartidas, y se agrupan en taxones más cercanos aquellas especies con mayor número de similitudes, y en taxones más alejados a medida que el número de similitudes decrece; por eso a la escuela fenética se le denomina también taxonomía numérica. De esta forma, una iguana, por tener cinco dedos, se parecerá más a un humano que una serpiente, o un murciélago a un ave debido a sus alas.

En ambos casos, tanto en la escuela tradicional como en la fenética, nunca se tienen en cuenta las relaciones evolutivas entre los caracteres descritos, y se le asigna igual importancia a cada una de ellas. Los fenéticos argumentan a su favor que la taxonomía numérica es mucho más objetiva, ya que tener en cuenta las relaciones evolutivas implica interpretar éstas a partir de las características descritas, pero las relaciones evolutivas nunca se pueden inferir objetivamente a partir de ellas, y sobre todo a partir de un incompleto registro fósil. Hoy en día, esta visión está siendo abandonada, por un lado por la cada vez mejor interpretación del registro fósil, y segundo gracias a la aparición de los métodos basados en ADN, que permiten crear árboles evolutivos de forma mucho más precisa.

Escuela cladística

Hoy en día, la escuela de pensamiento más impulsada es la cladística, en contraposición a la fenética. La cladística es la escuela de clasificación que tiene en cuenta las relaciones evolutivas de los animales, y tiene como objetivo crear clados que organicen a todos los seres vivos.


Para ello, se parte de los llamados árboles filogenéticos. Un árbol filogenético es un árbol que muestra las relaciones evolutivas de un grupo de organismos, siendo su raiz el antepasado común a todos ellos, como muestra la figura anterior. Todo árbol filogenético es un clado. En la figura anterior hemos presentado el clado Hominoidea. El subárbol que excluye a orangutanes y gibones también sería un clado (pues es también un árbol filogenético). En este caso, el clado resultante es Hominidae. El árbol filogenético de la vida es, normalmente, enorme, y tiene una gran cantidad de nodos y ramas, y no todo clado dentro del árbol tiene por qué ser un taxón.

Existen varios tipos de árboles filogenéticos. Los árboles filogenéticos básicos, que solo muestran las relaciones evolutivas, se denominan cladogramas. Cuando la longitud de las ramas son proporcionales a la cantidad de cambio evolutivo, se le llama filograma. Cuando la longitud de las ramas indica la cantidad de tiempo evolutivo, se le llama cronograma. La cladística se encarga, además de nombrar y describir a las especies, y a partir de los árboles filogenéticos, nombrar como taxones a un subconjunto de clados adecuado, como muestra la siguiente imágen.



Es decir, bajo un enfoque cladístico, la taxonomía de los organismos intenta reflejar su historia evolutiva para facilitar su estudio. Así, los caballos y los murciélagos están en la clase mammalia, clado que contiene a todos los mamíferos; las aves y los cocodrilos estarían en el clado archosauria, y ambos clados, junto a la clase amphibia, pertenecen a la superclase tetrapoda, dado que un ancestro común con cuatro patas, que no era ni mamífero, ni reptil ni anfibio, evolucionó primero a anfibios, luego a reptiles por otro lado, y por último a mamíferos.

Aquí hay que hacer varias puntualizaciones, dado que la historia no acaba aquí. Hay dos escuelas en la taxonomía de las especies a partir de la historia evolutiva. Antes algunas definiciones: si un taxón contiene tanto a su antecesor común como a todos sus descendientes, el clado se llama monofilético. Si no contiene a todos sus descendientes, aunque sí a una serie de descendientes y al antepasado común de todos ellos, se le llama parafilético. Si el taxón contiene una serie de especies pero no a sus antepasados comunes, el grupo se llama polifilético. La fenética es la única escuela que permite grupos polifiléticos.

Por ejemplo, permitiendo taxones parafiléticos, se podrían clasificar a las aves como una clase propia, debido a su gran diversidad, en vez de ser un subclado del clado dinosauria. De ésta forma, elevamos la categoría de las aves para darles el puesto de importancia que se merecen, y hacemos al clado dinosauria un clado parafilético, ya que no contendría a todos sus descendientes (al sacar a las aves del clado).


Los partidarios de la cladística, como ya hemos mencionado, solo permite grupos monofiléticos, que coincide con el concepto de clado. Sin embargo, la sistemática evolutiva (otra escuela de clasificación) también permite la creación de grupos parafiléticos como taxones, es decir, ellos clasificarían a las aves en un taxón propio. El motivo es que los sistemáticos evolutivos no solo tienen en cuenta la relación de parentesco, sino que además tienen en cuenta el grado de especiación, y toman a las especies como una población de individuos, y no solo como el conjunto de características que definan a la especie. Aunque las aves desciendan de los dinosaurios, su contexto ecológico y sus hábitos de vida y sus características han cambiado tanto que poco tienen ya en común con los reptiles, y es por ello que defienden la extracción de las aves del taxón dinosauria. La sistemática evolutiva también tiene en cuenta el grado de diversificación, es decir, el tamaño del grupo, en la creación de taxones, así, grupos más grandes también tendrás más oportunidades de tener su propio taxón de un nivel superior.

Leer más...

lunes, 23 de agosto de 2010

Champú, agua, grasa y la espada anfipática

Al ducharnos, cada uno de nosotros se echa champú en la cabeza, porque su madre lo educó así. De hecho, algunos pensarán que el champú solo sirve quizás para salir del cuarto de baño oliendo a limpito, y que una ducha sin champú en el pelo tampoco será tan diferente que con el exclusivo uso del agua y una buena frotada de manos. Lo mismo podemos decir con el jabón, ¿quién no se ha lavado las manos solo con agua, pensando, "si es lo mismo, hombre"?

Pero lo cierto es que el champú y el jabón, en la relación agua - grasa, tiene una fuerte y necesaria implicación. Sucede que la grasa es insoluble en el agua, o dicho más técnicamente, es hidrofóbica (fobia al agua). Esto significa que la grasa no se disolverá efectivamente con el agua, ya que son compuestos químicos que tienden a evitarse.

Sin embargo, tanto el jabón como el champú tienen una característica esencial. Sus moléculas son anfipáticas, es decir, por una extremo son solubles en el agua (cabeza hidrófila -acepta el agua-), y por otra no (cabeza hidrófoba -odia el agua-). Y además, la hidrofilia y la lipofilia (capacidad de ser solubles con las grasas) son características opuestas. Un compuesto, si es hidrófilo (aceptan el agua) es a su vez lipófobo (odian la grasa), y viceversa, un compuesto hidrófobo (odia el agua) es a su vez siempre lipófilo (aceptan las grasas).

Por tanto, una molécula anfipática como el jabón tiene una cara que acepta el agua y repele las grasas, y otra que repele el agua y acepta las grasas. Y gracias a las moléculas anfipáticas, se pueden crear disoluciones que, sin su presencia, serían imposibles.Por ejemplo, imaginemos que echamos aceite encima del agua. Olvidemos por un momento que el agua tiene mayor densidad que el aceite. El aceite flotaría por encima del agua dado que no puede formar disoluciones con ésta, dado que el aceite es hidrófobo (odia el agua). Si nosotros aplicamos un poquito de jabón, en la frontera donde acaba el agua y empieza el aceite, ocurrirá el siguiente fenómeno químico.



Las cabezas hidrófobas (lipófilas) del jabón se anexarán a partículas de aceite, y las otras cabezas a partículas de agua, ordenándose todas éstas en forma de mini esferzas con las "cabezas de grasa" en el centro, y las cabezas hidrófilas de cara al agua, como muestra la imágen anterior. Así, las partes hidrófilas protegen a sus cobardes hidrófobos, dándoles la cara al agua. De esta forma, cada "esfera", que recibe el nombre de micela, ya sí que es soluble en el agua. La disolución final será una mezcla homogénea de líquido (agua) con partículas sólidas (micelas), que reciben el nombre de coloide.

Cuando un compuesto es anfipático (que cada cabeza odia-acepta el agua), no siempre forma micelas en presencia de agua. Depende siempre de la naturaleza del compuesto y de las condiciones externas del mismo, por ejemplo, como ocurre en las células de nuestro cuerpo, o de cualquier organismo vivo. Podemos imaginar a una célula como una pequeña esfera de agua, rodeada por una membrana. Fuera de esa membrana, existe más agua. Pero dentro de esa membrana, es decir, en la misma célula, existen más compuestos químicos que flotan sobre el medio acuoso y que son los responsables del metabolismo y la reproducción de la célula: mitocondrias, cloroplastos, núcleo celular (donde reside el ADN de la célula), etc.



Cada uno de esos compuestos químicos puede verse como otra "minicélula", con sus propios orgánulos para realizar las funciones vitales de la célula hospedadora (evolutivamente hablando, la mayoría de estos orgánulos posiblemente fueron en su origen otras células adoptadas por la célula hospedadora, que luego olvidaron sus funciones vitales y se especializaron en la función que ahora desempeñan, de hecho, todas conservan su propia molécula de ADN).

Tanto la membrana de la célula, como las membranas de cada uno de los orgánulos, forman la frontera entre el agua presente en sus dos extremos: el interno y el externo. ¿Cómo os imaginais al compuesto químico que forman éstas membranas?, por supuesto, anfipático. Las membranas que rodean a las células y a sus orgánulos internos tienen una doble capa lipídica, es decir, dos capas de grasa, pero anfipáticas. La estructura de las moléculas de cada capa es como una medusa con dos colas, donde la cabeza acepta el agua, y cada cola la repele



La primera capa de grasa tiene a sus cabezas hidrófilas mirando hacia el interior de la célula, es decir, en contacto con el medio acuoso de la célula (citosol), mientras que las dos cabezas hidrófobas apuntan al exterior. Estas cabezas están, a su vez, mirando a las cabezas hidrófobas de la segunda capa, que tienen a sus respectivas cabezas hidrófilas de cara al agua que rodea a la célula.

Y una vez visto con claridad y algunos ejemplos los conceptos relacionados con la "anfipatía", volvamos al caso del champú y el jabón. ¿Cuál es su funcionamiento?. En éste punto todos podréis ya imaginarlo. Las moléculas de jabón/champú capturan a las moléculas de grasa, y forman micelas (las miniesferitas que comentamos antes), que se disuelven en el agua. Es decir, consiguen disolver la grasa en el agua siendo ellas las intermediarias.

¿En qué se diferencian entonces?, en que el jabón tiene una mayor "agresividad" en este tipo de reacciones, es decir, el champú es más débil a la hora de disolver la grasa en el agua, y la disuelve en menor cantidad, y es por ello que el champú es más adecuado para el lavado del pelo. El pelo, para su propia protección, va generando un material grasiento que se llama sebo. Este material es necesario para la propia salud del pelo y la protección frente a agentes externos. Pero las capas de sebo, si no son retiradas paulatinamente, se van acumulando, y al acumularse se convierten en sustancias pegajosas que capturan cualquier tipo de sustancia, como la gomina, la suciedad del aire, la grasa de las manos cuando nos tocamos el pelo, etc.

El champú, al aplicarselo al pelo, retira muchas capas de grasa pero no tiene suficiente fuerza como para disolver toda la grasa presente en ella, y éste es el objetivo preciso que necesitamos: eliminar la suciedad, y no la grasa natural que el pelo necesita para su propia protección. Al disolver solo las capas más externas de sebo, sin disolver las internas, retiramos solamente las capas de sebo que contienen suciedad. Y de ahí el consejo de que, lavarse muchas veces el pelo al día, es malo, porque puedes acabar retirando toda la grasa presente en ella, y de esa forma estropear el pelo.

El jabón, sin embargo, al tener mayor fuerza para disolver la grasa en el agua, es más apropiado para lavar, por ejemplo, la ropa, y además, debido a otras propiedades químicas que el jabón posee, tiene más capacidad que el champú para penetrar dentro del tejido y disolver los restos de grasa más profundos y escondidos.
Leer más...

sábado, 21 de agosto de 2010

Origen del pronombre personal inglés, I

En mi época como estudiante de lengua inglesa, época vivida o sufrida con más pena que gloria, pero vivida al fin y al cabo, advertí la curiosidad sobre la escritura del pronombre personal, I, en inglés.

Este pronombre posee una característica bastante singular: siempre ha de escribirse en mayúsculas, sin importar el contexto de la frase, si le preceda un punto o no, tanto en textos formales como informales, sin variedades dialectales, pitos o flautas, la incidencia del cambio climático o el sexo de los ángeles: SIEMPRE va en mayúsculas. La pregunta más obvia que hay que hacerse es, ¿por qué?.

Y lo que le siguió fue una pequeña investigación. Ahora mismo en wikipedia existe una entrada acerca de dicho pronombre y parte de su historia, traducida a su vez de una entrada desde la wikipedia inglesa, pero que a "fechas" de mis excursiones por la red no venía (o no supe encontrar) referencias a esta costumbre moderna de capitalizar la i, y no fue sencillo descubrir el motivo.

Veámos. Nos situamos a mediados del siglo XI, en concreto, en el año 1066. Guillermo el conquistador se hizo rey de inglaterra, aunque no de manera pacífica, por supuesto. Guillermo era un normando, y los normandos era gentes provenientes del norte (pobladores escandinavos) que se aposentaron en la actual Normandía sobre el siglo IX bajo los permisos del rey francés Carlos III, y que dos siglos más tarde consquistaron Inglaterra (por supuesto, los normandos hablaban francés).

Por aquel entones, el pronombre personal yo, en el idioma anglosajón (inglés antiguo), se escribía como ic, pronunciado /ik/, y esta forma estaba más o menos unificada por todo el territorio inglés. Pero con la invasión normanda, el idioma entero cambió progresivamente hasta una forma llamada inglés medio. Evidentemente, el pronombre personal se encontró en medio de todo aquél revuelo.

En el sur de Inglaterra, el pronombre personal se palatizó, esto es, tomó una forma en la que, para su pronunciación, se tenía que colocar la punta de la lengua en el paladar duro. En concreto, tomó la forma ich (pronunciádlo y fijaos en dónde ponéis la lengua), y otros derivados escritos, como ych. En el norte, sin embargo, la pronunciación no cambio, y se mantuvo la forma /ik/, con sus variantes escritas ik, yk, yc, etc. Y luego siguió una suavización del vocablo, perdiéndose la consonante velar (el sonido /k/) y quedándo /i/, o su forma larga /j/, aunque pronto la primera cogió ventaja en la literatura.

Y empezaron los problemas. Resulta que, debido a que por aquel entonces no existía imprenta, la escritura de un sólo carácter podía presentar problemas de comprensión en un texto en donde la separación de palabras y la separación entre letras se confunde: una i en un texto de estas características podía bien ser la última letra de la palabra anterior, la primera letra de la palabra siguiente, o, de hecho, una palabra independiente que nombra al pronombre personal.

Así que, algunos escritores empezaron a adoptar la constumbre de escribir la i en mayúscula cuándo hiciera referencia al pronombre. Y esto ocurrió sobre 1250 en el norte de inglaterra, aunque también pervivió la forma /ik/ hasta aproximadamente el año 1400.

A su vez, el sur de inglaterra fue siendo progresivamente absorvido por los cambios lingüisticos de este pronombre, aunque sus viejas formas ich estuvieron merodeando por el sur de la isla hasta aproximadamente el año 1700, fecha en la que nuestra I se hizo predominante y única en todo el territorio inglés.
Leer más...

jueves, 12 de agosto de 2010

Vinay Deolalikar y las clases de complejidad P y NP

Vamos a hablar de uno de los grandes problemas de la matemática y de la computación actual. Los «verdaderos» conceptos que entran en juego aquí son, en general, bastante técnicos, pero yo los ignoraré completamente para explicar para el amplio público de qué va este problema y qué es lo que Deolalikar parece haber resuelto.

Imaginaos que estamos trabajando en un hospital, y tenemos un gran catálogo desordenado de historiales de pacientes. Y nos piden que le demos el historial de un paciente concreto. Una forma muy sencilla que se nos ocurriría a cualquiera es buscar uno a uno, hasta encontrar el expediente pedido. En el peor caso, el paciente estará el último del catálogo. Por tanto, en el peor caso, habremos buscado en tantos expedientes como pacientes registrados existan en el hospital. Por ejemplo, como muestra la siguiente gráfica (de 1 a 1000 pacientes), si existen 100 pacientes en el hospital, tendremos que buscar sobre 100 personas, donde la persona 100 será nuestro particular enfermo. Si el hospital tiene 550 pacientes, pues 550 pasos, y así, tantos pasos como pacientes tenga nuestro hipotético hospital. Evidentemente, si tu paciente está entre los primeros durarás mucho menos, pero si tu catálogo está desordenado no puedes predecir dónde estará el siguiente que tengas que buscar.



Cuando estemos aburridos de enfrentarnos al mismo trajín de buscar decenas de clientes cada día con este torpe pero único método posible, se nos puede ocurrir ordenar a todos los pacientes, ya que, con los pacientes ordenados, se podría tardar en encontrar a cualquier paciente particular en muy poquitos pasos. Ahora, ¡ordénalos! Con el mejor método conocido para ordenar pacientes, a medida que aumenta el tamaño del problema, el número de pasos necesarios para hacerlo crece de la forma que expresa la siguiente gráfica (en color verde):



En esta gráfica hemos acompañado la gráfica anterior (color rojo), para poder compararlos. Vemos como, para 500 pacientes, frente a los 500 pasos necesarios para la búsqueda, la ordenación «cuesta» unos 3.000 (6 veces más). Y para 1.000 pacientes, hacen falta unos 7.000 pasos para ordenarlos (7 veces más). Si fueran un gran número de pacientes, pongamos 10.000, harían falta unos 40.000 pasos, y no creo que nadie tenga ganas de perder varias mañanas de su tiempo en hacerlo. Si el número de pacientes fuera 100.000, necesitarías perder semanas o incluso meses. Pero aún así, un buen ordenador lo haría en menos de un segundo (si los historiales estuvieran digitalizados). En resumen, lo que antes era solamente buscar en un conjunto de datos desordenado, ahora queremos ordenar dicho historial, para que la búsqueda sea mucho (mucho) más rápida. El inconveniente es que la ordenación es mucho más costosa que la búsqueda, y la ventaja es que ordenar un historial solamente se hace una vez, reduciendo considerablemente, a partir de entonces, el tiempo necesario cada vez que tengas que volver a buscar (y seguro que esto ha de hacerse muchas más veces).

A este concepto acerca del «número de pasos» de un método (con muchas precisiones más en las que no entraremos) se le conoce como "órden asintótico de un algoritmo" (un algoritmo es más o menos lo que todos entendemos como método). De los distintos métodos que puedan existir para resolver un mismo problema, los informáticos intentan buscar aquel que necesite un número menor de pasos para resolverlo. Así que la «dificultad» de un problema, depende ampliamente de los métodos encontrados para resolverlo. Si se encuentra un buen método, que lo resuelva en poquitos pasos, podremos decir que el problema es «sencillo» de resolver.

Imaginemos ahora otro problema, mucho más complejo (incluso para un ordenador), consistente en un trabajador, un viajero, o cualquier persona que necesite ir a una serie de ciudades (empezando por una en concreto, y terminando por otra en concreto), pero queriendo minimizar sus gastos. Lo que tiene que hacer este hombre es buscar, de entre todos los caminos y carreteras posibles, el camino cuya distancia en kilómetros sea menor, y evidentemente, pasando por todas las ciudades que él desea visitar (y sin pasar dos veces por la misma).



En la imágen anterior se ve una representación de un posible conjunto de ciudades, con todas las carreteras posibles existentes. En la imágen que viene a continuación, se ve la gráfica del número de pasos necesarios para resolver el problema, a medida que aumenta su tamaño (número de ciudades), junto a las dos gráficas anteriores, para observar las diferencias.



Vemos como en este último caso (gráfica azul), las dos gráficas anteriores quedan completamente absorbidas, debido al alto coste asociado con éste método de búsqueda, y eso que solo hemos puesto la gráfica hasta problemas de tamaño 10. Si pusiéramos gráficas hasta problemas de tamaño 1.000, como en las gráficas anteriores, las gráficas roja y verde no se verían en el gráfico.

El por qué de este coste tan alto es debido a un fenómeno llamado "explosión combinatoria". Con el solo hecho de añadir una ciudad más (imaginando que existe una carretera entre cualquier par de ciudades), el número de caminos posibles se dispara. Y al poner otro más, el número de caminos nuevos es incluso mayor que el incremento anterior. Por ejemplo, con cinco ciudades hay 6 caminos posibles. Pero con siete solo hay 120 cuando con ocho hay 720. Con diez, más de 40.000 caminos. Con 20 caminos, para encontrar el camino más corto entre más de 6.000 billones (con b) de caminos hace falta más de 70.000 años de cómputo. Con 100 ciudades (que no son tantas), el número de años necesarios sencillamente no cabe en la calculadora (del portátil) que utilizo para mis cálculos.

Aunque este problema parezca infantil, ejemplifica muy bien a todos los problemas que sufren dicha explosión combinatoria. Este tipo de problemas se usan, por ejemplo, en seguridad informática. Para cifrar mensajes se acuden a situaciones donde un intruso que desee descifrarlos necesite realizar una búsqueda que duraría millones de años.

La clave está en la forma en que crece el número de pasos necesarios para resolver el problema. A los que crecen de una forma tratable (como los dos métodos enunciados al principio, el de la búsqueda y ordenación de clientes de un hospital), se les llama (muy -muy muy- grosso modo) problemas P. Los problemas intratables (como el problema del viajero, que presentan explosión combinatoria) se denominan NP. Existen muchas más clases de complejidad, así como también existen muchos tipos distintos de problemas, cada uno con sus propias limitaciones. Aquí solo hemos expresado las limitaciones en tiempo, pero también hay problemas que sufren los mismos problemas de espacio (cantidad de memoria necesaria para guardar los datos requeridos en el cálculo de la solución del problema).

La cuestión es si un problema NP es «esencialmente NP», o es que todavía no hemos encontrado un método tratable para resolverlo. La opinión generalizada es que los problemas NP, son «esencialmente intratables», es decir, que los métodos para resolver los problemas NP se comportan como el problema del viajero, y es imposible que exista un método que no lo haga de esta forma.

Este problema es uno de los siete problemas del milenio, propuestos por el instituo Clay de Matemáticas, con un premio de 1 millón de dolares a quién lo resuelva, y de ahí la gran cantidad de intentos por resolverlos, algunos que rozan el fraude. Pero Vinay Deolalikar cree haber resuelto el problema, o al menos, su investigación y su trabajo parece bastante serio, y llega a la conclusión que todos esperaban: los problemas NP, son efectivamente, problemas NP.

La noticia ha sido filtrada por Internet. Vinay Deolalikar es un trabajador de la empresa HP que dedicó sus tiempos libres a dedicarse al estudio e investigación sobre éste problema, y que duró varios años en preparar ésta demostración , y que, por supuesto, mantuvo en secreto. Ha hechado mano de muchos elementos de varias ramas de la matemática y de algunos resultados de la física estadística para construir esta demostración, que, junto a un resumen de la historia del problema y de su propia demostración, tiene una longitud total de unas 100 páginas.

Vinay Deolalikar aún no había publicado su demostración formalmente, pero un colega al que Deolalikar envió un correo junto con su demostración, lo publicó en su propio blog, y luego se terminó de expandir por Internet. Debido a que la demostración de Vinay aún no ha sido contrastada ni verificada por la comunidad de matemáticos, no tenemos garantías para afirmar que esta demostración constituya una demostración definitiva o fiable, y tampoco podemos, por tanto, afirmar que los problemas NP sean esencialmente intratables, pero varios expertos ya han defendido la seriedad del trabajo. También se comenta que, debido a que ésta demostración usa resultados que pertenecen al campo de la física y no de la matemática pura, quizás no supere el exámen de rigor exigido para que la prueba sea anunciada como legítima y de total garantía.

NOTA (17/02/2014): Debido a un amable comentario de un lector, exigiendo una corrección ortográfica (muchas gracias por el aviso), aprovecho para decir que, a los pocos meses de la publicación, expertos en el campo han rechazado la demostración por contener algunos fallos importantes, siendo la demostración, por tanto, falsa; incluso se llegó a crear un wiki para comentar y analizar la demostración. Aunque se afirmó que Vinay volvió a trabajar en la demostración para pulirla y perfeccionarla, los expertos no creen que el camino seguido en la demotración llegue a ningún resultado interesante.
Leer más...