Buscador de El peregrino curioso

jueves, 14 de octubre de 2010

Positivismo

¿Es la vida un sueño? Esta pregunta evoca a musicales de cine donde los actores saltan y bailan por la calle. Es una pregunta que jamás se haría alguien sin demasiado tiempo libre. Tampoco un chulo de «tuto» que se dedica a robar bocadillos en el recreo, adolescentes de andares chulescos que curiosamente nunca engordan; ¿venderán los bocadillos?

Pero esta pregunta sobre el sueño que parece tan cursilona e incluso ridícula está muy relacionada con el más duro de los problemas a los que se han enfrentado pensadores, científicos, filósofos y demás personas, distribuidas por el espacio geográfico y el tiempo histórico, que se han dedicado al saber. Esta pregunta está muy relacionada con las aparentes limitaciones intelectuales que nos hacen en ocasiones no saber discernir entre la realidad y la ficción, limitaciones que tampoco son suficientes para derrocar al asedio de nuestros sentidos.

Tenemos por tanto, dos formas de la cuestión:
  • ¿Es la realidad que vivimos una producción de nuestra mente?
  • ¿Es la realidad totalmente distinta a como las recibimos por los sentidos?
Ambas cuestiones son razonables. Si asumimos que la realidad es una producción de nuestra mente, no habrá nadie que pueda convencernos de lo contrario, total, dicha persona junto a sus argumentos también serán producción de nuestra mente. Y desde un sueño, nunca somos conscientes de que estamos durmiendo, hasta que nos despertamos. ¿Quién puede decirnos que nuestra vida no es más que un preludio a otro despertar? Esta postura es llamada solipsismo, y hay quién lleva éste aspecto al extremo, y está tan convencido de que todo el universo vivido es un invento propio, que llega a la conclusión de que es Dios. Y lo peor es que esta conclusión es totalmente razonable, y además, imposible de negar.

A su vez, todos sabemos como los sentidos pueden ofrecer percepciones falsas de la realidad. Todos nos hemos enfrentado alguna vez a un efecto óptico. También conocemos el fenómeno de la perspectiva: un objeto más grande y lejano reduce su tamaño. Los colores sufren una suerte similar: la luz puede propagarse a distintas frecuencias y el rango de frecuencias es muy amplio, pero solo un intervalo de frecuencias es el que el ojo humano puede ver. Las frecuencias menores de ese intervalo corresponde al color rojo, y las más altas al color violeta. Frecuencias intermedias se ven como colores intermedios, y así, los colores se ordenan en una linea recta, la misma que muestra el arcoiris. Es decir, ¡los colores no existen!, es una interpretación que hacemos de la luz que nos llega a los ojos: el color no está en la luz, está en el uso que hace la mente de ella. Pero, encima de que los colores ni siquiera existen, el ojo humano en vez de una recta vé un círculo cromático; ¡un círculo!. Vemos que la naturaleza de los colores que percibimos es distinta a la naturaleza de los colores que (no-)existen.

¿Por qué vemos un círculo cromático? En el ojo existen unas glándulas llamadas conos, que son de tres tipos. Unas están encargadas de recibir la luz que se interpreta como rojo, otras para el color verde, y otras para el azul. Como estás glándulas pueden excitarse a la vez según la luz recibida, se mezclan los colores que queramos. Así, esa línea cromática de la naturaleza es unida por nuestra mente desde sus extremos creando un círculo cromático.

Pero hay más «mentiras» de los sentidos. En diferentes estados psicológicos nuestros sentidos también cambian: cuando tenemos miedo, se nos afina el oido, escuchando sonidos que de otra forma «no existirían». Y si hemos consumido algo de alcohol, no sentimos los dolores de la misma forma, sentimos menos. Esto sucede porque el dolor se produce en el cerebro: en el lugar del cuerpo afectado, se generan neurotransmisores que llegan al cerebro. La cantidad de neurotransmisores transmitidos es proporcional a la violencia del contacto. Y a una mayor cantidad de neurotransmisores llegados al cerebro, mayor será la señal de peligro: mayor será el dolor sentido. Si consumimos alcohol, se inhibe la producción de neurotransmisores, es decir, hay menos neurotransmisores en acción y se siente menos dolor, aunque la violencia del contacto sea la misma.

Se podrían dar cientos de ejemplos de la «falsa realidad» de los sentidos. Y los filósofos, desde el siglo VI aC hasta el siglo XIX dC, conscientes de este problema, buscaban la naturaleza de la «verdadera realidad superior a los sentidos», a fin de describirla. A esta rama sobre la búsqueda de la verdad última se llama ontología. Cuando la ontología se busca alrededor del concepto de Dios, se llama teología. Sino, es metafísica.

Pero resulta que para nosotros es innacesible cualquier conocimiento fuera de lo que sea «sensible», o «sensible de ser sentido», es decir, fuera de la experiencia. En ontología solo podemos especular, y dada cualquier posible propuesta, siempre podemos cuestionar su legitimidad. Por ello Kant llegó a decir que la metafísica llevaba siglos dando vueltas sobre el mismo punto sin llegar a ninguna conclusión. Lo único que lograron es darse cuenta de la dificultad del problema, y la verdad es que se perdieron demasiados siglos valiosos para ello.

Y es que nuestro principal vicio y defecto es nuestra infinita capacidad de proponer nuevas dudas. ¿Y sí hay una realidad fuera de nuestra capacidades intelectuales?, ¿y si la realidad es un completo abstracto que interpretamos fatal?. Si proponemos culquier pregunta de ésta naturaleza «extra-física», nos damos cuenta de que no podemos ni negarla ni afirmarla. El ejemplo más paradigmático es Dios. ¿Dios existe? A no ser que él de muestras de revelación que todos podamos observar, no podemos afirmar ni desmentir su existencia.

Pero hay una solución relativamente sencilla a este problema, y los ateos ahora me entenderán muy bien: un argumento sencillo para decir que Dios no existe es el siguiente, «el hombre no es obra de Dios, es Dios quien es obra de él». Así, nos damos cuenta que el núcleo de la cuestión no son las dudas en sí, sino el hecho de haberlas planteado.

Debido a que el único concepto seguro e infalible es el de «fenómeno observable», es decir, una piedra que cae, un relámpago que clarea las nubes, o un charco de agua que hierve alrededor de un geiser, podemos conformarmos con afirmar que toda la realidad existente es la «fenoménica», y que cualquier otra cuestión «más allá de la física» no es más que un invento por culpa de nuestra infinita capacidad de hacernos preguntas. Y esta postura de dar por afirmativa a la realidad recibida por la experiencia sensible (y descrita usando el método científico) se llama positivismo, nombre que da título a esta entrada.

Leer más...

sábado, 18 de septiembre de 2010

Clasificación de los seres vivos

Muchos de nosotros tenemos en nuestras casas mascotas. Hay perros, gatos, pájaros, iguanas, tortugas, y un sin fin de animales más. También están los animales domesticados que no son mascotas: ovejas, vacas, cabras, gallos, conejos. Y también conocemos animales salvajes como leones, hienas, jirafas, elefantes y gorilas.

Pero solo he citado algunos animales clásicos, y además, conocidos en el mundo occidental. Si nos vamos a américa, nos encontramos con otros tipos de animales conocidos como las picas, llamas, zarigüeyas o coatíes. En asia tenemos musgaños, el tahr árabe, ginetas, jerbos o tejones. Y aún no hemos nombrado a ningún insecto, a ningún tipo de pez. Y fuera de los animales, no hemos hablado de plantas, ni hongos, ni tipos bacterianos. Grupos con una gran diversidad.

Y ahora abramos más nuestras mentes y olvidemosnos de los seres vivos actuales. La vida comenzó en la tierra probablemente hace más de cuatro mil millones de años, y en todo este tiempo se han sucedido en nuestro planeta un gran número de organismos vivos que dejan en ridículo la diversidad actual. Esta claro, que si alguien se dedica a estudiar a los organismos que existen y existieron en la Tierra, no se puede hablar en términos de gallos, picas, monos y demás nombres familiares y vulgares, cuyas fronteras en muchos casos están poco delimitadas.

La forma de paliar una situación tan complicada como la organización de los tipos de organismos, es definir qué vamos a entender por "tipo de organismo", es decir, cuál es la unidad mínima de información con la que vamos a tratar a la hora de clasificar seres vivos. Hablo del concepto de especie. Este término es dificil de definir, de hecho, es una cuestión abierta por más de dos siglos que aún no ha sido resuelta. Pero por ahora nos basta considerar especie con la definición común que ya todos conocemos.

Pero a las especies hay que agruparlas en categorías de algún modo, y es éste modo elegido el que delimitará la "escuela de pensamiento" en la clasificación. La ciencia de la clasificación es llamada taxonomía, y en el contexto de la biología, la taxonomía se encarga de describir a las especies, dándoles nombres científicos, estudiar su distribución, y en definitiva, caracterizar a las especies y organizarlas. Cada nivel en la clasificación se denomina taxón. En este artículo veremos los dos enfoques principales, uno basado en carácteres, y otro basado en filogenias.

Escuela fenética

La primera clasificación de los seres vivos conocida era la acuñada por Aristóteles, cuya "escuela de pensamiento", se mantuvo sin cambios hasta el fortalecimiento de las ideas filosóficas evolucionistas y su posterior introducción en el ámbito científico de mano de Charles Darwin, que fue el primero en convertir las ideas evolucionistas clásicas en una teoría científica.

En este enfoque primordial, las especies se veían como "tipos" de organismos, inmutables en el tiempo, que tenían una esencia única e intrínseca a la especie. Y así, las especies, a un muygrosso modo, se clasificaban únicamente en géneros que agrupaban a especies parecidas. Luego, Carlos Linneo, ya en el siglo XVIII, publicó un libro llamado Sistema Naturae donde acuñó nuevos términos y creó más taxones en la clasificación. Así, los géneros se agrupaban en familias, las familias en órdenes, los órdenes en clases y las clases en reinos. Con el tiempo se han creado nuevas divisiones, algunas tan importantes como filo o tribu, y otras más circustanciales como cohorte o división. Luego, se usan sub o super taxones para clasificar con mayor granularidad a grupos muy grandes. Por un ejemplo, un filo muy amplio (que contiene a un gran número de especies) se puede dividir en subfilos, o varias familias en superfamilias, dado que el órden que la contenga sea muy amplio. Así, también aparecen magórdenes, pavórdenes, superfamilias, subtribus, subespecies, infracohortes, etc, siempre dependiendo de las circunstancias del grupo biológico en particular.



Además, Linneo estableció la llamada notación binominal científica en la clasificación, que consiste en usar dos nombres para nombrar a una especie, al primer nombre es el nombre del género al que pertenece, y el segundo nombre es la denominación de la especie concreta dentro del género. Además, los nombres de las especies deben ser en latín y escribirse en cursivas, siendo la primera letra del nombre del género en mayúsculas, y el resto en minúsculas, así, la especie Homo sapiens pertenece al género Homo, y la especie inter-específica es sapiens. Y de éste modo también, un león es Panthera leo, un tigre, Panthera tigris, y una pantera, Panthera phantera, lo que significa que las tres especies pertenecen al mismo género, género Panthera. Los nombres del resto de taxones, como reinos o divisiones, no tienen por qué nombrarse en cursivas ni en mayúsculas (aunque siempre en latín), y se puede decir libremente reino animalia o clase mammalia. Esta tradición sigue siendo la estándar en la biología actual.

Esta visión original y fijista de una especie (ampliamente acorde luego con las ideas creacionistas del medievo), que podemos llamar taxonomía tradicional, es cómoda y útil para la clasificación, pero reflejaba un gran desconocimiento de la realidad biológica: variabilidad interna de cada especie, herencia con modificación, especies bacterianas, transferencia horizontal de genes, y demás mecanismos que complican la visión, clasificación e incluso definición de especie, que hoy en día ya se torna muy complicada.

En su matriz moderna, la escuela fenética es la heredera de la taxonomía tradicional. En esta primera escuela de pensamiento la forma de agrupar a las especies en grupos mayores depende de las características de la especie. Dos especies que pertenecen al mismo género, es porque comparten una características que pertenece al género. A su vez, varios géneros de una misma familia tienen en común aquella característica que define a su familia, y así paulatinamente hasta llegar al nivel de reino.

Los partidarios modernos de la escuela fenética, difieren de la taxonomía tradicional en que en la primera se usan ciertas características para definir taxones, mientras que en la taxonomía fenética se anota el número de similitudes o características compartidas, y se agrupan en taxones más cercanos aquellas especies con mayor número de similitudes, y en taxones más alejados a medida que el número de similitudes decrece; por eso a la escuela fenética se le denomina también taxonomía numérica. De esta forma, una iguana, por tener cinco dedos, se parecerá más a un humano que una serpiente, o un murciélago a un ave debido a sus alas.

En ambos casos, tanto en la escuela tradicional como en la fenética, nunca se tienen en cuenta las relaciones evolutivas entre los caracteres descritos, y se le asigna igual importancia a cada una de ellas. Los fenéticos argumentan a su favor que la taxonomía numérica es mucho más objetiva, ya que tener en cuenta las relaciones evolutivas implica interpretar éstas a partir de las características descritas, pero las relaciones evolutivas nunca se pueden inferir objetivamente a partir de ellas, y sobre todo a partir de un incompleto registro fósil. Hoy en día, esta visión está siendo abandonada, por un lado por la cada vez mejor interpretación del registro fósil, y segundo gracias a la aparición de los métodos basados en ADN, que permiten crear árboles evolutivos de forma mucho más precisa.

Escuela cladística

Hoy en día, la escuela de pensamiento más impulsada es la cladística, en contraposición a la fenética. La cladística es la escuela de clasificación que tiene en cuenta las relaciones evolutivas de los animales, y tiene como objetivo crear clados que organicen a todos los seres vivos.


Para ello, se parte de los llamados árboles filogenéticos. Un árbol filogenético es un árbol que muestra las relaciones evolutivas de un grupo de organismos, siendo su raiz el antepasado común a todos ellos, como muestra la figura anterior. Todo árbol filogenético es un clado. En la figura anterior hemos presentado el clado Hominoidea. El subárbol que excluye a orangutanes y gibones también sería un clado (pues es también un árbol filogenético). En este caso, el clado resultante es Hominidae. El árbol filogenético de la vida es, normalmente, enorme, y tiene una gran cantidad de nodos y ramas, y no todo clado dentro del árbol tiene por qué ser un taxón.

Existen varios tipos de árboles filogenéticos. Los árboles filogenéticos básicos, que solo muestran las relaciones evolutivas, se denominan cladogramas. Cuando la longitud de las ramas son proporcionales a la cantidad de cambio evolutivo, se le llama filograma. Cuando la longitud de las ramas indica la cantidad de tiempo evolutivo, se le llama cronograma. La cladística se encarga, además de nombrar y describir a las especies, y a partir de los árboles filogenéticos, nombrar como taxones a un subconjunto de clados adecuado, como muestra la siguiente imágen.



Es decir, bajo un enfoque cladístico, la taxonomía de los organismos intenta reflejar su historia evolutiva para facilitar su estudio. Así, los caballos y los murciélagos están en la clase mammalia, clado que contiene a todos los mamíferos; las aves y los cocodrilos estarían en el clado archosauria, y ambos clados, junto a la clase amphibia, pertenecen a la superclase tetrapoda, dado que un ancestro común con cuatro patas, que no era ni mamífero, ni reptil ni anfibio, evolucionó primero a anfibios, luego a reptiles por otro lado, y por último a mamíferos.

Aquí hay que hacer varias puntualizaciones, dado que la historia no acaba aquí. Hay dos escuelas en la taxonomía de las especies a partir de la historia evolutiva. Antes algunas definiciones: si un taxón contiene tanto a su antecesor común como a todos sus descendientes, el clado se llama monofilético. Si no contiene a todos sus descendientes, aunque sí a una serie de descendientes y al antepasado común de todos ellos, se le llama parafilético. Si el taxón contiene una serie de especies pero no a sus antepasados comunes, el grupo se llama polifilético. La fenética es la única escuela que permite grupos polifiléticos.

Por ejemplo, permitiendo taxones parafiléticos, se podrían clasificar a las aves como una clase propia, debido a su gran diversidad, en vez de ser un subclado del clado dinosauria. De ésta forma, elevamos la categoría de las aves para darles el puesto de importancia que se merecen, y hacemos al clado dinosauria un clado parafilético, ya que no contendría a todos sus descendientes (al sacar a las aves del clado).


Los partidarios de la cladística, como ya hemos mencionado, solo permite grupos monofiléticos, que coincide con el concepto de clado. Sin embargo, la sistemática evolutiva (otra escuela de clasificación) también permite la creación de grupos parafiléticos como taxones, es decir, ellos clasificarían a las aves en un taxón propio. El motivo es que los sistemáticos evolutivos no solo tienen en cuenta la relación de parentesco, sino que además tienen en cuenta el grado de especiación, y toman a las especies como una población de individuos, y no solo como el conjunto de características que definan a la especie. Aunque las aves desciendan de los dinosaurios, su contexto ecológico y sus hábitos de vida y sus características han cambiado tanto que poco tienen ya en común con los reptiles, y es por ello que defienden la extracción de las aves del taxón dinosauria. La sistemática evolutiva también tiene en cuenta el grado de diversificación, es decir, el tamaño del grupo, en la creación de taxones, así, grupos más grandes también tendrás más oportunidades de tener su propio taxón de un nivel superior.

Leer más...

lunes, 23 de agosto de 2010

Champú, agua, grasa y la espada anfipática

Al ducharnos, cada uno de nosotros se echa champú en la cabeza, porque su madre lo educó así. De hecho, algunos pensarán que el champú solo sirve quizás para salir del cuarto de baño oliendo a limpito, y que una ducha sin champú en el pelo tampoco será tan diferente que con el exclusivo uso del agua y una buena frotada de manos. Lo mismo podemos decir con el jabón, ¿quién no se ha lavado las manos solo con agua, pensando, "si es lo mismo, hombre"?

Pero lo cierto es que el champú y el jabón, en la relación agua - grasa, tiene una fuerte y necesaria implicación. Sucede que la grasa es insoluble en el agua, o dicho más técnicamente, es hidrofóbica (fobia al agua). Esto significa que la grasa no se disolverá efectivamente con el agua, ya que son compuestos químicos que tienden a evitarse.

Sin embargo, tanto el jabón como el champú tienen una característica esencial. Sus moléculas son anfipáticas, es decir, por una extremo son solubles en el agua (cabeza hidrófila -acepta el agua-), y por otra no (cabeza hidrófoba -odia el agua-). Y además, la hidrofilia y la lipofilia (capacidad de ser solubles con las grasas) son características opuestas. Un compuesto, si es hidrófilo (aceptan el agua) es a su vez lipófobo (odian la grasa), y viceversa, un compuesto hidrófobo (odia el agua) es a su vez siempre lipófilo (aceptan las grasas).

Por tanto, una molécula anfipática como el jabón tiene una cara que acepta el agua y repele las grasas, y otra que repele el agua y acepta las grasas. Y gracias a las moléculas anfipáticas, se pueden crear disoluciones que, sin su presencia, serían imposibles.Por ejemplo, imaginemos que echamos aceite encima del agua. Olvidemos por un momento que el agua tiene mayor densidad que el aceite. El aceite flotaría por encima del agua dado que no puede formar disoluciones con ésta, dado que el aceite es hidrófobo (odia el agua). Si nosotros aplicamos un poquito de jabón, en la frontera donde acaba el agua y empieza el aceite, ocurrirá el siguiente fenómeno químico.



Las cabezas hidrófobas (lipófilas) del jabón se anexarán a partículas de aceite, y las otras cabezas a partículas de agua, ordenándose todas éstas en forma de mini esferzas con las "cabezas de grasa" en el centro, y las cabezas hidrófilas de cara al agua, como muestra la imágen anterior. Así, las partes hidrófilas protegen a sus cobardes hidrófobos, dándoles la cara al agua. De esta forma, cada "esfera", que recibe el nombre de micela, ya sí que es soluble en el agua. La disolución final será una mezcla homogénea de líquido (agua) con partículas sólidas (micelas), que reciben el nombre de coloide.

Cuando un compuesto es anfipático (que cada cabeza odia-acepta el agua), no siempre forma micelas en presencia de agua. Depende siempre de la naturaleza del compuesto y de las condiciones externas del mismo, por ejemplo, como ocurre en las células de nuestro cuerpo, o de cualquier organismo vivo. Podemos imaginar a una célula como una pequeña esfera de agua, rodeada por una membrana. Fuera de esa membrana, existe más agua. Pero dentro de esa membrana, es decir, en la misma célula, existen más compuestos químicos que flotan sobre el medio acuoso y que son los responsables del metabolismo y la reproducción de la célula: mitocondrias, cloroplastos, núcleo celular (donde reside el ADN de la célula), etc.



Cada uno de esos compuestos químicos puede verse como otra "minicélula", con sus propios orgánulos para realizar las funciones vitales de la célula hospedadora (evolutivamente hablando, la mayoría de estos orgánulos posiblemente fueron en su origen otras células adoptadas por la célula hospedadora, que luego olvidaron sus funciones vitales y se especializaron en la función que ahora desempeñan, de hecho, todas conservan su propia molécula de ADN).

Tanto la membrana de la célula, como las membranas de cada uno de los orgánulos, forman la frontera entre el agua presente en sus dos extremos: el interno y el externo. ¿Cómo os imaginais al compuesto químico que forman éstas membranas?, por supuesto, anfipático. Las membranas que rodean a las células y a sus orgánulos internos tienen una doble capa lipídica, es decir, dos capas de grasa, pero anfipáticas. La estructura de las moléculas de cada capa es como una medusa con dos colas, donde la cabeza acepta el agua, y cada cola la repele



La primera capa de grasa tiene a sus cabezas hidrófilas mirando hacia el interior de la célula, es decir, en contacto con el medio acuoso de la célula (citosol), mientras que las dos cabezas hidrófobas apuntan al exterior. Estas cabezas están, a su vez, mirando a las cabezas hidrófobas de la segunda capa, que tienen a sus respectivas cabezas hidrófilas de cara al agua que rodea a la célula.

Y una vez visto con claridad y algunos ejemplos los conceptos relacionados con la "anfipatía", volvamos al caso del champú y el jabón. ¿Cuál es su funcionamiento?. En éste punto todos podréis ya imaginarlo. Las moléculas de jabón/champú capturan a las moléculas de grasa, y forman micelas (las miniesferitas que comentamos antes), que se disuelven en el agua. Es decir, consiguen disolver la grasa en el agua siendo ellas las intermediarias.

¿En qué se diferencian entonces?, en que el jabón tiene una mayor "agresividad" en este tipo de reacciones, es decir, el champú es más débil a la hora de disolver la grasa en el agua, y la disuelve en menor cantidad, y es por ello que el champú es más adecuado para el lavado del pelo. El pelo, para su propia protección, va generando un material grasiento que se llama sebo. Este material es necesario para la propia salud del pelo y la protección frente a agentes externos. Pero las capas de sebo, si no son retiradas paulatinamente, se van acumulando, y al acumularse se convierten en sustancias pegajosas que capturan cualquier tipo de sustancia, como la gomina, la suciedad del aire, la grasa de las manos cuando nos tocamos el pelo, etc.

El champú, al aplicarselo al pelo, retira muchas capas de grasa pero no tiene suficiente fuerza como para disolver toda la grasa presente en ella, y éste es el objetivo preciso que necesitamos: eliminar la suciedad, y no la grasa natural que el pelo necesita para su propia protección. Al disolver solo las capas más externas de sebo, sin disolver las internas, retiramos solamente las capas de sebo que contienen suciedad. Y de ahí el consejo de que, lavarse muchas veces el pelo al día, es malo, porque puedes acabar retirando toda la grasa presente en ella, y de esa forma estropear el pelo.

El jabón, sin embargo, al tener mayor fuerza para disolver la grasa en el agua, es más apropiado para lavar, por ejemplo, la ropa, y además, debido a otras propiedades químicas que el jabón posee, tiene más capacidad que el champú para penetrar dentro del tejido y disolver los restos de grasa más profundos y escondidos.
Leer más...

sábado, 21 de agosto de 2010

Origen del pronombre personal inglés, I

En mi época como estudiante de lengua inglesa, época vivida o sufrida con más pena que gloria, pero vivida al fin y al cabo, advertí la curiosidad sobre la escritura del pronombre personal, I, en inglés.

Este pronombre posee una característica bastante singular: siempre ha de escribirse en mayúsculas, sin importar el contexto de la frase, si le preceda un punto o no, tanto en textos formales como informales, sin variedades dialectales, pitos o flautas, la incidencia del cambio climático o el sexo de los ángeles: SIEMPRE va en mayúsculas. La pregunta más obvia que hay que hacerse es, ¿por qué?.

Y lo que le siguió fue una pequeña investigación. Ahora mismo en wikipedia existe una entrada acerca de dicho pronombre y parte de su historia, traducida a su vez de una entrada desde la wikipedia inglesa, pero que a "fechas" de mis excursiones por la red no venía (o no supe encontrar) referencias a esta costumbre moderna de capitalizar la i, y no fue sencillo descubrir el motivo.

Veámos. Nos situamos a mediados del siglo XI, en concreto, en el año 1066. Guillermo el conquistador se hizo rey de inglaterra, aunque no de manera pacífica, por supuesto. Guillermo era un normando, y los normandos era gentes provenientes del norte (pobladores escandinavos) que se aposentaron en la actual Normandía sobre el siglo IX bajo los permisos del rey francés Carlos III, y que dos siglos más tarde consquistaron Inglaterra (por supuesto, los normandos hablaban francés).

Por aquel entones, el pronombre personal yo, en el idioma anglosajón (inglés antiguo), se escribía como ic, pronunciado /ik/, y esta forma estaba más o menos unificada por todo el territorio inglés. Pero con la invasión normanda, el idioma entero cambió progresivamente hasta una forma llamada inglés medio. Evidentemente, el pronombre personal se encontró en medio de todo aquél revuelo.

En el sur de Inglaterra, el pronombre personal se palatizó, esto es, tomó una forma en la que, para su pronunciación, se tenía que colocar la punta de la lengua en el paladar duro. En concreto, tomó la forma ich (pronunciádlo y fijaos en dónde ponéis la lengua), y otros derivados escritos, como ych. En el norte, sin embargo, la pronunciación no cambio, y se mantuvo la forma /ik/, con sus variantes escritas ik, yk, yc, etc. Y luego siguió una suavización del vocablo, perdiéndose la consonante velar (el sonido /k/) y quedándo /i/, o su forma larga /j/, aunque pronto la primera cogió ventaja en la literatura.

Y empezaron los problemas. Resulta que, debido a que por aquel entonces no existía imprenta, la escritura de un sólo carácter podía presentar problemas de comprensión en un texto en donde la separación de palabras y la separación entre letras se confunde: una i en un texto de estas características podía bien ser la última letra de la palabra anterior, la primera letra de la palabra siguiente, o, de hecho, una palabra independiente que nombra al pronombre personal.

Así que, algunos escritores empezaron a adoptar la constumbre de escribir la i en mayúscula cuándo hiciera referencia al pronombre. Y esto ocurrió sobre 1250 en el norte de inglaterra, aunque también pervivió la forma /ik/ hasta aproximadamente el año 1400.

A su vez, el sur de inglaterra fue siendo progresivamente absorvido por los cambios lingüisticos de este pronombre, aunque sus viejas formas ich estuvieron merodeando por el sur de la isla hasta aproximadamente el año 1700, fecha en la que nuestra I se hizo predominante y única en todo el territorio inglés.
Leer más...

jueves, 12 de agosto de 2010

Vinay Deolalikar y las clases de complejidad P y NP

Vamos a hablar de uno de los grandes problemas de la matemática y de la computación actual. Los «verdaderos» conceptos que entran en juego aquí son, en general, bastante técnicos, pero yo los ignoraré completamente para explicar para el amplio público de qué va este problema y qué es lo que Deolalikar parece haber resuelto.

Imaginaos que estamos trabajando en un hospital, y tenemos un gran catálogo desordenado de historiales de pacientes. Y nos piden que le demos el historial de un paciente concreto. Una forma muy sencilla que se nos ocurriría a cualquiera es buscar uno a uno, hasta encontrar el expediente pedido. En el peor caso, el paciente estará el último del catálogo. Por tanto, en el peor caso, habremos buscado en tantos expedientes como pacientes registrados existan en el hospital. Por ejemplo, como muestra la siguiente gráfica (de 1 a 1000 pacientes), si existen 100 pacientes en el hospital, tendremos que buscar sobre 100 personas, donde la persona 100 será nuestro particular enfermo. Si el hospital tiene 550 pacientes, pues 550 pasos, y así, tantos pasos como pacientes tenga nuestro hipotético hospital. Evidentemente, si tu paciente está entre los primeros durarás mucho menos, pero si tu catálogo está desordenado no puedes predecir dónde estará el siguiente que tengas que buscar.



Cuando estemos aburridos de enfrentarnos al mismo trajín de buscar decenas de clientes cada día con este torpe pero único método posible, se nos puede ocurrir ordenar a todos los pacientes, ya que, con los pacientes ordenados, se podría tardar en encontrar a cualquier paciente particular en muy poquitos pasos. Ahora, ¡ordénalos! Con el mejor método conocido para ordenar pacientes, a medida que aumenta el tamaño del problema, el número de pasos necesarios para hacerlo crece de la forma que expresa la siguiente gráfica (en color verde):



En esta gráfica hemos acompañado la gráfica anterior (color rojo), para poder compararlos. Vemos como, para 500 pacientes, frente a los 500 pasos necesarios para la búsqueda, la ordenación «cuesta» unos 3.000 (6 veces más). Y para 1.000 pacientes, hacen falta unos 7.000 pasos para ordenarlos (7 veces más). Si fueran un gran número de pacientes, pongamos 10.000, harían falta unos 40.000 pasos, y no creo que nadie tenga ganas de perder varias mañanas de su tiempo en hacerlo. Si el número de pacientes fuera 100.000, necesitarías perder semanas o incluso meses. Pero aún así, un buen ordenador lo haría en menos de un segundo (si los historiales estuvieran digitalizados). En resumen, lo que antes era solamente buscar en un conjunto de datos desordenado, ahora queremos ordenar dicho historial, para que la búsqueda sea mucho (mucho) más rápida. El inconveniente es que la ordenación es mucho más costosa que la búsqueda, y la ventaja es que ordenar un historial solamente se hace una vez, reduciendo considerablemente, a partir de entonces, el tiempo necesario cada vez que tengas que volver a buscar (y seguro que esto ha de hacerse muchas más veces).

A este concepto acerca del «número de pasos» de un método (con muchas precisiones más en las que no entraremos) se le conoce como "órden asintótico de un algoritmo" (un algoritmo es más o menos lo que todos entendemos como método). De los distintos métodos que puedan existir para resolver un mismo problema, los informáticos intentan buscar aquel que necesite un número menor de pasos para resolverlo. Así que la «dificultad» de un problema, depende ampliamente de los métodos encontrados para resolverlo. Si se encuentra un buen método, que lo resuelva en poquitos pasos, podremos decir que el problema es «sencillo» de resolver.

Imaginemos ahora otro problema, mucho más complejo (incluso para un ordenador), consistente en un trabajador, un viajero, o cualquier persona que necesite ir a una serie de ciudades (empezando por una en concreto, y terminando por otra en concreto), pero queriendo minimizar sus gastos. Lo que tiene que hacer este hombre es buscar, de entre todos los caminos y carreteras posibles, el camino cuya distancia en kilómetros sea menor, y evidentemente, pasando por todas las ciudades que él desea visitar (y sin pasar dos veces por la misma).



En la imágen anterior se ve una representación de un posible conjunto de ciudades, con todas las carreteras posibles existentes. En la imágen que viene a continuación, se ve la gráfica del número de pasos necesarios para resolver el problema, a medida que aumenta su tamaño (número de ciudades), junto a las dos gráficas anteriores, para observar las diferencias.



Vemos como en este último caso (gráfica azul), las dos gráficas anteriores quedan completamente absorbidas, debido al alto coste asociado con éste método de búsqueda, y eso que solo hemos puesto la gráfica hasta problemas de tamaño 10. Si pusiéramos gráficas hasta problemas de tamaño 1.000, como en las gráficas anteriores, las gráficas roja y verde no se verían en el gráfico.

El por qué de este coste tan alto es debido a un fenómeno llamado "explosión combinatoria". Con el solo hecho de añadir una ciudad más (imaginando que existe una carretera entre cualquier par de ciudades), el número de caminos posibles se dispara. Y al poner otro más, el número de caminos nuevos es incluso mayor que el incremento anterior. Por ejemplo, con cinco ciudades hay 6 caminos posibles. Pero con siete solo hay 120 cuando con ocho hay 720. Con diez, más de 40.000 caminos. Con 20 caminos, para encontrar el camino más corto entre más de 6.000 billones (con b) de caminos hace falta más de 70.000 años de cómputo. Con 100 ciudades (que no son tantas), el número de años necesarios sencillamente no cabe en la calculadora (del portátil) que utilizo para mis cálculos.

Aunque este problema parezca infantil, ejemplifica muy bien a todos los problemas que sufren dicha explosión combinatoria. Este tipo de problemas se usan, por ejemplo, en seguridad informática. Para cifrar mensajes se acuden a situaciones donde un intruso que desee descifrarlos necesite realizar una búsqueda que duraría millones de años.

La clave está en la forma en que crece el número de pasos necesarios para resolver el problema. A los que crecen de una forma tratable (como los dos métodos enunciados al principio, el de la búsqueda y ordenación de clientes de un hospital), se les llama (muy -muy muy- grosso modo) problemas P. Los problemas intratables (como el problema del viajero, que presentan explosión combinatoria) se denominan NP. Existen muchas más clases de complejidad, así como también existen muchos tipos distintos de problemas, cada uno con sus propias limitaciones. Aquí solo hemos expresado las limitaciones en tiempo, pero también hay problemas que sufren los mismos problemas de espacio (cantidad de memoria necesaria para guardar los datos requeridos en el cálculo de la solución del problema).

La cuestión es si un problema NP es «esencialmente NP», o es que todavía no hemos encontrado un método tratable para resolverlo. La opinión generalizada es que los problemas NP, son «esencialmente intratables», es decir, que los métodos para resolver los problemas NP se comportan como el problema del viajero, y es imposible que exista un método que no lo haga de esta forma.

Este problema es uno de los siete problemas del milenio, propuestos por el instituo Clay de Matemáticas, con un premio de 1 millón de dolares a quién lo resuelva, y de ahí la gran cantidad de intentos por resolverlos, algunos que rozan el fraude. Pero Vinay Deolalikar cree haber resuelto el problema, o al menos, su investigación y su trabajo parece bastante serio, y llega a la conclusión que todos esperaban: los problemas NP, son efectivamente, problemas NP.

La noticia ha sido filtrada por Internet. Vinay Deolalikar es un trabajador de la empresa HP que dedicó sus tiempos libres a dedicarse al estudio e investigación sobre éste problema, y que duró varios años en preparar ésta demostración , y que, por supuesto, mantuvo en secreto. Ha hechado mano de muchos elementos de varias ramas de la matemática y de algunos resultados de la física estadística para construir esta demostración, que, junto a un resumen de la historia del problema y de su propia demostración, tiene una longitud total de unas 100 páginas.

Vinay Deolalikar aún no había publicado su demostración formalmente, pero un colega al que Deolalikar envió un correo junto con su demostración, lo publicó en su propio blog, y luego se terminó de expandir por Internet. Debido a que la demostración de Vinay aún no ha sido contrastada ni verificada por la comunidad de matemáticos, no tenemos garantías para afirmar que esta demostración constituya una demostración definitiva o fiable, y tampoco podemos, por tanto, afirmar que los problemas NP sean esencialmente intratables, pero varios expertos ya han defendido la seriedad del trabajo. También se comenta que, debido a que ésta demostración usa resultados que pertenecen al campo de la física y no de la matemática pura, quizás no supere el exámen de rigor exigido para que la prueba sea anunciada como legítima y de total garantía.

NOTA (17/02/2014): Debido a un amable comentario de un lector, exigiendo una corrección ortográfica (muchas gracias por el aviso), aprovecho para decir que, a los pocos meses de la publicación, expertos en el campo han rechazado la demostración por contener algunos fallos importantes, siendo la demostración, por tanto, falsa; incluso se llegó a crear un wiki para comentar y analizar la demostración. Aunque se afirmó que Vinay volvió a trabajar en la demostración para pulirla y perfeccionarla, los expertos no creen que el camino seguido en la demotración llegue a ningún resultado interesante.
Leer más...

martes, 10 de agosto de 2010

La navaja de Ockham

El renacimiento fue una época de resurrección cultural respecto a la barbarie medieval que lo precedía. Lástima que los propios renacentistas se sintieran tan orgullosos de su propio éxito y revitalización, que ignoraron y fomentaron el olvido de la producción científica del medievo, tanto que la llamada "Revolución del siglo XII" no fue conocida y ampliamente estudiada hasta comienzos del siglo XX. La imágen de retroceso científico y cultural que se ofrece hoy a los niños en el colegio, es producto y a su vez herencia del egocentrismo de los renacentistas.

La revolución del siglo XII es el preludio del renacimiento, desgraciadamente interrumpido por la llegada de la peste negra, único suceso histórico de relieve que separó ambas revoluciones. Tanto la nueva filosofía de la ciencia como los éxitos astronómicos que estarían por llegar, sobre todo de manos de Galileo, forjó sus inicios en las mentes de los pensadores del siglo XII.

Guillermo de Ockham fue uno de esos eruditos y pensadores fruto de dicho primer resurgir cultural. Tanto que da nombre a un concepto de plena actualidad en el contexto científico del siglo XXI, es decir, 9 siglos después.

Este concepto, la llamada Navaja de Ockham, también llamado principio de parsimonia, tiene un enunciado bastante simple: antes dos explicaciones para un mismo fenómeno, elige el más simple.

Por ejemplo, intentemos explicar el motivo de la diversidad biología, es decir, el motivo de por qué existen tantas especies, y de por qué cada una es como es. Tenemos dos motivos:
  1. Existe un proceso de herencia con modificación, gracias a un producto químico llamado ADN, organizado en cromosomas que contienen ciertas secuencias que forjan las características de los individuos. Gracias a esa herencia con modificación (mutaciones y recombinación) se crean nuevas secuencias que forjarán características nuevas, y que cambian su porcentaje de ocurrencias gracias a la selección natural, el flujo genético y la deriva genética. Las características que no fomenten el éxito reproductivo, que dependerán de las condiciones ambientales (o incluso sociales), irán desapareciendo de la población, y las distintas especies son productos de una evolución determinada por unas condiciones ambientales únicas.
  2. Dios creó a todas las criaturas.
¿Qué proposición es más sencilla? Pues no, no es la segunda, y no precisamente porque me dé a mí la gana ignorar el principio de la navaja de Ockham, ni desmentirla para defender una postura atea o mecaniscista, sino porque la navaja de Ockham tiene unas implicaciones más profundas que lo que, a priori, podría indica su propio enunciado.

Imagina que preferimos elegir el segundo enunciado, y descartar complemente al primero. Hasta que no sepamos que ese segundo enunciado es mentira, o es contradictorio, o sencillamente no funciona, no podemos eliminarlo para empezar a probar con otra alternativa, de nuevo, las más simple de las que se propongan.

Ahora, ¿de qué forma efectúamos o diseñamos un experimento para saber si el segundo enunciado es verdad o mentira?, ¿cómo podemos ponerlo a prueba?, dicho de otra forma, ¿quién nos ofrece garantías de que, empezando por el segundo enunciado, no nos quedemos atrapado en el abismo de la impotencia intelectiva?. La respuesta a la primera pregunta es sencilla: de ninguna. Para la segunda también: es imposible. Y para la tercera: nadie.

Y es aquí donde hay que aclarar las diferencias: el segundo enunciado es más sencillo porque su explicación se defiende con pocos conceptos, mientras que el primero es más sencillo porque la explicación tiene conceptos más sencillos de defender. Es decir, la segunda proposición hace uso de un concepto que tiene muchas más implicaciones a tratar, como la existencia de Dios. También, como consecuencia principal, y de vital importancia para la ciencia, es que el primero es "metodológicamente" más sencillo, que a su vez permite que la ciencia sea más dinámica y más flexible.

Intentar poner en tela de juicio hipótesis más sencillas permite descartarlas con más facilidad si ofrece resultados poco satisfactorios, y a su vez otorga mayor seguridad cuando ves que algo tan sencillo no ha podido ser desmentido. Esto último es una fuerte muestra de la garantía de su éxito. Aunque eso no significa que la respuesta más simple (en el sentido que acabamos de esbozar), sea la correcta, pero sí que es el mejor punto de partida que podemos tener.

Y es ésta la verdadera esencia del significado y la importancia de sus consecuencias de la navaja de Ockham, y el motivo por el que tal concepto añejo se hace necesaria y de plena actualidad.

De hecho, el argumento de la navaja de Ockham tiene como consecuencia que si un concepto no recae dentro del mundo de la experimentación, ni siquiera se considere un argumento científico, y por ello la presencia de Dios en la ciencia debería estar totalmente prohibida (un argumento es científico cuando es falsable, es decir, que puede ser sujeto de pruebas, aunque para esto también existen distintas opiniones). Esta restricción, posiblemente dogmática, entre otras cosas evita que la ciencia no pueda provocar su propio ocaso.

PD: Quizás a los estudiantes de estadística, este concepto les ayude a entender el sentido de la hipótesis nula en el contexto del contraste de hipótesis.
Leer más...

lunes, 9 de agosto de 2010

Las musas y los primeros filósofos (1)

No sé la imágen que se tendrá, en general, de los filósofos, qué representan para el lector, o a qué creéis que se dedican. Y ésta última, además, es una pregunta que suele hacerse a un estudiante que, tras preguntarle, afirma que está estudiando filosofía. Pero no quiero hablaros del quehacer filosófico de un "amante de la sabiduría" actual. Normalmente (aunque con excepciones) me interesa más el pasado que el presente, así que no vamos a discutir sobre el filósofo de hoy, sino del de ayer.

La filosofía se ha caracterizado por llegar muy alto en sus reflexiones, indagando entre cuestiones últimas y realidades íntimas de la naturaleza, muy alejadas casi siempre de la realidad inmediata del agricultor de campo y del artesano de barrio. Esta última es la realidad que imperaba en las mentes de cualquier habitante de pueblo o ciudad del quinto, del cuarto o del primer milenio antes de Cristo. Y también del noveno u octavo siglo.

Un ejemplo clásico, para comprender el "nivel de abstracción" de estas gentes, es el trato recibido por un concepto tan vulgar como "círculo" en el antiguo egipto. Un "círculo", si nos paramos a pensar, juega entre la obviedad y el desafío al intelecto. Es una figura perfecta "que no existe" en la naturaleza y que usamos para ejemplificar a muchos elementos de ella, con mayor o menor grado de paralelismo.

Pero esta visión un antiguo egipcio no la tenía. Un antiguo egipcio hablaba de ruedas o de la boca de un pozo. Y cuándo hacía matemáticas, sabía que ciertos principios podían aplicarse por igual a una rueda, o a la boca de un pozo. Pero su sabiduría era muy práctica, y su matemática era directa: sabía que los principios eran aplicables por igual a la rueda y al pozo porque funcionaban, por pura experiencia, pero no porque reflexionara sobre qué los hacía tan parecidos y por qué.



Fue un filósofo el que empezó a pensar de otra forma. Tales de Mileto es el primer filósofo según la tradición clásica del que se tenga constancia, y él introdujo en el mundo un concepto tan primitivo para nosotros como el de "círculo", y reflexionó el por qué esas reglas egipcias funcionaban tan bien: porque dichas "reglas" eran propias de esa figura, y tanto la boca del pozo como la rueda se parecían a él. Parecerá una tontería, pero es un salto cualitativo e importante en el pensamiento, y díficil de alcanzar sin algún tipo de impulso.

Es una nueva forma de pensar que tuvo que ser motivada por algún tipo de milagro. Algún empujón que hiciera a Tales de Mileto a pensar de esa nueva forma. Y a éste milagro se le denomina comúnmente "el milagro Griego". Y la verdad es que los motivos son bien complicados, y todavía no se conocen bien, aunque se pueden vaticinar las causas.



Mileto, en tiempos de Tales (siglo VI-VII aC), era una colonia griega situada al oeste de Turquía, en los líndes de los dominios griegos. Y ya sabeis lo que pasa en tales situaciones: comercio, intercambio cultural, leyendas traidas de otras tierras, etc. Y los habitantes de dichas ciudades se enfrentan a varias realidades sociales y culturales a la vez. Quizás es éste contexto de intercambio el que propició a Tales de Mileto esa capacidad de mirada "abstracta", de contrastación y síntesis y desde "las alturas" de todo lo que le rodeaba, capacidad que no compartiría con individuos de las capitales de estado, que vivían en su propia "caja tonta", debido a su contexto cultural focalizado.

Tales de Mileto parece ser que provenía de una familia adinerada de comerciantes que fue educado en Egipto, que quizás fuera la tierra con el más alto galardón en esa sabiduría "práctica" de toda la antiguedad clásica, y su educación en Egipto posiblemente fuera el último eslabón en la cadena de causas que llevarían a Tales a ser la persona que logró llegar a ser.

¿Y ésto es todo? No señores, la mentalidad de Tales y los filósofos que lo sucedieron es mucho más profunda que la idea del círculo y algunas propiedades geométricas más. La filosofía, por supuesto, comenzó siendo algo mucho más que eso.

Continuará ...
Leer más...

domingo, 8 de agosto de 2010

El cráneo negro

De entre todas mis aficiones, quizás la prehistoria sea la que más me tira, pero la prehistoria más antigua, la que se diluye y confunde con la más pura paleontología. Hablo de paleoantropología. La paleoantropología es la ciencia (logía -conocimiento-) que estudia al hombre (antropo) antiguo (paleo). Dicho de otra forma, si la paleontología estudia al pasado biológico en base a fósiles de animales, la paleoantropología es una rama de paleontología que hace lo propio pero dedicada al estudio de la evolución humana.


Y ésto se ha reflejado en la imágen adjunta al título del blog. Si miráis justito arriba veréis un cráneo de color negro, que parece estar formado por dos materiales distintos. Las secciones más claras del cráneo es el verdadero hueso fósil, que se encuentra tan ennegrecido por las altas cantidades de manganeso que contenía el lugar donde el cráneo fue envuelto, y por eso a ese cráneo se le llama el cráneo negro ("Black skull"), aunque su nombre correcto es KNM-WT 1700 (es decir, la pieza 1700, encontrada en el West Turkana -Turkana es un lago de Kenya-, y que pertenece a la colección del Kenya National Museum). El resto del cráneo es una reconstrucción (es muy poco común en paleontología encontrar piezas fósiles completas). Aquí se muestra una réplica del cráneo, presente en el museo de historia natural de Londres.




El cráneo negro pertenece a un pariente más o menos cercano (podríamos llamar primo lejano) de nuestra especie. Desde hace unos 4 millones de años, hasta hace unos 2.5 millones de años, no existían antepasados nuestros fuera de África, todos eran africanos, y todos pertenecían (que se conozcan) al género Australopithecus.

Pero hace 2.5 millones de años hubo un cambio climático global que, por supuesto, afectó a África. Este cambio climático fue el que dió origen a las glaciaciones que tantas veces se ven en la tele, en las películas de dibujitos animados como Ice Age, y en cualquier documental que se precie sobre la evolución humana. Se han convertido en un tópico de la evolución humana, la mayoría de las veces mal entendido.

Este nuevo ciclo glaciar fue motivado posiblemente por muchas causas, aunque todavía no se tienen claros sus motivos exáctos. En África la extensión selvática se redujo, y cada vez mas, tanto en el norte como en el este de África, los espacios verdes cada vez eran más abiertos, cada vez eran más sabana y no tanto selva (aunque este proceso fue una constante desde hace casi 6 millones de años, solo que ahora su ritmo era mas acusado). Los australopitecinos que vivían en estos parajes evolucionaron a nuevas formas que se adaptaban mejor a estos nuevos contextos ecológicos, y hubo dos formas de adaptación: unos se mantuvieron en la misma linea, y fueron progresivamente tomando frutos más secos y vegetales más duros, y otros fueron haciéndose omnívoros, es decir, complementaban su dieta vegetariana y frugívora (alimentación a base de frutas), con el consumo de carne, en concreto, con el carroñeo.

La primera de las dos "ramas" concluyó en el género Paranthropus, al que pertenece nuestro cráneo negro. La segunda rama concluyó en el género Homo, al que pertenece nuestra especie, Homo sapiens.




Y en este cráneo se reflejan muchas de las características adaptativas de éstos nuevos hábitos alimenticios de los parántropos, aunque de éstas características hablaremos otro día. Ahora vamos a seguir hablando de especies.

La primera especie de parántropo es Paranthropus aethiopicus, y el cráneo negro es, posiblemente, el mejor resto que se tiene de ésta especie. Todos los restos conocidos de éste parántropo residen en Kenia. Existen dos especies de parántropos más, la primera es el Paranthropus boisei, que también apareció en África oriental. La segunda es Paranthropus robustus, antiguos habitantes de sudáfrica. Posiblemente, estas dos últimas especies tengan como antepasado común al parántropo etíope. La foto adjuntada algo más arriba es una reconstrucción típica de un Paranthropus boisei.
Leer más...

sábado, 7 de agosto de 2010

Murcielagos gigantes y vampiros

Los murciélagos son animales bastante curiosos. El nombre científico dado a todos los murciélagos es Chiroptera, en concreto es un órden, órden Chiroptera, y este órden biológico contiene tantas especies que representan al 20% de las especies mamíferas vivas conocidas, lo que lo convierte en el segundo grupo animal (detrás de los roedores) que cuentan con un mayor número de especies distintas (no hay que confundir un mayor número de especies distintas, que un mayor número de individuos distintos).





El órden Chiroptera es tan diverso porque se han adaptado a casi todos los nichos ecológicos existentes, es decir, están dispersos por todo el globo, salvo en los polos, los océanos, y las montañas más altas. El mamífero más pequeño que existe en la actualidad, es una especie de murciélago, en concreto, Craseonycteris thonglongyai. Solo existen 3 grupos animales vertebrados que tengan alas: las aves, los existintos pterosaurios, y los murciélagos. Además, solo existen 2 grupos de animales que usen la ecolocación: los murciélagos y los cetáceos (en concreto, los delfines y el cachalote). Algunos murciélagos tienen capacidad de orientarse detectándo el campo magnético terrestre. Una especie, Anoura fistulata, es la especie animal con la lengua más larga respecto al cuerpo. Otros son capaces de volar a ras del agua, capturar agua con la piel de sus alas, y una vez en tierra lamerse el agua plegada al pecho. Vemos como los murciélagos son un grupo animal lleno de particularidades poco comunes.

Para el que no lo sepa, la ecolocación es la emisión de sonidos (infrasonidos, es decir, sonidos de frecuencias altas, que los humanos no son capaces de oir), con el fin de captar su eco, es decir, el rebote de las ondas sonoras en los objetos del camino. Si una onda rebotada llega antes al individuo que emitió el sonido, significa que el objeto con el que chocó la onda está más cerca que el resto de objetos. Con distintas emisiones desde leves cambios de ángulo, pueden localizar al posición exácta de los individuos del camino. Con este eco, el animal consige un buen mapa de los objetos que tiene delante, tanto elementos a esquivar como presas a cazar.




Pero no todos los murciélagos usan la ecolocación. También se piensa que los murciélagos son ciegos, y esto tampoco es cierto. Solo existen algunos murciélagos que son completamente ciegos. Los megaquirópteros (ahora veremos qué son) no usan la ecolocación y tienen una buena vista, de hecho, ven en color. El resto usan su capacidad visual para ayudarse en su orientación, dado que el alcance de la ecolocación es relativamente limitado.


El murciélago gigante


Las especies del órden chiroptera se organizan en dos subórdenes:
  • Microchiroptera
  • Megachiroptera
Los prefijos micro y mega hacen referencia al tamaño de los individuos, aunque los megaquirópteros mas pequeños, son mas chicos que los microquirópteros mas grandes. El lector podrá concluir, sin embargo, que el murciélago y mamífero más pequeño que comentamos antes es un microquiróptero.
En concreto, existe un megaquiróptero que hace un completo honor a dicho prefijo mega. Hablamos de la especie Acerodon jubatus, que llega a medir 1.5 metros de longitud (el cuerpo). Viven en filipinas, y se alimentan de frutas, es decir, son frugívoros, al igual que el resto de los megaquirópteros.




Estos murciélagos comen sobre todo higos, y por ello sus nichos ecológicos se encuentran cerca de los ríos, dado que es ahí es donde están los higos que usan para alimentarse.


A los macroquirópteros, en general, se les llama zorros voladores, por su similitud con la cara de los zorros. Si observamos en la foto adjunta podemos ver como el zorro volador filipino (así es como se conoce informalmente a nuestro particular murciélago gigante), por su hocico puntiagudo y sus orejas levantadas, tiene un evidente parecido.

Lamentablemente, al igual que muchísimos tipos de murciélagos, Acerodon jubatus es una especie actualmente en serio peligro de extinción.


Vampiros


Dentro de microquiróptera existe un singular grupo de especies de murciélagos que se alimentan de sangre. Son la subfamilia Desmodontinae. Existen solo tres especies de "vampiros", que se extienden por sudamérica y méxico. Estos vampiros son unos auténticos cazadores que poseen unos receptores de calor para percibir las zonas más "sangrientas" de sus víctimas, así como las zonas con sangre más cercana a la piel (más cerca de la superficie del cuerpo). Al morder a la presa, abren la carne y se la toman a lenguatadas.

Si la piel posee pelo, usan sus dientes como la navaja de un barbero para afeitar la piel, aunque prefieren atacar en zonas sin pelo. Sus dientes no poseen esmalte, para que estén siempre afilados (normalmente las capas de esmalte se van desgastando con el uso -y las capas de esmalte presentes y ausentes muchas veces se usan para calcular la edad de individuos fósiles-). La saliva de los murciélagos contienen ciertos productos químicos que afectan a la zona de la mordedura para evitar su coagulación y fomentar su continuo desangrado. Además, son animales bastante sociales. Debido a que un murciélago se puede llevar hasta dos días sin comer, a veces guardan sangre y la comparten con otros individuos, que les devolverán el favor; y si unas crias de vampiro se quedan sin madre, serán adoptados por otras hembras de su misma familia.

Quizás otro día hablemos de la evolución de los murciélagos, aunque este tema es bastante controvertido debido a la escasez del registro fósil.
Leer más...

Presentación

Es posible que a fecha de la publicación de esta primera entrada, no sea leída por nadie, aunque espero que en un futuro este blog sí que sea seguido por un número competente de personas.

Por aquellas fechas, supongo que nadie se interesará ya por esta presentación. Pero una presentación es como un protocolo social, no sabes como empezar si no te presentas. Así que, aún bajo la posible y no descartable inutilidad de esta entrada, le daré forma sí o sí.


El propósito de este blog no es más que una recopilación resumida de todas aquellas peripecias investigativas que ocupan mi tiempo libre (espacio ocioso diario que varía durante el transcurso del año). Me definen una gran amalgama de intereses, que viajan desde la prehistoria a las ciencias de la computación, o de la etimología a la tafonomía. También me gustan cosas curiosas sin importancia, como el origen de los refranes o las frases hechas. Todo esto se verá reflejado en este blog, que quizás a sus seguidores no ayuden a aprobar ningún exámen (o si), pero si que se verán enriquecidos de muchas otras formas.

Se acepta, y de hecho se exige, la participación y la discusión; eso sí, solo la saludable, respetuosa y enriquecedora. La destructiva no sirve para absolutamente nada.

Saludos y bienvenidos,
Peregring-lk
Leer más...