La Verdad
img
SOLUCIÓN AL 21/10/2017 CRUZ DE MALTA
img
Alberto Requena | 07-03-2018 | 01:02| 0
cruz-de-malta

 

 

cruz-de-malta-respuestas

LA CRUZ DE MALTA

La Cruz de Malta (también llamada de San Juan) tiene ocho puntas, es octógona, usada desde el siglo XII por los caballeros hospitalarios o de la Orden de San Juan de Jerusalén, que se llamó de Caballeros de Malta desde que el emperador Carlos V le otorgó como feudo la Isla de Malta. Originalmente era una cruz ensanchada y cada brazo estaba hendido por una escotadura terminando en dos puntas. Acabó con los brazos tomando forma de uves unidas por los vértices. Las ocho puntas simbolizan las ocho bienaventuranzas: 1) satisfacción espiritual, 2) sencillez, 3) humildad, 4) llorar faltas y pecados, 5) amar la justicia, 6) ser misericordioso, 7) ser limpio y sincero de corazón y pensamiento, y 8) soportar las aflicciones y persecuciones por la justicia. Los caballeros la llevaban en el pectoral, su color era blanco, en señal de pureza y con variaciones las han adoptado numerosas órdenes caballerescas y de distinción. La flor Cruz de Malta (Silene Chalcedonica) tiene pétalos con la forma de la Cruz de Malta.

El diseño de la Cruz de Malta tuvo otra utilidad, configurando un dispositivo denominado, también, Rueda de Ginebra que transforma una rotación continua en un movimiento también de rotación pero intermitente, mediante una pieza que tiene la forma de esta cruz. Una rueda motriz circular tiene un pivote cerca del borde que se introduce en la hendidura de un brazo de una cruz de Malta y la hace girar hasta que sale del mismo. De esta forma el primer disco tiene movimiento continuo, pero la Cruz de Malta avanza por cada vuelta de aquel, el giro de uno de sus cuatro grandes brazos. La rueda motriz tiene una parte circular que se acopla a la forma de la Cruz de Malta entre los brazos y que mantiene a ésta última bloqueada mientras completa la primera el giro. Así la rueda conducida (cruz de Malta) avanza un paso de 90º por cada giro de la rueda motriz. Su aplicación más genuina es en los proyectores de cine.

El astrónomo francés, de origen noruego, Janssen descubrió el Helio en 1868, al identificar una línea a 587.49 nanometros observando el espectro de la cromosfera solar e ideó un sistema para poder observar el Sol, aun cuando no hubiera eclipse. El hecho de que hasta esa fecha no se hubiera encontrado en el espacio ningún elemento que no se hubiera descubierto previamente en la Tierra, motivó que fuera objeto de mofas y ridiculizado. En 1874 utilizó la cruz de malta para construir un revólver fotográfico. Al adaptarlo a dispositivos que empleaban una banda flexible continua acabó incorporando un rodillo dentado que arrastraba la película introduciendo los dientes en los agujeros practicados en la cinta. Tiempo después lo incorporó el francés Marcy en su cronógrafo de película, aunque externamente no lo parecía. El uso que le dio Janssen y el de Marcy eran realmente distintos. Mientras que Janssen, que era astrónomo y su objetivo consistía en capturar fotogramas a largos intervalos, Marcy pretendía producir movimientos rápidos, pasando un número de fotogramas, no inferior a 12 por segundo, como reveló en su obra publicada en 1885 titulada “Developpment de la méthode graphique par l´emploi de la photographie”. Pretendía construir un aparato con forma de fusil que permitiría seguir a un pájaro en vuelo, mientras una placa giratoria registraba las imágenes de la secuencia de posiciones de las alas.
En los proyectores de cine recientes, la película avanza fotograma a fotograma y permanece ante la lente 1/24 de segundo. Es un movimiento intermitente que utiliza la Cruz de Malta. Hoy día hay motores paso a paso que hacen esto controlado electrónicamente. Se usó en 1896 Edison lanzó su kinetoscopio por todo el mundo. Se reservó el tomavistas. Los hermanos Lumiére identificaron que el kinetoscopio, que movía de forma continua la película, no era igual que el tomavistas que Edison mantenía en secreto que funcionaba de forma discreta. Los hermanos Pankow en Berlín hablaban de lo mismo. Los hermanos Skladanowsky también iban en la misma dirección. Muchos estaban en lo mismo. Francia reclamó ante el mundo entero la invención del cinematógrafo e instaló a los Lumiére en el cielo de los dioses. Muchos otros habían recorrido el mismo camino y permanecen en el anonimato, o casi. Así suceden las cosas cuando hay países que quieren ser protagonistas de la Ciencia y Tecnología. Los investigadores de otros lugares, tienen peor suerte.

Ver Post >
SOLUCIÓN AL 7/10/2017 VELOCES PELOTAS
img
Alberto Requena | 07-03-2018 | 00:48| 0
veloces-pelotas veloces-pelotas_respuestas

VELOCES PELOTAS

Hay muchos deportes en los que se juega con una pelota o bola. En algunos se impulsa la bola o pelota con la mano, en otros con el pie y en algunos con ambas extremidades. Nada menos que trece de ellos tienen categoría olímpica: Badminton, baloncesto, balonmano, balonvolea y balonvolea de playa, fútbol, golf, hockey, hockey sobre hielo, ping-pong, rugby, tenis y waterpolo. Las diferencias sustanciales entre estos deportes las marcan la forma de impulsar la bola o pelota (mano o pie), las características de la bola: peso forma y tamaño, las características del campo de juego, especialmente el tamaño y el número de jugadores que intervienen.

Las velocidades características de las bolas o pelotas en los distintos deportes, varían desde los más lentos, que corresponden a aquellos deportes en el que la pelota se lanza con la mano, como balonmano o baloncesto caracterizados por velocidades en torno a los 15 metros por segundo. Cuando interviene el brazo, como es el caso del ping-pong, la velocidad se duplica a unos 32 metros por segundo y cuando se golpea, como en el caso del balonvolea, un poco más, como 35-37 metros por segundo. Si se emplea el brazo extendido mediante algún elemento, como el croquet en que se alcanzan velocidades de 45 metros por segundo. En hockey se alcanzan más de 50 metros por segundo y en beisbol (no olímpico, sino de exhibición, aunque en 2020 en Tokio será olímpico) hasta unos 55 metros por segundo. Recordemos que 50 metros por segundo equivale a 180 kilómetros por hora. Impulsando con el pie, como el caso del fútbol se alcanzan en torn a 65 metros por segundo. Cuando se impulsa con un brazo extendido con una raqueta, como en tenis, se logran unos 75 metros por segundo ( más de 250 kilómetros por hora). Cuando la pelota se envuelve en un recipiente y se impulsa con el brazo extendido, como en cesta punta, se logran hasta unos 85 metros por segundo, que llegan a ser hasta 8unos 90 metros por segundo y, finalmente llega a ser de 135 metros por segundo, próximo a los 500 kilómetros por hora) en el caso del badmington, lo que es una auténtica exageración.

Cohen y Canet han estudiado experimentalmente, mediante cronofotografía de alta frecuencia (disparos a intervalos entre 5 milisegundos y 40 milisegundos), la física del proceso, que nos dice que la velocidad inicial de la bola, es coincidente con la del extremo del elemento que la lanza: mano, palo, raqueta, etc. Justamente en el punto en que comienza la bola a describir la trayectoria, las velocidades del impulsor y de la bola son iguales. La cosa cambia cuando se trata de lanzar la bola mediante impacto Entonces por ejemplo en tenis, besibol o golf, la velocidad de la bola llega a duplicar la del elemento que la lanza por impacto. La física nos dice aquí que la relación de velocidades entre elemento lanzador y la bola es igual a la relación entre los momentos, debido a la ley de conservación de este y esta relación es la que vale justamente 2, para una bola elástica ligera idealmente y disminuye debido a la energía que se disipa y cuando la bola ya no es ligera.

Cuando se lanza o golpea la bola se impulsa con el brazo, la velocidad es la velocidad angular del mismo por la longitud. Si queremos aumentar la velocidad o bien alargamos el brazo o aumentamos la velocidad angular. El movimiento articulado actúa sobre la velocidad angular La velocidad angular de un miembro articulado es mayor, dado que su momento de inercia es menor que un miembro con la misma masa y longitud y sin articulación. La otra alternativa es extender la longitud con una raqueta, palo como en el golfo un bate. Así que los deportes más lentos son los que no lo usan. No deja de ser curioso que tenis y badminton emplean raquetas más o menos de la misma longitud, pero el segundo duplica la velocidad del primero. La diferencia estriba en que la raqueta de badminton es más elástica, lo que incide sobre la velocidad. Cuando el mango de la raqueta inicia el movimiento, la cabeza de la raqueta no lo sigue instantáneamente y el mango se dobla, tanto más conforme mayor es la aceleración. Al doblarse el mango, la energía elástica se acumula en la deformación y se libera después como energía cinética, Si el impacto se produce cuando la velocidad alcanza el máximo, la velocidad de la cabeza de la raqueta puede llegar a ser el doble de si fuera una raqueta rígida.

Ver Post >
SOLUCIÓN AL 1/9/2017 CLAVE QUIMICA DE LA NATURALEZA
img
Alberto Requena | 07-03-2018 | 00:34| 0

clave-quimica-de-la-naturaleza-_respuestas

CLAVE QUIMICA DE LA NATURALEZA

No todos los fenómenos descubiertos son conocidos. Una cosa es identificar los elementos implicados y otra, bien distinta, describir el proceso como discurre en sus distintas etapas. Hay muchas cosas básicas que todavía están pendientes de explicación. Quizás la más gruesa es el mecanismo de la fotosíntesis. El lenguaje vulgar difunde que los captadores solares emulan el mecanismo fotosintético de las plantas. Incluso nos muestran árboles artificiales, tecnológicos, a los que se atribuye la realización de la función fotosintética en la parte de captación de la energía solar. Nada más lejano de la realidad, cuando el mecanismo fotosintético incluye a un complejo proteínico fotosintético, el denominado fotosistema II, que colecta la energía solar y la emplea en el desdoblamiento del agua en hidrógeno y oxígeno. Este proceso es tan fundamental para la vida en la Tierra, como que es la fuente de producción del oxígeno que respiramos.

El láser es una herramienta de propósito general que, gracias a una de las propiedades genuinas, cual es la monocromaticidad, permite tanto la excitación selectiva, como el sondeo preciso de los procesos moleculares. El láser de rayos X del laboratorio SLAC de Stanford permite obtener imágenes a temperatura ambiente de muy elevada resolución del complejo proteínico, permitiendo contemplar como el agua se desdobla durante la fotosíntesis a temperatura ambiente. Las imágenes se obtienen por difracción de los super-rápidos pulsos de rayos X y los láseres de electrones libres.

El fotosistema II se había estudiado anteriormente usando muestras congeladas. Ahora se ha analizado el proceso a temperatura ambiente, con las ventajas que ello supone, también tecnológicas. El avance es notable, si se tiene en cuenta que la comprensión del proceso supone la posibilidad de poder abordar la creación artificial de dispositivos fotosintéticos que serían potenciales fuentes de energía limpia. La Humanidad siempre ha pensado en emular a la Naturaleza. La capacidad de captación de la energía solar que efectúan las plantas en el proceso de la fotosíntesis, a través de la actividad de la molécula de clorofila, ha tenido su admiración y generación de atracción subyugante por lograr disponer de energía económica y prácticamente inagotable. Los actuales dispositivos utilizan el silicio como base para la construcción de la circuitería de semiconductores capaz de captar, en parte, esa energía solar. Pero sigue en pie la emulación de la fotosíntesis tal cual la propicia la Naturaleza desde hace en torno a 3.000 millones de años. Ha sido un reto. El láser pulsado de rayos X de femtosegundo permite observar como ocurre la reacción del desdoblamiento del agua en tiempo real, que es como ocurre en la Naturaleza. Con pulsos de 40 femtosegundos de duración, muy intensos, se obtienen los datos antes de que la muestra se destruya. La muestra se deposita en forma de gotitas en una disolución con formas cristalizadas de fotosistema II y se depositan sobre una cinta transportadora que se irradia con pulsos de un láser de luz verde que inicia la reacción de desdoblamiento del agua. Tras un par de pulsos laser, se capturan las imágenes de los cristales usando rayos X con una resolución de unos 2.5 angstroms, que supera significativamente los experimentos anteriores a temperatura ambiente.

La reacción de desdoblamiento del agua tiene lugar catalizada por un metal en el fotosistema proteínico fotosistema II, conocido como complejo envolvente de oxígeno, que contiene hasta cuatro átomos de manganeso y uno de calcio. El complejo usa la energía de la luz para generar oxigeno puro a partir de dos moléculas de agua. Los cuatro átomos de manganeso son críticos para insuflar los electrones en el ciclo, pero se ignora dónde está incrustado en el complejo del agua y donde ocurre la formación del oxígeno. Todavía quedan cosas por averiguar. Pero estamos más cerca. Conociendo con más detalle otras etapas del proceso llegaremos a conocer más detalles de la reacción de desdoblamiento del agua. Solamente desvelando como ocurre este proceso, podremos abordar la captación de energía solar con dispositivos eficaces que emulen la captación de energía por las plantas. La clave de la Naturaleza es química, no tecnológica. Mientras no la conocemos en detalle, la podemos sustituir por tecnología, pero el objetivo de eficacia solamente lo alcanzamos cuando descubrimos los mecanismos íntimos de la propia Naturaleza y ahí está la Química y la Física para asistirnos.

Ver Post >
SOLUCIÓN AL 1/7/2017 EMPUJANDO ELECTRONES
img
Alberto Requena | 07-03-2018 | 00:28| 0
empujando-electrones-respuestas

EMPUJANDO ELECTRONES

Hay muchos fenómenos físicos que, pese a que son bien conocidos, no por ello son bien comprendidos. Es el caso de la termoelectricidad. El denominado efecto Seebeck dio nombre a un fenómeno descubierto en 1821, que acontece cuando unimos dos materiales de distinta naturaleza en dos puntos y entre las dos uniones se establece una diferencia de temperatura al pasar la corriente. Realmente, la interacción entre fenómenos eléctricos y térmicos se conoce desde que Joule, en el siglo XIX, observó que cuando tiene lugar un movimiento de electrones la materia ofrece resistencia y como consecuencia de la cesión de energía cinética de los electrones al entorno, debido a choques sucesivos de éstos con el material, se disipa energía en forma de calor. Seebeck construyó el denominado termopar, concluyendo que la diferencia de potencial que se lograba era función de la naturaleza del material y de la diferencia de temperaturas que se establecía.

Sobre el efecto Seebeck fue descubierto en 1834 el efecto Peltier, invirtiendo los términos del efecto Seebeck y estableciendo que si se hace pasar una corriente continua a través de un circuito formado por dos conductores de distinta naturaleza, acontece que una de las uniones absorbe calor, mientras que la otra lo cede. La energía cedida es la suma de la energía eléctrica suministrada más el calor absorbido por la unión que se enfría. Esta es, justamente, la definición de una máquina frigorífica. Cerramos los descubrimientos citando el trabajo realizado por Thomson, dando nombre al efecto, según el cual se absorbe o libera calor por un conductor eléctrico, cuando se establece un gradiente de temperaturas por el que circula la corriente eléctrica.

Lord Rayleigh, premio Nobel en 1904 y vivió entre 1842 y 1919 ya propuso utilizar los dispositivos termoeléctricos para generar corriente eléctrica. Los rendimientos que se obtenían no permitieron su desarrollo. Solamente en entornos militares o en el ámbito médico en los que la eficiencia no es primordial, sino otros requerimientos, se ha aplicado la refrigeración termoeléctrica. Los ordenadores actuales, especialmente los portátiles la incorporan por exigencia menor. En otros ámbitos prevalece la tecnología de compresión, en gran medida debido a que la incorporación de los semiconductores ha sido más lenta de lo previsto y a problemas con la disipación del calor generado de forma eficiente, lo que exige la génesis de nuevos materiales y un diseño térmico muy ligado al dispositivo.

Hoy hay una alternativa eficiente. Se trata de mejorar los rendimientos de los motores y de cualquier dispositivo que disipe calor. Desde el punto de vista termoeléctrico, se trata de hacer cabalgar el calor residual acoplando el flujo de calor a la corriente eléctrica. Pero para lograrlo, hay que comprender bien el fenómeno descubriendo aspectos fundamentales del mismo. Sigue siendo de actualidad en el área de la termoelectricidad la pregunta más básica y fundamental que subyace al proceso físico. Es relevante que en un reciente estudio publicado por Arpelet y colaboradores se cuestiona la naturaleza de las fuerzas que ponen a trabajar los electrones cuando se aplica una diferencia de temperatura en el itinerario que recorren éstos a través de un material termoeléctrico. Estos autores concluyen que la fuerza que pone a los electrones a trabajar para poder sacar rendimiento al calor residual, está ligado a la habilidad de los electrones para difundirse a través del material. Esto desvela un camino para el desarrollo de potenciales aplicaciones, por cuanto la producción de energía eléctrica a partir de calor residual requiere dispositivos termoeléctricos diseñados para estimular la energía en un rango de magnitud que permita alcanzar la escala del kilovatio, mientras que en los materiales convencionales de hoy solamente se alcanza una escala de microvatios.
Esto permitiría la utilización de la energía que, por ejemplo, disipan los automóviles con motor de explosión, ciclo Otto o ignición mediante chispa, que llega a ser de un 30%, por lo que el 70% restante de la energía que suministra el combustible, se disipa de forma indeseable. Si se trata de un motor diesel, el rendimiento mejora algo, alcanzando en torno a un 40% pero, no obstante, desperdicia un 60%. Si se tratara de generación de energía eléctrica habría que afectar esos porcentajes por un 0.90%, más o menos, por el rendimiento del alternador, con lo que todavía la reducción es mayor. ¡Vale la pena la investigación! Tanto más, cuanto trata aspectos básicos que son los que conducen a resultados de alcance.

Ver Post >
SOLUCIÓN AL 10/6/2017 DESCONOCIDA AGUA
img
Alberto Requena | 07-03-2018 | 00:18| 0
desconocida-agua_respuestas

DESCONOCIDA AGUA

No sólo son importantes los saberes, sino las ignorancias. En realidad, es más definitoria la ignorancia que el saber. No saber es bien fácil. Saber que no se sabe, conocer el límite entre la propia ciencia y la propia nescencia, ya no está al alcance de todo el mundo. Laín insiste en que la persona define su propia existencia en pugna marginal con todo lo que no conoce e ignora. Todos hemos tenido, alguna vez en nuestra vida una experiencia consistente en establecer esa delimitación con lo que no sabemos e ignoramos. En algún momento, todos, sin excepción, llegamos a saber que el agua está compuesta de hidrógeno y oxígeno. En ese instante asumimos ese conocimiento delimitándolo de la gran cantidad de cosas del agua que no conocemos o ignoramos Tras casi medio siglo dedicado al estudio de las moléculas, sigo aprendiendo cosas nuevas del agua que no conocía. Pero esto nos pasa con todas y cada una de las cosas que llegamos a conocer, desde esa tabula rasa que es nuestra mente cuando venimos al mundo.

Del agua se siguen descubriendo cosas constantemente. Algo tan común y abundante alberga secretos que desvela con la parsimonia de quien se sabe importante. Omnipresente en mares y océanos, ríos y atmósfera, cuerpos humanos y animales, así como vegetales, en forma sólida, líquida o gas. ¿a qué temperatura se puede enfriar sin congelarse? Una respuesta poco meditada hará uso del punto de fusión en condiciones normales y hablará de 0ºC para el agua pura. Otros más y mejor avisados, nos dirían que a -13ºC y no a 0ºC, es cuando el agua se congela en su totalidad, cuando no solo se enfría, sino que se estructura en formas tetraédricas formando el hielo. Es posible que aun así permanezca agua líquida. Para la utilización de cubitos para refresco, poco importa el hecho. Para el estudio del cambio climático si y mucho, ya que la cantidad de radiación que absorbe la atmósfera terrestre tiene que ver con las cantidades de agua cristalizada y líquida que haya y este es un dato importante en los modelos del cambio climático.
Propiedades singulares
Todo parece indicar que la formación del hielo no la decide solamente la temperatura, sino los cambios físicos asociados a la estructura molecular del agua. Moore y Molinero lo han explicado en la acreditada revista Nature con detalle. En el agua líquida las moléculas de agua están unidas por puentes de hidrógeno. En el agua cristalina se pueden formular hasta dieciséis formas de unirse las moléculas. Las propiedades del agua son muy diferentes de las de otras moléculas. El hielo flota, pero en otras sustancias al congelarse son más densas y se hunden. Gracias a esto cuando el agua se hiela en el mar, como en los polos, por ejemplo, el hielo es una capa superficial y por debajo continúa siendo líquida y la temperatura es más templada, permitiendo la vida de los peces.

Papel de los cambios de estructura
Se ha observado agua líquida en las nubes a -40ºC y se han hecho experimentos que la observan hasta a -41ºC. Las impurezas inducen la cristalización del hielo, al actuar como núcleos de condensación y cuando esto se da, se congela a 0ºC. Un agua sin agentes que produzcan la nucleación puede alcanzar temperaturas muy bajas antes de que el cambio de estado tenga lugar. La ausencia de núcleos de condensación implica que la única forma de formar una semilla para que tenga lugar la nucleación es por un cambio en la estructura del líquido. La cuestión que se plantea es descubrir cómo se controla el proceso de nucleación. Moore y Molinero han simulado el proceso de congelación con un algoritmo muy rápido y concluyen que al aproximarse a -48ºC la fracción de moléculas unidas a otras formando tetraedros sufre un incremento notable. Es decir, subyace un proceso que forma el escenario en el que se produce la congelación. Hay una caída brusca de la densidad, un incremento de la capacidad térmica y también un aumento de la capacidad de compresión. Esto justifica por qué el agua es más fácil comprimirla conforme se enfría, cosa que no ocurre con otros líquidos. Son estos cambios de estructura los que controlan la formación del hielo a partir de agua líquida. Y -48ºC es la temperatura más baja a la que puede permanecer como líquido antes de congelarse. ¡Desconocida agua!

Ver Post >
SOLUCIÓN AL 27/5/2017 COOPERACIÓN NATUROTÉCNICA
img
Alberto Requena | 07-03-2018 | 00:20| 0
cooperacion-naturotecnica

COOPERACION NATUROTÉCNICA

Las ciencias estudian la Naturaleza para conocerla y comprenderla. De esta forma se puede llegar a desentrañar los secretos que guarda. Se pueden conocer los procedimientos que emplea y se pueden emular los procesos que sustenta. Ha sido una constante en la Historia de la Humanidad. Conforme se han ido conociendo las características y los mecanismos que operan en la Naturaleza, se han ido desarrollando técnicas que, basadas en el conocimiento científico, han impulsado el progreso de la Humanidad. El vuelo de las aves, la vida submarina o la captación de la luz por las plantas han inspirado los esfuerzos por imitar estos sobresalientes comportamientos de la Naturaleza, buscando un provecho humano de los mismos. En muchos sentidos, la sabiduría de la longeva Naturaleza que ha depurado sus procesos con la parsimonia que se desentiende del tiempo, va perfeccionando constantemente su eficacia.

 

En casos, se ha pretendido lograr una auténtica cooperación en la que algún elemento natural pone su parte y la tecnología suple lo restante, intentando lograr algún dispositivo o herramienta capaz de aportar una posibilidad de resolver algún problema o aportar un procedimiento eficaz que, igualmente, haga progresar. Sabido y conocido es que el mejor sensor para determinados compuestos volátiles es la propia nariz humana, como viene ocurriendo con la detección del ácido sulfhídrico que tiene su umbral en diezmilésimas partes por millón. Las prótesis cada vez con mayor frecuencia mezclan elementos humanos con tecnología capaz de superar las deficiencias que se plantean, unas veces mecánicas, otras de visión, otras, facilitando tareas rutinarias.

Una propuesta naturotécnica se abre paso por su originalidad y por la aplicación capaz de abordar uno de los problemas acuciantes derivados de excesos de la propia Humanidad. Hablamos de las minas contra personas. Mueren anualmente en torno a 30.000 personas. No obstante, están diseñadas para herir y no matar, porque los heridos de guerra generan situaciones más problemáticas que las de los muertos, ¡tremendo! Son fruto de la locura humana que no es posible comprender por una mente racional sana. Se estima en más de 100.000 los ejemplares repartidos por un centenar de países, mayormente en África. La limpieza y erradicación de los campos de minas presenta muchos problemas. Se han usado, muy frecuentemente, a perros para localizar las minas. Tanto el que maneja el perro, como el propio perro, pesan demasiado y provocan la explosión, por lo que la tarea resulta muy arriesgada. Se ha propuesto una solución muy audaz que emplea a abejas, entrenadas para oler el explosivo de las minas, en lo que se emplea solamente un par de días. Para ello inyectan en la comida de las abejas los componentes del explosivo en cantidades traza. Las voraces abejas buscarán las fuentes de alimento que emitan el mismo olor. Con un entrenamiento de uno o dos días es suficiente y la elevada sensibilidad al olor que tiene un umbral de unas pocas partes por millón le hacen ser una herramienta de alta sensibilidad para localizar las minas contra personas. Cuando las abejas localizan una mina vuelan en torno a ella, hasta que alcanzan la fuente, donde se detienen, antes de seguir. Cubierta la parte identificativa de la mina, la natural, irrumpe la tecnológica que tiene que seguir a las abejas en su cometido. El dispositivo es un sistema LIDAR, consistente en un láser que barre horizontalmente con una frecuencia de 532 nanometros, como ensayan Wilson y Seldomridge de la Universidad de Montana. El láser es de Nd: YAG pulsado, de 100 milijulios y con una frecuencia de repetición de 30 Hz. Se emite el disparo láser que rebota en las abejas y los fotones que retornan se recogen a través de un telescopio. Usando decenas de miles de abejas, el sistema LIDAR puede detectar una densidad elevada de abejas que se concentran en la pluma de los compuestos químicos de la mina. La única restricción deriva de que el tiempo que las abejas permanecen sobre la potencial mina es de solo unos segundos. Es un reto para el láser que tiene que efectuar barridos con suficiente velocidad para detectar esos instantes. Otra dificultad a soslayar es que las abejas vuelan a ras de suelo y la detección LIDAR no distingue si el rebote del haz proviene de las abejas o de la vegetación. Superados estos inconvenientes salvables, una herramienta naturotecnológica viene a resolver un grave problema que la falta de cabeza de la Humanidad viene generando desde hace demasiado tiempo.

Ver Post >
SOLUCIÓN AL 20/5/2017, LA NUEVA FILOSOFÍA
img
Alberto Requena | 15-11-2017 | 01:52| 0
la-nueva-filosofia

LA NUEVA FILOSOFÍA

No resulta nada fácil racionalizar cuando fue el momento histórico en que comenzó la Ciencia. Tendríamos que hacer el esfuerzo de definir primero, qué entendemos que es Ciencia. Sólo así podemos incardinarla en el tiempo y la Historia. Los rasgos fundamentales con el que vamos a caracterizar a la Ciencia los vamos a concretar en un cuerpo de evidencias que alimenta teorías complejas y que con ellas se pueden efectuar predicciones fiables. Muchas de las hoy denominadas ciencias no se enmarcan en esta categoría por no responder a lo antedicho. Cierto. Pero, ¿cuándo se puede afirmar que el cuerpo de conocimiento acumulado fue suficiente para que se pudiera considerar que había nacido la Ciencia?

Si pensamos en la antigüedad, por ejemplo, en el periodo pitagórico, el cuerpo de evidencias brillaba por su ausencia, bajo conjeturas que pretendían explicar los hechos, sin fundamento observacional alguno y atribuyendo a la intervención divina, la regulación de todos los aspectos imaginables de la Naturaleza y de la esfera personal. Los Socráticos siguieron fundamentando los aspectos materiales en una teogonía que empleaba elementos míticos, aunque desarrollara la lógica como motor deductivo, en un alarde de imaginación, anticipando esa capacidad tan genuina de la Ciencia que, una vez organizado el conocimiento, hace uso de aquél para elaborar el pronóstico fiable. La necesidad de encontrar una referencia en la que fundamentarlo todo, llevó a la consideración de los cuatro elementos fundamentales: agua, tierra, aire y fuego, como componentes constitutivos de todo. Otras alternativas introdujeron, sorprendentemente pronto, el concepto atómico como unidad de referencia, pero no tuvo mucho éxito hasta bien introducidos los tiempos modernos, incluso recientes. Las aportaciones de la época oscura no clarifican nada más, salvo algunas muy singulares como la concepción de Bacon en el siglo XIII. Pero se puede considerar que el único cuerpo de evidencia sustancial que alimentaba teorías complejas y permitía comenzar a hacer predicciones fiables era la Astronomía. Tenía una amplia trayectoria que hundía sus raíces en la época babilónica, sumeria y egipcia, así como chinos e indios.

Aconteció que un astrónomo danés, Tycho Brahe. en 1572 observó una estrella nueva o una nova. Con motivo de esta observación se puso en marcha un procedimiento sistemático de observación que se convirtió en un programa de investigación que iba aportando datos que permitían poner en cuestión afirmaciones que se venían manteniendo desde tiempos inmemoriales, sin mucha justificación. Se sostenía hasta entonces, que los cielos no pueden cambiar y que todo el movimiento celestial es circular y que las esferas regían toda la geometría de los cielos. Llegaron tiempos en que todo esto se ponía en cuestión. Se estaban dando por finalizados siglos de conocimiento, desde que 200.000 años atrás emergiera el homo sapiens, incluso con 2 millones de años de historia de fabricación de utensilios. La revolución neolítica ya supuso un cambio, ciertamente lento. Transcurrieron más de 6.500 años de avances tecnológicos. En torno a 1.500 se revisaba la antigua Roma por el convencimiento de que en esa época se habían disfrutado de avances que el periodo bárbaro y oscuro había ocultado. En todo caso, nadie consideraba que la historia de la Humanidad pudiera ser una sucesión de progreso. Hasta el siglo XVIII no se interpretó que el progreso provenía de la historia previa. Algo ocurrió para el cambio de opinión. No es fácil identificar que fue lo que permitió progresar a la Ciencia de los siglos XVII y XVIII, ya que no había antecedente en el sistema de conocimiento previo. Algo se tenía en la sociedad del Renacimiento que no se poseía en épocas anteriores. La Ilustración trajo la convicción de que la Revolución científica era la responsable de que el progreso era imparable. La transformación era imparable y el principio de la nueva era se rubricó con la rutilante explosión que supuso la aportación de Newton. De la creencia en brujería y agentes del diablo, hombres lobo, magos, unicornios o que el arco iris es una señal de Dios o cree en los sueños, e cree en la astrología, etc. La Nueva Filosofía, que es como se denominaba a la nueva ciencia en 1611 estaba en marcha. Voltaire deja constancia en 1633 de que en Inglaterra había una cultura científica.

Ver Post >
SOLUCIÓN DEL 6/5/2017, DEL INVENTO A LA INNOVACIÓN
img
Alberto Requena | 15-11-2017 | 01:45| 0
del-invento-a-la-innovacion

DEL INVENTO A LA INNOVACIÓN

Descubrimiento, ocurrencia, invento, novedad, desarrollo tecnológico e innovación es un largo recorrido que, con harta frecuencia, se reduce a otorgar la categoría de innovación a cualquier cosa, aunque no haya completado el itinerario. Pero el concepto de innovación conlleva una mejora sustantiva en el sentido de aportar un efecto benefactor ostensible en la dirección del progreso y la perfección. Es decir, que la aceptación compartida por muchas personas y eventualmente por toda la humanidad, es un requisito para otorgar la condición de innovación a algo. Cabe preguntarse ¿cuantos inventos no han llegado a representar una aportación generalizada de alguna bondad, incluso de carácter técnico? ¿Cuántas novedades acabaron olvidándose por no haber sido capaces de desplazar a quien, supuestamente, aventajaban? ¿Fueron los relojes digitales una innovación o no pasaron de ser una novedad que acabó olvidada en poco tiempo? ¿Cuántos ejemplos parecidos podríamos poner? En otro tiempo se hablaba de las cosas que se “ponían de moda”, indicando que resultaban ser aspectos que en un momento dado eran del gusto de la gente, aunque no necesariamente representaban nada ventajosamente positivo. Surgían y desaparecían de nuestra vista sin dejar rastro de su existencia.

El itinerario de las innovaciones es largo, trabajoso y no exento de dificultades. En la segunda mitad del siglo XIX Daimler mantenía la idea (ocurrencia) de construir un motor que fuera tan ligero y tan manejable que pudiera instalarse en cualquier vehículo. El concepto al que pretendía que afectara era el de la tracción. Ya se había efectuado el descubrimiento del motor, con la ciencia que explicaba la interconversión de los distintos tipos de energía. La ocurrencia fue que precisamente la energía química podía ser transformada en energía mecánica, que acabó en el invento de los motores de combustión interna, como una modalidad, alternativa a la entonces conocida conversión del vapor en energía mecánica. El invento del motor de combustión interna dio origen a una serie de novedades que prometían una mejor y más cómoda existencia. Concretamente Daimler soñaba por un día levantarse y poder elegir entre utilizar su caballo o su artilugio de motor.

Daimler instaló el motor en una bicicleta. Fue una novedad. La rueda giraba, pero la auténtica novedad debería ser instalarlo en un artilugio de cuatro ruedas. Logró que un carro se moviera a razón de 18 kilómetros por hora. Como carro era otra novedad. Pero para Daimler esto no era un vehículo de tracción a motor, todavía. Seguía quedando en novedad, aunque todavía su potencialidad no lograba convencerle. Lo aplicó a un bote y logró recorrer 12 kilómetros en una hora. Eso en un bote ya era un logro, ya se había dado un paso. Pero no era lo que Daimler quería lograr.

Daimler discutió con Maybach, porque éste último pensaba que era absurdo instalar el motor en un vehículo ya construido. Había que tomar el motor como primario y construir el vehículo en torno a él y no al revés. Benz ya había construido en aquel momento un coche. Daimler seguía soñando y concluía que la velocidad se logra, al fin, con una locomotora a vapor, pero volar, ir por los aires, solamente se podría lograr con un motor ligero, que es lo que el pretendió siempre lograr. El desarrollo tecnológico era el que iba perfilando su objetivo. Sucedió que en 1888 le fue a visitar Woelfert, un librero de Leipzig, que le pedía que le construyera un motor ligero para su globo. No quería volar, sino impulsar su globo aerostático. Le inspiraba la hélice del barco que había motorizado el propio Daimler. Si impulsaba el barco por el agua, también lo haría por el aire. Seguía apareciendo la ocurrencia, a la que seguiría el invento, de donde aparecería la novedad, que una hélice impulsara por el aire un globo, tal cual lo hacía por el agua cuando estaba incorporada a un bote. Daimler accedió a hacerle el motor. Al año siguiente se presentó en Leipzig con su motor en una caja. Lo incorporaron al globo de Woelfert, subieron a la barquilla, despegaron en el globo y arrancaron el motor. A pesar de la vela-timón, tomó una dirección distinta a la deseada, pero flotó en línea recta y finalmente describió un circulo de grandes dimensiones del que no se desvió. No fue un éxito, pero incentivó a construir con más celo si cabe. Hoy, la aviación es una innovación de la Humanidad. Repare cuantas cosas han cambiado positivamente con ella. Eso implica una innovación.

Ver Post >
SOLUCIÓN AL 22/4/2017 MAGIA Y CIENCIA
img
Alberto Requena | 15-11-2017 | 01:39| 0
magia-y-ciencia

 

MAGIA Y CIENCIA

Wittgenstein fue un filósofo, matemático, lingüista y lógico austriaco, que influyó notablemente en los positivistas lógicos que formaron el Círculo de Viena, aunque él nunca consideró pertenecer. Vivió entre 1889 y 1951. Hijo de uno de los hombres más ricos del mundo en su época, inició sus investigaciones en ingeniería, llegando a patentar un motor relevante en la construcción de helicópteros, pero pronto se interesó por la filosofía matemática. Discípulo de Bertrand Russell, en el Trinity College de la Universidad de Cambridge. Renunció a su parte de herencia y dedicó su vida a la enseñanza universitaria y la investigación filosófica. Su Tractatus lógico-philosophicus publicado en 1923 es su obra más referenciada y el único libro que vio publicado en vida. Establece que los límites de nuestro lenguaje son los límites de nuestro mundo. En una nota escrita en 1931 decía “Por simple que parezca, la distinción entre magia y Ciencia puede expresarse diciendo que en la Ciencia hay progreso, mientras que, en la magia, no. La magia no tiene tendencia interna a desarrollarse”. Claro que el hecho de que haya progreso, no implica, en modo alguno, que tengamos que adoptarlo. Los corredores, en cualquiera de las modalidades, cada vez lo hacen más rápido. Pero, en modo alguno, ese hecho implica que tengamos que hacerlo nosotros. La Ciencia es algo especial, por cuanto la misión de la Ciencia es conocer la Naturaleza y lo hace cada vez mejor; predice con mayor precisión y permite un control más ajustado.
Wittgenstein fundamentó que no podemos utilizar la experiencia como base de la inducción, rememorando la propuesta de Hume de que no podemos basar la causación en la experiencia. No podemos basar un procedimiento en una justificación filosófica, pero podemos usarlo siempre y cuando lleve a un éxito notable. Por ejemplo, afirmar que un chamán (o un Obispo) puede hacer que llueva, contradice la experiencia y no hay evidencia de que conduzca a un éxito notable. Supone un enfrentamiento entre Ciencia y magia, del que la magia resulta ser inferior. Hay que creer en hechos que la gente transmite de una determinada forma, como afirmaría Wittgenstein, como los hechos históricos, químicos, geográficos, etc. Así es como aprendemos las Ciencias. Aprender se basa en creer. Una vez que aprendemos algo que hemos visto en un libro, en un mapa, etc, decimos que lo sabemos. Y esto lo hacemos, como insiste Wittgenstein, porque esta manera de hacerlo nos ha demostrado que “nos trae cuenta”. No podemos demostrar que el Teide tiene 3.700 metros, pero podemos creerlo a partir de la autoridad que concedemos a un mapa o a un libro que lo relate. Este tipo de “procedimientos sociales” permite referir hechos, sin poder justificarlos, pero dado el éxito que tienen, nos “traen cuenta”. Justifica que los empleamos.
Ciertamente, lo que creemos depende de lo que aprendemos, como diría Witgenstein. El nivel de credulidad es función directa de lo que sabemos. Creemos que no es posible estar simultáneamente en Murcia y en Cartagena. Pero esto no quiere decir que no haya gente que pueda creer que es posible. Los que sabemos que no es posible, decimos que esa gente que piensa que es posible no sabe muchas cosas que nosotros sí sabemos. Están equivocados y nosotros lo sabemos. Su sistema de conocimiento debe ser más deficiente que el nuestro. Cabe, no obstante, que ellos piensen lo mismo de nosotros. Pero, el conocimiento científico es superior, muy superior al conocimiento mágico de una cultura de iluminados actual o pasada. Esto nos lleva a que determinados tipos de conocimiento son superiores a otros, porque muestran utilidad, “traen cuenta”, suponen progreso y no contradicen los hechos conocidos. La Ciencia no ofrece una justificación filosófica satisfactoria de ese conocimiento, pero funcionan y se debería reconocer la utilidad de ese conocimiento (mapas, libros, etc.). De esta forma aparece de forma natural el hecho de que cuando el punto de vista científico nos abandona y se ve sustituido por otro nuevo, es porque se piensa que éste último es mejor para tener éxito, “traer cuenta”. Es decir, la Ciencia evoluciona y ello es posible porque las teorías que no consiguen desarrollarse o son incapaces de adaptarse al enfrentarse con los nuevos hechos o descubrimientos, sencillamente, son eliminadas.
Según Wittgenstein solo puede haber Ciencia buena y Ciencia mala y esto requiere visión retrospectiva para poder valorarlo. No podemos soslayar esta visión, porque de hacerlo, perderíamos una de las características más peculiares de la Ciencia: el que progresa.

Ver Post >
SOLUCIÓNAL 8/04/2017 IGNORANCIA Y EVOLUCIÓN
img
Alberto Requena | 15-11-2017 | 01:33| 0
ignorancia-y-evolucion

IGNORANCIA Y EVOLUCIÓN

No es fácil comprender que evolución e ignorancia van de la mano. Lo intentamos hoy, pero hay que leer con sosiego y atención lo que sigue. Con la masa y la energía totales y poco más, se caracteriza un macroestado físico de un sistema. Supongamos un sistema compuesto de partículas que pueden estar en tres niveles, que denominamos 0, 1, y 2. Hagamos coincidir la energía de estos niveles con su denominación. Supongamos que nuestro sistema consta de dos partículas: a y b. Supongamos, también, que la energía total a nivel macroscópico es 2 unidades. Una posibilidad es que, la partícula a esté en el estado 1 y la b también en el estado 1. Otra posibilidad es que la partícula a esté en el estado 2, y la b en el 0. Todas las posibilidades de colocar las dos partículas en los tres estados, si distinguimos las partículas a y b son (entre paréntesis indicamos el nivel en el que la colocamos): a(0)b(0), a(0)b(1), a(0)b(2), a(1)b(0), a(1)b(1), a(1)b(2), a(2)b(0), a(2)b(1), a(2)b(2). Ahora bien, los microestados compatibles con que la energía total sea 2, solamente son: a(0)b(2), a(1)b(1), a(2)b(0). Si solamente nos importara la energía total, no es necesario concretar los microestados que satisfacen esa condición. En este nivel de descripción, despreciamos la información que supone describir con detalle los niveles en los que se encuentran cada una de las partículas, ya que prescindimos de las posiciones y velocidades de todas las partículas que lo constituyen. Solo damos la energía total del sistema de dos partículas.
La Entropía es una medida de la cantidad de microestados correspondientes a un macroestado dado. Si interpretamos que, al adoptar el nivel macroscópico, hemos despreciado la información que proporcionaba la descripción a nivel microscópico, desembocamos en que la entropía es una medida de la ignorancia que supone el desechar la información, cuando adoptamos la descripción macroscópica. Si el sistema puede contener tres microestados, como en el ejemplo considerado, tenemos la sensación de que no perdemos demasiada información. Pero si consideramos un litro de aire, pongamos por caso, el número de moléculas que lo constituye es del orden de 10^(23) (un 1 seguido de 23 ceros, ¡descomunal!) y el número de microestados que corresponde a tal número de moléculas es de 10^(10^(23)) (un 1 seguido de 10^(23) ceros), número extraordinario (para que nos hagamos una idea: la edad del Universo es de 10^(10) años, es decir 13.800 millones de años, aproximadamente). Esto quiere decir, de alguna forma, que identificamos la Entropía con la información. La entropía prescinde de los microestados posibles del sistema cuando lo caracterizamos por sus variables macroscópicas.
La cuestión de fondo es que, cuando un sistema aislado (aquel que no intercambia ni materia ni energía con el medio circundante), se encuentra en un estado de equilibrio, tiene que tener la Entropía máxima, dado que si no fuera así, evolucionaría hasta que alcanzara ese estado de equilibrio con un máximo de entropía. Esto hace que un sistema tienda a alcanzar, de forma natural, el estado de máxima entropía. El Universo, por tanto, evolucionará hacia un estado de máxima entropía. Así pues, habrá un creciente incremento de la ignorancia. El segundo principio que establece que la entropía o es igual o se incrementa para un sistema aislado en equilibrio, supone una flecha del tiempo que distingue entre pasado y futuro y no puede ir hacia atrás. Mecánicamente podría ocurrir, por la simetría temporal de las leyes de la Mecánica, pero Termodinámicamente es imposible. Todas las leyes de la Física son simétricas salvo el segundo principio y un tipo de desintegración radiactiva, aunque, aparentemente, no tengan nada que ver una con otra.
La razón del aumento de Entropía en un sistema aislado es debido a que existen sistemas que están situados en macroestados iniciales de baja entropía, es decir, con un número pequeño de microestados, en comparación con otros macroestados con un número de microestados mayor. Las condiciones iniciales de estos sistemas son determinantes. El Universo tuvo que partir de un estado de baja entropía, permitiendo que se formaran las galaxias, estrellas, planetas, células, etc. A partir de ese instante, todo circula por el camino de incrementar la ignorancia. Es el motor de la evolución, por paradójico que pueda parecer. Esto no excluye que la complejidad creciente propicie ordenaciones que también se explican compatibles con una entropía creciente, como ocurre en los cambios de fase. La flecha del tiempo entrópico es inapelable la ignorancia, se incrementa
rancia, se incrementa

Ver Post >
Sobre el autor Alberto Requena
Atanor es una herramienta de búsqueda. Esta sección pretende ser una vía por la que se vierten aspectos relevantes de la Ciencia y la Tecnología: hechos, reflexiones, consideraciones, aspectos destacables. Pretende recoger todo aquello que forma parte de lo que queremos conocer, pretendemos saber y no no está bien que forme parte de la ignorancia.