Ciencia y ciudadanía un tema de agenda mundial

Encontré este artículo sobre la sociedad y los retos que plantea actualmente a la comunidad científica

Fuente: Tecnocidanos

El sector ciudadano de la ciencia

Hace unas semanas la ministra francesa de Educación Superior e Investigación publicó en Le Monde el artículo Avec la science, inventons l’avenir! para invitar a los científicos y a los ciudadanos a recuperar la confianza mutua en la capacidad de ambos de actuar en pro del bienestar común. A los científicos les recomendaba no ver en la sociedad un espacio hostil a sus modos de proceder, lo que implica admitir el derecho de la gente a expresar dudas sobre la energía nuclear, los transgénicos o los pesticidas. Los ciudadanos, por su parte, eran invitados a recuperar la tradicional admiración por el trabajo de investigación pues, decía Valérie Pécresse, “los desafíos a los que nos enfrentamos serán insuperables si nuestra sociedad no renueva la confianza que tradicionalmente tenía en sus científicos, porque es de ellos de dónde vendrán las respuestas que esperamos.”

La reacción no se ha hecho esperar y no son pocos los que acusan a la ministra de querer infantilizar a la opinión pública. Los argumentos son los de siempre. Más del 40% de los recursos que se invierten en ciencia se destinan a programas militares, nucleares y aeroespaciales. Por contra, no decae el déficit de investigación en campos como la salud medioambiental, la agricultura biológica, la toxicología o la química e ingeniería verdes. Y lo que sucede en Francia, podría generalizarse al resto del mundo, como lo prueba el reciente informe More Soldiers in the Laboratory realizado por C. Langley, S. Parkinson y P. Webber bajo el auspicio de Scientists for Global Responsability.

La respuesta más contundente llegó de Eric Gall y Jacques Testart, presidente de la Fondation Sciences Citoyennes, también en Le Monde. El texto es doblemente enfático: primero, en que la ciencia no deja de alejarse de lo que son las preocupaciones ciudadanas, ya sea por la falta de convicción con la que los agentes científicos se aplican en proyectos a favor de la sostenibilidad, ya sea por la facilidad con la que los investigadores y políticos de la ciencia actúan más como hooligans de las nuevas tecnologías, que como garantes del bien común.

El segundo punto que se subraya es la inquietante deriva de la ciencia hacia su conversión en un recurso y, en consecuencia, hacia su privatización. Es muy rara la idea de que la ciencia pueda ser un bien privado, pero las evidencias que confirman esta evolución no dejan aparecer en las revistas especializadas. Lo más raro es que todas las autoridades académicas y científicas son cómplices de estas políticas de partenariado con las corporaciones industriales. Más aún, vivimos un momento en el que cualquier otra narrativa, cualquier otra forma de entender la relación ciencia-sociedad que no consista en seducir a los empresarios para que inviertan en ciencia es considerada disruptiva, arcaica, tecnófoba y reaccionaria. En fin, todo funcionaría más o menos bien si los dispositivos de control habilitados (comités de ética, comisiones de impacto tecnológico, sanitario o medioambiental, paneles ciudadanos, conferencias de consenso,..) estuvieran rodados y cumplieran su cometido con independencia y transparencia. Pero la verdad es otra, pues mientras las corporaciones se mueven a velocidad ultrasónica, los gobiernos siguen desplazándose en carruajes de bueyes (a veces, de lujo).

Así las cosas, si la reputación de un investigador crece cuando logra patentes y/o atrae recursos privados para su institución, entonces se hace difícil admitir que la lógica del beneficio podría acabar dominando las decisiones en los claustros y en lo laboratorios. No me voy a entretener mucho en las consecuencias, pero hay que esperar que se declaren prioritarias las líneas de investigación más rentables en detrimento quizás de las más necesarias. O, en otros términos, que cada vez que un gobierno declare sus preferencias hay que husmear entre líneas para saber quienes son los verdaderos beneficiarios.

La ministra Pécresse tuvo el valor de adoptar un gesto reflexivo y no se dedicó, como hacen el resto de sus colegas europeos, a proclamar con la fe del carbonero su fe en la ciencia y su desprecio por los críticos. Pero tiene edad de saber que cada vez será más difícil separar los intereses privados de los públicos y que siempre necesitaremos alguien que quiera defender el bien común. En pocas palabras: un nuevo pacto social por la ciencia, un nuevo contrato ciencia-sociedad, no se logrará recordándole a todo el mundo la necesidad de ser buenos. Hace falta pensar en nuevos dispositivos y también en nuevos actores.

Claudia Neubauer (ver el vídeo) lo ha explicado con mucha claridad en el reciente Colloque Sciences en Societé au XXIème siècle: autres relations, autres pratiques (Strasbourg, 28-29/11/2007).

Fortalecer las complicidades entre ciencia y ciudadanía implica dar reconocimiento a la existencia de un tercer sector científico (el primero sería el estado y, el segundo, la empresa) que estaría constituido por una amplia panoplia de agrupaciones sociales, desde las organizaciones medioambientales o las asociaciones afectados, hasta los sindicatos, las ONG o las agrupaciones de consumidores. Sus características más notables y diferenciadas serían que la investigación la hacen fuera de los centros públicos, que anteponen la voluntad de saber a la de poder o la del beneficio, que promueven formas alternativas de saber, que sus prácticas están muy condicionadas por demandas locales y que, por fin, convierten en inseparables la investigación de la acción.

El reconocimiento de este tercer sector debe llegar acompañado de otras medidas económicas y políticas, pues hace falta arbitrar mecanismos de participación en los comités que deciden las prioridades y en los que asignan los recursos.

Neubauer hace la propuesta de que se cree un Agence National de la Recherche Citoyenne que financie proyectos que exijan el partenariado entre una organización ciudadana y una institución pública, y que entre sus objetivos estén la construcción de sistemas de alerta temprana sobre riesgos o la participación informada en los procesos de peritaje experto y de ciencia regulatoria. El objetivo final sería hacer entrar la ciencia en democracia (ver nuestro post I+D = Investigación + Democracia), aprovechar los recursos de la llamada inteligencia colectiva o de las masas. modular la influencia de las grandes corporaciones en la democracia técnica y, por último pero no en último lugar, fortalecer los vínculos de la ciudadanía con la ciencia. En definitiva, hacer de la sociedad civil el principal socio de la empresa científica.

Microsoft trata de patentar en EEUU una herramienta para controlar al trabajador

Fuente: El Mundo

El universo de Gran Hermano, descrito por George Orwell en su novela ’1984′, parece más cerca que nunca con una patente solicitada por Microsoft que vigilará constantemente al trabajador sentado frente a su ordenador, según se desprende de una información del diario ‘The Times’.

El periódico indica que la empresa estadounidense pretende desarrollar un sistema informático que gracias a sensores inalámbricos miden en todo momento el ritmo cardíaco, la temperatura del cuerpo, los movimientos, la expresión facial y la presión sanguínea del trabajador.

Ese tipo de tecnología que permite la observación constante de los trabajadores estaba hasta ahora limitado a los pilotos o los astronautas de la NASA, dice el diario, según el cual parece ser la primera vez que se propone desarrollar un ‘software’ para todo tipo de oficinas.

Según la patente presentada en Estados Unidos, los sensores del equipo que desarrolla Microsoft serían capaces de leer "el ritmo cardíaco, la respuesta galvánica de la piel, las señales cerebrales, la electromiografía, las expresiones faciales y la presión sanguínea".

El sistema podría asimismo "detectar automáticamente la frustración o el estrés en el usuario" y "ofrecer la ayuda necesaria", señala el diario. Los cambios físicos del empleado se compararían con un perfil psicológico individual basado en el peso, la edad y la salud del trabajador.

Si el sistema descubriese una aceleración del ritmo cardíaco o de las expresiones faciales que indicasen estrés o frustración, informaría a la dirección de que el trabajador necesita ayuda.

Duras críticas

El Comisario de Información del Reino Unido, grupos de libertades civiles y abogados dedicados a la defensa de la privacidad han criticado duramente el potencial de ese nuevo sistema.

"Este sistema significa una intrusión en todos los aspectos de la vida de los empleados. Es muy discutible desde el punto de vista de su privacidad", afirma Hugh Tomlison, abogado experto en la ley de protección de datos, en declaraciones recogidas por el diario.

Peter Skyte, del sindicato United, señala que la patente de Microsoft "lleva a nuevos niveles de invasión de la privacidad la idea de observar a las personas en el trabajo".

Para la Oficina del Comisario de Información del Reino Unido, "imponer tal nivel de intrusión en (la privacidad de) los empleados sólo estaría justificado en circunstancias excepcionales".

La Oficina de Patentes de Estados Unidos confirmó el martes que la solicitud de la patente se publicó el mes pasado, año y medio después de que Microsoft la presentase, y se cree que podría concederse dentro de un año.

Enlaces relacionados:

Bill Gates le apuesta a la biologia sintética

The Times : Microsoft seeks patent for office ‘spy’ software

La negentropía, o entropía negativa

En el blog nihil alienum ha profundizado las investigaciones Mae-Wan Ho, quien fue nombrada en post publicado aqui y basado en un artículo de Ecored.

nihil alienum ha encontrado un artículo de Mae-Wan Ho sobre la negentropía, o entropía negativa, ( la entropía dentro de la Teoría de la Información me ayuda muchísmo para entender ciertos fenómenos sociales que estoy investigando en estos momentos desde la Teoría de los sistemas complejos, bajo la asesoría de J. E.) :

"investigando sobre Mae-Wan Ho encontré un artículo suyo que trataba un tema que me interesa, la negentropía, o entropía negativa, en relación con la biología.

La entropía es el resultado de la segunda ley de la termodinámica, la dinámica del calor( ya utilizada por el antropólogo norteamericano Richard N. Adams para complementar el lado social del modelo de Leslie White el cual estaba centrado en la tecnología*) . Tal como lo entiendo, cuando dos sistemas (un helado en el microondas) de diferente temperatura se ponen en contacto, el calor fluye del más caliente al más frío (y no a la inversa) de manera que alcanzan la misma temperatura y desaparece en este sentido su diferencia como sistemas, acaban confundidos en un estado más caótico que el inicial, todo mezclado. La entropía parece que conduce a un universo plano de temperatura uniforme (y entonces sale The End en la pantalla).

Pero el caso es que los organismos vivos tienen pilas, pueden administrar su energía y ésta no depende directamente de las fluctuaciones con el medio en el que viven. Mantenemos una temperatura constante incluso bajo una ducha fría, y el sistema funciona bastante bien mientras no nos perdamos en medio de la Antártida o nos caiga un alud de nieve encima. Esto es lo que Schrödinger (uno de los cracks de la física cuántica) llamó negentropía en una nota a pie de página. Si los organismos vivos pueden administrar su energía, pueden mantener su diferencia con el medio e incluso aumentarla, pueden crear orden/distinciones en un universo que la entropía desordena. Y de esto va el artículo de Mae-Wan Ho. Copio un fragmento.

The reason `negentropy’ continues to be used is that `entropy with a negative sign’ simply does not capture what is intended by the original term. Schrödinger uses it to identify the remarkable ability of the living system, not only to avoid the effects of entropy production — as dictated by the second law — but to do just the opposite, to increase organization, which intuitively, seems like the converse of entropy. Szent-Györgi, on the other hand, alludes to both the notions of free energy and of organization in his use of the term. Both scientists have the right intuition — energy and organization are inextricably bound up with each other."

*Brigitte Boehm Schoendube

Bill Gates le apuesta a la biologia sintética: cuando el software ya no es negocio llega el etanol (II)…

Bill Gates se fue para dedicarse mediante su Fundacion llamada Bill y Melinda Bill Gates Foundation, a promover la Biologia Sintetica, y no porque sea bueno, sino porque , a través de la gran propaganda alarmista sobre el Cambio Climático, la producción de etanol es uno de los negocios a futuro más grandes jamás pensados, a costa de que ( no solo) en el llamado Tercer Mundo se apresure en dedicarse a cultivos para el etanol, lo cual amenaza con desviar la producción de alimentos de la tierra marginal, lo que sería a una tendencia que podría introducir nuevos monocultivos y comprometería la soberanía alimentaria.
"La producción en el Sur global de biocombustibles a gran escala, orientada a la exportación, tendrá impactos negativos sobre el suelo, el agua, la diversidad, la tenencia de la tierra y la posibilidad de supervivencia de los agricultores campesinos y los pueblos indígenas." -Informe ETCGroup-.
De hecho, con esto se pretende que Estados Unidos sea independiente del petróleo y de las zonas geográficas que lo producen, acción válida para la geopolítica , donde la propaganda de bonanza y de beneficio del etanol  para contrarrestar el calentamiento global solo sirven de fachada para un negocios más.

Y tan solo por si hubiera alguna duda, no he caído presa de la "conspiranoia", solo intento de ver los múltiples lados de la "medalla".

El 30 de abril del año 2007 publiqué un comentaro titulado Ingeniería genética extrema: una introducción a la biología sintética, le verdad del etanol
basado en un PDF del Grupo ETC ( del cual tenia la esperanza que fuera leido en su integridad) en donde dice textualmente:

"Bill Gates, por ejemplo, que muy pronto se retirará de su puesto como director de
Microsoft
, compró recientemente el 25 por ciento de Pacific Ethanol, mientras su socio Paul Allen, cofundador de Microsoft, invirtió en Imperium Renewables, una compañía con sede en Seattle que producirá etanol sobre todo a partir de la soya y del aceite de canola.

Richard Branson, director de las compañías del Virgin Group, le está destinando 400 millones de dólares a la inversión en etanol, mientras que Vinod Khosla, cofundador de Sun Microsystems y socio de Kleiner Perkins, una firma de capital de riesgo que apoyó los famosos proyectos AOL, Google y Amazon, ahora tiene una línea de inversión en las
compañías involucradas en el etanol.

El creciente entusiasmo por los biocombustibles en Estados Unidos surge en parte de reconocer
tardíamente que las existencias de petróleo en lugares “volátiles” del mundo no podrán ser adquiridas tan fácilmente como se pensaba, mediante acuerdos comerciales o guerras. También desvía la atención de tareas tan espinosas como cortar los consumos de energía y promover la conservación. La frase pegajosa común en estos días cuando se habla de etanol es “tener independencia energética”. Una argumentación típica proviene de un informe del Departamento de Energía titulado From Biomass to Biofuels [de la biomasa a los biocombustibles]: “Una robusta fusión entre la biotecnología industrial y agrícola y las industrias de la energía, puede crear una nueva independencia estratégica y proteger el clima”

Y de hecho la actual administracion Bush que es tan acusada de  no proteger al clima  ( es decir,  ¿con esto se ve una eventual entrada al acuerdo de Kyoto por parte de EE.UU.?) anunció en el informe anual del año 2006,  que su gobierno dedicaría

“fondos adicionales de investigación para hallar métodos de punta para producir etanol, no sólo a partir del trigo, sino de astillas de madera, tallos de plantas y pastos altos”.
Los promotores de la biología sintética esperan que la promesa de un “cura tecnológica verde” —
microbios sintéticos que fabriquen biocombustibles baratos o pongan un alto al cambio climático— sea
tan seductora que la tecnología gane la aceptación del público pese a sus riesgos y peligros.

Obviamente, eso no es tan bonito como suena:

"La biología sintética es uno de esos “métodos de punta” para la producción de biocombustibles a los que aludió el presidente Bush. Esa parte de su discurso fue escrita pocos días antes por Aristides Patrinos, en aquel entonces director asociado de la oficina de investigación biológica y ambiental del Departamento de Energía estadunidense.148 En el Departamento de Energía, Patrinos supervisó el Proyecto Genoma Humano y más recientemente el programa Genomas para la Vida [Genomes To Life, o GTL] —que
respalda investigación que permita a la biología sintética se abocarse a la producción de biocombustibles
tales como el etanol y el hidrógeno. El programa GTL promueve también la investigación acerca de “curas tecnológicas” como el secuestro del carbón, con el fin de mitigar el cambio climático. Dos meses después del discurso de Bush, Patrinos abandonó el Departamento de Energía para asumir el cargo de presidente de la nueva compañía de Craig Venter, Synthetic Genomics, Inc. La compañía intenta utilizar la diversidad microbiana colectada de muestras de agua marina, como materia prima para crear un nuevo microbio sintético —uno diseñado para acelerar la conversión de detritos agrícolas en etanol."

"Si cualquiera de estos enfoques de biología sintética funciona,- continua el informe de 70 páginas de ETCGroup- el paisaje
agrícola podría transformarse con rapidez conforme los agricultores planten más Panicum virgatum o miscanto, no sólo en Norteamérica sino por todo el Sur global. El Departamento de Energía estadunidense considera al etanol de celulosa como “una fuente de combustible “neutral en cuanto al carbono” (es decir, que la cantidad de CO2 absorbido en el crecimiento de las plantas que producen biomasa es, en términos gruesos, equivalente al producido al quemar el combustible.
Pero estos cálculos relativos al carbono son controvertidos porque es difícil, si no imposible, sustanciarlos).

Afirmar que el etanol de celulosa es neutral respecto al carbono, sin embargo, tal vez signifique calificarlo como un “mecanismo de desarrollo limpio”, CDM por sus siglas en inglés, de acuerdo con las regulaciones del Protocolo de Kyoto —un esquema establecido para premiar a las compañías contaminantes con “créditos de emisión” si invierten en proyectos de “energía limpia” en el Sur global. Los críticos de la sociedad civil consideran estos CDM como “disfraces verdes” para la industria, esquemas subsidiados con fondos públicos que no combatirán el cambio climático ni disminuirán sus causas. Según los CDM,las industrias del Norte que inviertan en grandes plantaciones de cultivos de energía en el Sur podrán balancear estos proyectos contra sus emisiones. De los 408 CDM registrados hasta mediados de noviembre de 2006, 55 son descritos como “proyectos de energía de biomasa”. India es el “país anfitrión” de 32 de estos 55 proyectos.

Ingeniería genética extrema: una introducción a la biología sintética

Efectos ambientales de la producción de etanol – Fuente: Wikipedia

"Contaminación del aire

Comparado con la gasolina sin plomo convencional, el etanol es una fuente de combustible que arde formando dióxido de carbono y agua, como la gasolina. Para cumplir la normativa de emisiones se requiere la adición de oxigeno para reducir emisiones del monóxido de carbono. El aditivo metil tert-butil éter actualmente se está eliminado debido a la contaminación del agua subterránea, por lo tanto el etanol se convierte en un atractivo aditivo alternativo. Como aditivo de la gasolina, el etanol al ser más volátil, se lleva consigo gasolina, lanzando así más compuestos orgánicos volátiles (VOCs Volatil Organic Compounds).

El uso de etanol puro en lugar de gasolina en un vehículo aumenta las emisiones totales del dióxido de carbono, por cada kilómetro, en un 6%. Si de algún modo se reduce la emisión total, pudiera deberse al proceso agrícola que se necesita para crear el biofuel que produce ciertas emisiones del CO.

Considerando el potencial del etanol para reducir la contaminación, es igualmente importante considerar el potencial de contaminación del medio ambiente que provenga de la fabricación del etanol. En 2002, la supervisión de las plantas del etanol reveló que lanzaron VOCs en una tasa mucho más alta que la que se había divulgado anteriormente. Se producen VOCs cuando el puré fermentado de maíz se seca para venderlo como suplemento para la alimentación del ganado. Se pueden unir a las plantas oxidantes termales u oxidantes catalíticos para consumir los gases peligrosos.

Efectos del etanol en la agricultura

Los ecologistas han hecho algunas objeciones a muchas prácticas agrícolas modernas, incluyendo algunas prácticas útiles para hacer el bioetanol más competitivo. Los efectos a los campos afectaría negativamente a la producción para consumo alimetario de la población.

Recurso renovable

El etanol puede convertirse en una opción interesante a medida que la humanidad se acerque al fin de otras fuentes como el petróleo o el gas natural.

De todas formas para que pueda considerárselo un recurso realmente renovable el balance energético debe ser positivo. Es importante que en los debates aún abiertos las versiones pesimistas advierten del uso de pesticidas y fertilizantes. De todas formas la cantidad de pesticidas utilizados varía mucho de si el maíz va dirigido a las personas o a los motores, ya que es en la primera opción en el que se hace un uso más intenso de los pesticidas.

Economía

Dependencia del petróleo

Casi cualquier país con suficiente terreno en su territorio puede producir etanol para su uso como combustible. A diferencia del petróleo, que debe ser extraído de unos yacimientos no existentes en todas las regiones.

El etanol es pues una alternativa interesante, que puede incluso ayudar a mitigar las tensiones internacionales derivadas de la dependencia y adicción de algunos países por el petróleo. Aunque en realidad todo esto depende del balance energético (no del económico), ya que el cultivo y procesado de agro-combustibles se realiza actualmente con petróleo por el uso de agroquímicos y maquinaria, por lo que en el mejor de los casos el proceso equivale a un pequeño aumento del rendimiento energético del petróleo si el balance energético es positivo; pero en caso de incluir el ciclo de vida completo, incorporando por ejemplo la energía necesaria para producir y reparar la maquinaria agrícola y la usada en el proceso de destilación y fermentación, entonces hace aparición el balance negativo, es decir, consume más energía fósil que la renovable que produce.

Este es un tema que esta en debate candente desde hace un par de años, donde se discute los pro y los contra de la producción de etanol…

Más info – en inglés-

Clearing the air on ethanol – New research predicts that E85 vehicle emissions could cause just as many deaths as gasoline, or more.

Demuestran la falsedad de la supuesta percepción extrasensoria (PES)

Fuente: Neofronteras

Casi la mitad de los adultos de los EEUU creen en la existencia de la PES, que incluye la telepatía, clarividencia y precognición. La gente informa de vez en cuando de la adquisición inexplicada de información, como sentir la muerte de un ser querido, o saber la identidad del que llama por teléfono antes de descolgar. Estos fenómenos, que se pueden explicar de manera natural y racional, son frecuentemente “explicados” como procesamientos paranormales del cerebro por aquellos que creen en este tipo de creencias irracionales.

Psicólogos de la universidad de Harvard han desarrollado un nuevo método para investigar la supuesta percepción extrasensorial (PES) que puede resolver el debate sobre su existencia.
La investigación fue realizada por Samuel Moulton, estudiante de doctorado del departamento de psicología de la Facultad de artes y ciencias de la Universidad de Harvard, junto a Stephen Kosslyn y John Lindsley profesores de Psicología en dicha universidad. Los resultados se publican este enero en Journal of Cognitive Neuroscience.
Los científicos usaron un escáner cerebral para comprobar si los individuos tenían conocimientos que no podían se explicados a través del procesamiento perceptivo normal.

Los autores afirman que si la percepción extrasensorial (PES) existiera, los voluntarios deberían de responder de diferente manera al PES y al procesamiento perceptivo normal. Pero en lugar de eso, los resultados muestran que la respuesta del cerebro de los participantes es idéntica en ambos casos, a pesar de que reaccionaban fuertemente a las diferencias en cómo de emocional era el estímulo.

Casi la mitad de los adultos de los EEUU creen en la existencia de la PES, que incluye la telepatía, clarividencia y precognición. La gente informa de vez en cuando de la adquisición inexplicada de información, como sentir la muerte de un ser querido, o saber la identidad del que llama por teléfono antes de descolgar. Estos fenómenos, que se pueden explicar de manera natural y racional, son frecuentemente “explicados” como procesamientos paranormales del cerebro por aquellos que creen en este tipo de creencias irracionales.

Por desgracia el gobierno de los EEUU dio justificaciones a esta gente cuando gastó (inútilmente) millones de dólares en el reclutamiento de psíquicos y otros doblacucharas durante la guerra fría. Encima, en los resultados de esos “estudios” se informó de lo que parecía ser la existencia, obviamente falsa, de la PES, quizás por un mal diseño de los experimentos. Posteriormente muchos otros fracasaron a la hora de reproducir dichos resultados.


Metodologia

Para desarrollar mejores tests que comprueben la PES, los autores del estudio de ahora diseñaron un nuevo método que directamente analiza la fuente de los supuestos fenómenos de PES: el cerebro humano.
Argumentan que como el cerebro realiza la percepción y almacena información (incluso eventos en los cuales no se es consciente de percibir, o información almacenada que no se recuerda conscientemente), oferta unas posibilidades de comprobar la PES de una manera mucho más amplia que los tests basados en el comportamiento.
Según los autores, el cerebro de una persona muestra una respuesta reprimida a estímulos que ha visto anteriormente, también cuando dichos estímulos están presentes subliminalmente y la persona no se entera conscientemente de haberlos visto. Además, se muestra una respuesta reforzada a estímulos que la persona está esperando que sucedan (¿la llamada telefónica esperada?). Como conocimiento y expectativa predisponen y condicionan la actividad cerebral, las imágenes de la actividad neurológica ofrecieron a estos investigadores un test potente y único para comprobar los procesos cognitivos y perceptúales sutiles.
Para estudiar si la PES existía o no, estos investigadores enfrentaron a los participantes del experimento a dos clases de estímulos: estímulos PES y estímulos no-PES. Estos dos tipos de estímulos eran idénticos salvo por una diferencia: el estímulo PES no sólo se presentaba visualmente a los voluntarios, además se les presentaba (supuestamente) de forma telepática, de forma precognitiva y por clarividencia.

Leer articulo completo

Enlaces relacionados:

Using Neuroimaging to Resolve the Psi Debate

The Neurocritic

Si la Tierra hubiera sido un poco mas pequeña las placas tecnonicas no se hubieran originado y tal vez ninguna forma de vida hubiera tenido lugar

El origen y movimiento de las placas tectonicas me apasiono desde niña- viviendo claro en la Placa de Nazca, mi pasion y curiosidad no eran nada extrañas.

Segun el articulo de prensa traducido por Kanijo, si la Tierra hubiera sido un poco mas pequeña las placas tecnonicas no se hubieran originado y , tal vez, ninguna forma de vida hubiera tenido lugar.

La Tierra: ¿Un planeta en la línea fronteriza de la vida?

Fuente: Ciencia Kanija

"Nuestro planeta está cambiando ante nuestros ojos, y como resultado, muchas especies viven al límite. Aún así la Tierra ha estado en el límite de habitabilidad desde el principio. Un nuevo trabajo de los astrónomos del Centro Harvard-Smithsoniano de Astrofísica demuestra que si la Tierra hubiese sido ligeramente menor y menos masiva, no habría tenido placas tectónicas – las fuerzas que mueven los continentes y construyen montañas. Y sin placas tectónicas, la vida tal vez nunca se hubiese afianzado en nuestro mundo.

“Las placas tectónicas son esenciales para la vida tal y como la conocemos”, dijo la colombiana Diana Valencia de la Universidad de Harvard.

“Nuestros cálculos demuestran que más grande es mejor cuando se trata de la habitabilidad de los planetas rocosos”.

Esta investigación fue el tema de una conferencia de prensa en la 211 reunión de la Sociedad Astronómica Americana.

La tectónica de placas implica el movimiento de enormes pedazos de roca, o placas, de la superficie de un planeta. Las placas se extienden deslizándose unas bajo otras, e incluso colisionando entre sí, elevando gigantescas zonas montañosas como el Himalaya y la Cordillera de los Andes.
Las placas tectónicas obtienen su energía del magma que hierve bajo la superficie, de forma similar a una taza burbujeante con chocolate. El chocolate de arriba se enfría y forma una piel o corteza, de la misma forma que el magma se enfría para formar la corteza del planeta.

Las placas tectónicas son cruciales para la habitabilidad de un planeta debido a que permiten una química completa y reciclan sustancias como el dióxido de carbono, que actúa como termostato y mantiene la Tierra con un clima suave. El dióxido de carbono que está encerrado en las rocas se libera cuando las rocas se funden, retornando a la atmósfera desde los volcanes y dorsales oceánicas.

“Reciclar es importante incluso a escala planetaria”, explicó Valencia.

Valencia y sus colegas, Richard O’Connell y Dimitar Sasselov (de la Universidad de Harvard), examinaron los extremos para determinar si las placas tectónicas serían más o menos probables en mundos rocosos de distintos tamaños. En particular, estudiaron las conocidas como “súper-Tierras”- planetas de más del doble del tamaño de la Tierra y hasta 10 veces más masivos. (Si fuese mayor el planeta atraparía gas a medida que se forma, convirtiéndose en algo similar a Neptuno o incluso Júpiter).

El equipo encontró que las súper-Tierras serían geológicamente más activas que nuestro planeta, experimentando una tectónica de placas más vigorosa debido a unas placas más finas sometidas a mayor tensión. La misma Tierra se encontró que era un caso límite, lo que no sorprende dado que el planeta ligeramente menor Venus es tectónicamente inactivo.

“Podría no ser una coincidencia que la Tierra sea el mayor planeta rocoso de nuestro Sistema solar, y también el único con vida”, dijo Valencia.

Las búsquedas de exoplanetas han dado como resultado cinco súper-Tierras hasta el momento, aunque ninguna de ellas tiene temperaturas amigables para la vida. Si las súper-Tierras son tan comunes como sugieren las investigaciones, entonces es inevitable que algunas disfruten de órbitas similares a la de la Tierra, haciéndolas excelentes hogares para la vida.

“No sólo hay más planetas potencialmente habitables, sino MUCHOS más”, afirmó Sasselov, que es el director de la Iniciativa Orígenes de la Vida de Harvard.

De hecho, una súper-Tierra podría mostrarse como un popular destino vacacional para nuestros descendientes en un lejano futuro. Los “anillos de fuego” volcánicos podrían extenderse por el globo mientras el equivalente al Parque de Yellowstone burbujearía con manantiales termales y estallarían con cientos de géiseres. Incluso mejor, sería posible una atmósfera similar a la Tierra, aunque la gravedad de la superficie sería de tres veces la de la Tierra en las mayores súper-Tierras.

“Si un humano fuese a visitar una súper-Tierra, experimentaría un poco más de dolor de espalda, pero merecería la pena visitar tan grandioso destino turístico”, sugirió Sasselov con una sonrisa."

Leer articulo completo

Enlaces relacionados:

La luna ¿el futuro “Nuevo Mundo”?


Stephen Hawking, la colonización del espacio y el calentamiento global

Se elabora informe sobre mitos y creencias pseudocientíficas de celebridades

Interesante informe sobre mitos y errores sobre afirmaciones" cientificas" que son difundidas a manera de declaraciones de conocidas personalidades a traves de los medios de comunicacion. Este informe incluye, ademas un apartado sobre el Cambio Climatico.

Fuente: Ciencia Barrapunto

"Vía el diario El Mundo, podemos leer acerca del interesante trabajo que realiza la asociación británica Sense About Science, un grupo independiente que cuenta con la participación de más de 2000 científicos y especialistas para corregir los errores y mitos que difunden los media cuando hablan de ciencia, ofrecer un punto de información científica al público, mejorar la calidad de los debates públicos y promover, en fin, una mayor responsabilidad por parte de los famosos a la hora de hacer afirmaciones sobre cuestiones científicas.

El grupo ha recopilado en un reciente informe algunas afirmaciones pseudocientíficas que celebridades de diversos ámbitos han hecho a lo largo de 2007 sobre ocio (el famoso brain training), física, química, nutrición, medicina y otros aspectos relacionados con la salud (productos "biológicos", "sin química", "medicinas alternativas", etc.), que suelen ser focos de charlatanería pseudomédica. La asociación recomienda a los famosos que, "antes de hacer afirmaciones públicas sobre ciencia, les hagan una llamada" para informarse mejor.

El problema es que muchos de estos "errores" son deliberados, y sus promotores no están interesados en corregirlos, pues forman parte de campañas de publicidad sobre toda clase de productos pseudomédicos, con la salud como principal reclamo.Aunque se incluye en el informe un breve epígrafe sobre cambio climático (algo que obvia El Mundo), un terreno muy abonado para la pseudociencia de los famosos, no se menciona al que en este 2007 ha sido más famoso e influyente de todos ellos, ni a sus verdades inconvenientes.El informe en PDF."

Enlaces relacionados:Carl Sagan La carga del escepticismo

Usan algoritmos para identificar pensamientos asociados a objetos

Fuente: Neofronteras

Un estudio logra identificar en la actividad cerebral los pensamientos que se corresponden a objetos familiares específicos.

Un equipo de Carnegie Mellon University, compuesto por científicos especialistas en informática y en neurociencias, y liderado por Marcel y Tom M. Mitchell, logra combinar métodos de aprendizaje informático con imágenes de la actividad cerebral y encuentra una manera de identificar dónde se producen los pensamientos y percepciones sobre objetos familiares en el cerebro de unos voluntarios, y cómo analizar el patrón de actividad para identificar dichos objetos.

Para el estudio se utilizó a doce voluntarios y un sistema de imagen por resonancia magnética nuclear. A los sujetos se les mostraba, de uno en uno, diez dibujos de objetos diferentes, cinco relativos a herramientas y cinco relativos a la vivienda, y se les preguntaba que pensaran en los objetos que poseían correspondientes a los dibujos. El método desarrollado permitía a los investigadores determinar con precisión cuál de los dibujos estaba viendo el sujeto en cuestión basándose en el patrón de actividad neurológica de todo el cerebro en conjunto.

Los investigadores excluyeron la información proveniente del córtex visual adonde llega la información visual en bruto y se concentraron en otras partes del cerebro.
Encontraron que el patrón de actividad evocado por un objeto no estaba localizado solamente en un lugar del cerebro. Por ejemplo, cuando se piensa en un martillo se activaban muchos lugares. La información relativa al martillo comprende, entre otras, a la información de cómo manejarlo, que activa las áreas motoras del cerebro, y comprende la forma del mismo, que activa otras regiones.

Según los investigadores, este estudio es el primero que informa haber logrado la capacidad de identificar procesos de pensamiento asociados a objetos individuales simples. En otros trabajos anteriores se mostró que era posible distinguir categorías de objetos con el mismo “significado”, como “herramienta” o “edificio”, pero no se distinguían objetos en concreto dentro de cada categoría.

El nuevo método implica entrenar a un programa informático para extraer los patrones específicos de actividad cerebral de los participantes a partir de los datos recogidos en la primera parte del estudio. Los datos procedentes del aprendizaje informático no se utilizaban posteriormente, de este modo el algoritmo nunca era expuesto con anterioridad a exactamente los mismos patrones que se pretendían identificar.


¿Son los patrones de actividad intercambiables entre las personas?

Según los investigadores la respuesta es afirmativa. Entrenando el programa con datos procedentes de un individuo era posible saber en qué objetos pensaba otra persona. Por tanto, las personas piensan sobre un mismo objeto de manera muy parecida.
Según Mitchell este resultado resuelve de paso otro misterio filosófico: ¿Es la percepción del color azul, por ejemplo, la misma para todas las personas? Según este investigador la percepción debe de ser la misma debido a esta manera común de pensar.
Este método de usar algoritmos para identificar pensamientos asociados a objetos concretos abre nuevos caminos, no ya a la identificación de figuras, sino además a la identificación de palabras o frases.

Enlaces relacionados:

Se avanza en la comprensión de los mecanismos cerebrales que nos permiten articular y comprender el lenguaje

4,500 millones de años tendria el meteorito caido en Puno en septiembre de 2007

Reprodizco esta informacion aparecida en Blographos hace unas semanas y que parece bastante

importante para el estudio del origen de nuestro planeta:
Meteorito que impactó en Puno (Perú) tendría 4,500 millones de años

"Hace unos cuantos meses (16 de septiembre de 2007) un meteorito impactó en la región de Puno, para ser un tanto más precisos cerca la comunidad de Carancas, distrito de Desaguadero en la provincia de Chucuito, Puno (ver mapa).

El cráter ocasionado por aquella roca espacial fue considerable y los gases emanados tras la colisión causaron algunos estragos en los pobladores de la zona. Pues bien, al parecer nuestro “canto rodado” espacial tiene una antiguedad de 4,500 millones de años, lo cual no es poca cosa, ya que la tierra sería apenas mayor que él (en edad geológica, claro está)."

Blographos pone como fuente a Science News

Enlaces relacionados:

¿Qué es un meteorito? A propósito de la caída de un meteorito en Puno – Perú

Cae Meteorito en Puno

Ciencia y Religion en las elecciones norteamericanas

Según los científicos, los Estados Unidos están “condenados” si eligen a un presidente creacionista


Fuente: Ciencia Kanija

"El debate de evolución contra creacionismo se ha introducido en la política y las escuelas de Estados Unidos, donde los principalmente conservadores Republicanos defienden la creencia acientífica"
"“La clase de ciencias no debería contener actitudes religiosas”

"Un día después de que el ministro Baptistas ordenado Mike Huckabee finalizase primer en la ronda de apertura para elegir al candidato republicano para la Casa Blanca, los científicos estadounidenses advierten contra la elección de un líder que duda de la evolución.

“La lógica que nos convence de que la evolución es un hecho es la misma lógica que usamos para decir que fumar es peligroso para la salud o que tenemos que tenemos que establecer serias políticas de energía debido al calentamiento global”, dijo el profesor de la Universidad de Michigan Gilbert Omenn a los periodistas en el lanzamiento de un libro sobre evolución en la Academia Nacional de Ciencias (NAS).

“Me preocuparía que un presidente que no cree en los argumentos de la evolución tampoco creyese en esos otros argumentos. Esta es una forma de llevar a nuestro país a la ruina”, añadió Omenn, que es parte de un panel de expertos en el lanzamiento de “Ciencia, Evolución y Creacionismo”.

El antiguo gobernador de Arkansas Huckabee dijo en un debate en mayo que no creía en la evolución.

Una encuesta llevada a cabo el año pasado mostró que en 53 por ciento de los norteamericanos creían que los humanos se habían desarrollado a lo largo de miles de millones de años a partir de formas de vida menos avanzadas – la teoría de la evolución – mientras que el 47 por ciento no.

Algunos de los encuestados decían creer en ambas, tanto en la evolución como el creacionismo – la creencia de que Dios creó a la humanidad en un momento concreto del tiempo.

El debate de evolución contra creacionismo se ha introducido en la política y las escuelas de Estados Unidos, donde los principalmente conservadores Republicanos defienden la creencia acientífica.

En 2004, una escuela del distrito de Pennsylvania se encontró en el centro de la tormenta nacional después de que su panel educativo votase un requerimiento para que se leyese una afirmación sobre el creacionismo a los estudiantes antes de empezar la enseñanza sobre la evolución en la clase de ciencia.

El panel de la escuela fue expulsado al año siguiente.

“Ciencia, Evolución y Creacionismo” se dirige al público general y a los profesores, y presenta en términos simples la comprensión actual científica de la evolución y la importancia de enseñarla en clase de ciencia.

Un día después de su victoria en Iowa, Huckabee moderó su postura antievolucionista, diciendo en una entrevista por televisión que la pregunta de si debe enseñarse el creacionismo en las escuelas no era “un tema para nuestro presidente”.

El Presidente de los Estaos Unidos George W. Bush ha dicho que apoya la enseñanza del creacionismo del “diseño inteligente” a los estudiantes estadounidenses, para presentar a los más jóvenes distintas escuelas de pensamiento.

El diseño inteligente es una teoría propuesta por grupos conservadores cristianos y algunos científicos de los Estados Unidos, que dicen que los organismos biológicos complejos no pueden explicarse simplemente a través de opciones evolutivas y debe ser el trabajo de un diseñador inteligente – es decir, Dios.

Omenn y el resto de miembros del panel en el lanzamiento del libro dijeron categóricamente que el creacionismo debería ser prohibido de las clases de ciencia.

“La investigación científica no trata de aceptar una afirmación o pasaje de las escrituras por la fe. Trata de explorar la naturaleza, por lo que en realidad no hay lugar en la clase de ciencia para el creacionismo o el creacionismo de diseño inteligente”, dijo Omenn.

“No enseñamos astrología como alternativa a la astronomía, o brujería como alternativa a la medicina”, dijo Francisco Ayala, profesor de ciencias biológicas en la Universidad de California en Irvine.

“Debemos comprender la diferencia entre lo que es ciencia y lo que no. No debemos enseñar creacionismo como alternativa a la evolución”, dijo.

“Mantener unas creencias religiosas no es incompatible con creen en la evolución”, dijo Omenn.

“Pero esto es distinto a decir que las dos pueden enseñarse en clase de ciencia, dado que la religión y la ciencia son dos caminos distintos para conocer el mundo. No tendrían que ser incompatible pero tampoco solapar las esferas del otro”.

“La clase de ciencias no debería contener actitudes religiosas”, añadió.

Enlaces relacionados:

Bajar el libro gratuito de la NAS ( Academia Nacional de las Ciencias), previo registro, Ciencia, evolucion y creacionismo

Resumen y comentario del libro en El sofista

Se avanza en la comprensión de los mecanismos cerebrales que nos permiten articular y comprender el lenguaje

Fuente: Tendencias21

"El lenguaje es una función cerebral altamente compleja que emerge de la interacción entre el desarrollo biológico del cerebro y el medio social. Un estudio reciente, que ha combinado la electroencefalografía y las imágenes de resonancia magnética funcional, ha puesto de relieve las diferencias entre las oscilaciones de la actividad eléctrica neuronal de los dos hemisferios cerebrales, que son las que posibilitan que hablemos y comprendamos el lenguaje. Asimismo, ha descubierto una concordancia entre dichas oscilaciones y las que se suceden en la corteza motora, lo que confirma la enorme complejidad del fenómeno lingüístico. La comprensión de la importancia de la actividad eléctrica del cerebro en el lenguaje podría ayudar a sanar enfermedades como la dislexia o el autismo infantil. Un equipo de científicos del Instituto Nacional de la Salud y de la Investigación Médica de Francia (el INSERM) ha conseguido avanzar en la comprensión de los mecanismos cerebrales que nos permiten articular y comprender el lenguaje, gracias a la combinación de dos técnicas de análisis del cerebro: los electroencefalogramas (registros gráficos de la actividad eléctrica del cerebro) y la resonancia magnética funcional, que permite la detección e identificación de áreas del cerebro en activo.

Según explica el INSERM en un comunicado, el registro simultáneo llevado a cabo con ambas tecnologías ha permitido a los investigadores sugerir las bases fisiológicas que explicarían la especialización del cerebro en la decodificación y producción de palabras, aportando asimismo nuevas pistas para entender las principales patologías de la comunicación humana, como el autismo infantil o la dislexia.

Esta investigación ha reunido, además de a científicos de la unidad del Inserm « Action, Neuroimagerie, Modélisation », de la Escuela Normal Superior de París, a investigadores daneses y alemanes. Sus resultados han aparecido publicados en la revista Neuron.

Diferencias fisiológicas

El cerebro humano tiene la particularidad de estar dividido en dos partes que funcionan de manera distinta en lo que se refiere al procesamiento del lenguaje. Por ejemplo, el hemisferio derecho se encarga de la decodificación y la producción de las palabras, mientras que el izquierdo procesa el reconocimiento de la voz de nuestros interlocutores, explican los científicos.

Nuestro cerebro, al igual que el de muchas otras especies animales, presenta asimismo una corteza auditiva izquierda más desarrollada que la corteza auditiva derecha, y su contenido celular es ligeramente distinto.

Esta asimetría estructural podría ser el origen de la especialización del hemisferio izquierdo en la decodificación de la palabra, especialización que se habría reforzado durante el proceso evolutivo por una utilización conjunta de la vocalización y de la gesticulación manual con la mano derecha, que depende de regiones cerebrales próximas a esta corteza auditiva izquierda.

Y distinción en la actividad eléctrica neuronal

Los científicos, empleando las tecnologías antes mencionadas, han demostrado que la corteza auditiva izquierda y la derecha presentan además una actividad eléctrica neuronal distinta, a partir de la medición de la actividad cerebral de 20 voluntarios en estado de reposo, sin estímulos externos.

En los registros realizados, la corteza izquierda presentó una actividad eléctrica oscilatoria espontánea de una frecuencia de alrededor de 40 Hz, frente a la actividad registrada en la corteza auditiva derecha, mucho menor, de 4 Hz. Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un evento.

Estas oscilaciones espontáneas, modulando de manera global y regular la respuesta individual de las neuronas de la corteza auditiva, podrían actuar como un mecanismo de registro de las señales auditivas. Así, la corteza auditiva izquierda cribaría la información auditiva más rápidamente que la corteza derecha, lo que la haría más sensible a las variaciones rápidas de la palabra, permitiéndole distinguir los diferentes sonidos del lenguaje o fonemas.

La corteza derecha sería menos sensible a estos fonemas, pero más sensible a las regularidades acústicas de la voz y a las variaciones lentas de la palabra, importantes para reconocer al interlocutor y la entonación de las conversaciones, explican los científicos.

Lenguaje y cerebro

Desde el siglo XIX, los especialistas han intentado comprender cómo nuestro cerebro produce y comprende el lenguaje, una función cerebral altamente compleja que emerge de la interacción entre el desarrollo biológico del cerebro y el medio socia

l.

Así, se ha llegado a la conclusión de que, en el cerebro, el procesamiento del lenguaje se produce en múltiples áreas interrelacionadas que trabajan de forma coordinada para la emisión, la comprensión y la integración de mensajes lingüísticos.

En la distribución neuroanatómica del lenguaje determinada por los modelos clásicos del habla de los científicos Carl Wernicke y Ludwig Lichtheim, se establecieron dos áreas esenciales en el procesamiento del lenguaje: el área de Wernicke (situada en la región posterior del lóbulo temporal izquierdo y que descodifica la información auditiva del lenguaje) y el área de Broca (sección del cerebro humano involucrada en la producción del habla, el procesamiento del lenguaje y la comprensión).

Además, en las últimas décadas, el desarrollo de las técnicas de neuroimagen cerebral, como las utilizadas en el presente estudio, han permitido explorar la organización funcional del lenguaje en nuestro cerebro en directo, es decir, en vivo.

Carga cientifica de Brasil y Argentina es enviada con exito en mision suborbital

Astroseti lo cuenta asi:
El cohete, un VS30 de construcción brasilera, fue lanzado desde la base brasileña Barreira do Inferno, en el estado de Rio Grande do Norte.
La carga científica consistía en un GPS experimental desarrollado por la Universidad Estatal de Rio Grande do Norte mas componentes de un Sistema de Navegación, Guiado y Control desarrollado en Argentina para ser utilizado en futuras misiones espaciales.
El vuelo duró 9’40" y alcanzó una altura de 140 kms, tras lo cual la carga útil (de 320 kgs) inició un descenso que amortiguado convenientemente por un sistema de paracaídas, permitió su rescate en perfectas condiciones por la marina brasilera en el Océano Atlántico a 122 kms de la base de lanzamiento.
El cohete monoetapa VS30 de diseño y fabricación brasileña mide unos 7,9 metros de altura y pesa 1.500 kilos

Enlaces:

LOGRO DE LA COOPERACION ESPACIAL ENTRE ARGENTINA Y BRASIL

Auto-organizacion en sistemas economicos – Andres Schuschny

Interesante tesis de Andres Schuschny para el Doctorado en Economía en la Facultad de Ciencias Económicas de la Universidad de Buenos Aires.

Andres Schuschny trabaja actualmente en la Comisión Económica para América Latina y el Caribe (CEPAL) (Economic Commission for Latin America and the Caribbean (ECLAC) United Nations por lo que resulta interesante el analisis de los sistemas economicos en la actualidad desde la llamada Ciencia de la complejidad.

Auto-organizacion en sistemas economicos

Contenido de la Tesis

El objetivo que dio origen a esta tesis fue estudiar los fenómenos de auto-organización que resultan de la interacción entre los numerosos agentes que operan en un sistema económico. El tema este, por cierto, muy amplio; aunque la literatura reciente presenta algunos avances, el análisis realizado es todavía incipiente. El enfoque que se pretende plantear admite una multiplicidad de las perspectivas teóricas. Al margen de la indudable utilidad del análisis económico tradicional, éste suele considerar a la coordinación de muchos procesos de interacción económica como un hecho dado o pre-supuesto. Aquí, la búsqueda se orienta a la representación de sistemas económicos a través de un enfoque que podemos llamar constructivo (o “bottom up”) basado en las teorías que pueden agruparse bajo el rútulo de las ciencias de la complejidad.

Con las salvedades ya hechas, el objetivo ha sido individualizar las propiedades que permiten pasar de un nivel de complejidad a otro mayor. Si ésto pudiera hacerse, los mecanismos de auto-organización encontrados implicarían una reducción de los grados de libertad “efectivos” de los sistema económicos; a su vez, ello permitiría establecer puentes entre las descripciones “micro” y “macroeconómicas”. De todos modos, los resultados que se muestran son sin duda modestos. No ha sido posible seguir una única línea de razonamiento; la tesis más bien se compone de un conjunto de “piezas analíticas”, de validez limitada, cada una de las cuales, separadamente, se vincula con un tipo particular de comportamiento emergente en un determinado contexto económico.

Así mismo, se muestran algunos ejemplos sobre cómo la estrecha interacción entre los agentes y su naturaleza no lineal, dan lugar a una dinámica disipativa, de carácter complejo, que comporta una disminución en los grados de libertad que son realmente efectivos. Conciliar las descripciones micro y macro de un sistema económico requiere de etapas intermedias en las que se pongan de manifiesto los mecanismos de auto-organización y de reducción de grados de libertad efectivos.

La mayoría de los modelos que se realizaron han sido sólo representables computacionalmente.

Así por ejemplo la heterogeneidad en un sistema es analizada siguiendo a evolución de múltiples agentes en interacción tomando en consideración toda la diversidad que ello implica. De este modo la simulación mediante experimentos numéricos hace posible muchas veces no pagar el altísimo tributo en abstracción y simplificación que es necesario para que los modelos sean tratables analíticamente.

Sin embargo, si bien este recurso hace posible el estudio de situaciones que no son abordables de manera analítica posee también serias limitaciones. En primer lugar, mencionemos que se da un paso atrás en materia de rigor y generalidad. Por esta vía se es sólo capaz de comprobar y orientar nuestra intuición, no de demostrar teoremas o propiedades con el rigor propio de los tratamientos matemáticos formales.

El vínculo con la computación es, sin embargo más que meramente instrumental. La economía ha basado tradicionalmente muchos de sus análisis en la noción de que los agentes determinan sus acciones optimizando alguna función de utilidad o beneficio. Sucesivas generalizaciones de este concepto llevan a considerar agentes ideales con una capacidad de cómputo virtualmente infinita ya que situaciones realistas hacen que dicha optimización comporte la solución de problemas de complejidad combinatoria. Para subsanar esta falta de realismo se ha impulsado la alternativa de estudiar la posibilidad de representar la capacidad procedural de los agentes de manera algorítmica. Un sistema económico de múltiples agentes es considerado en este contexto como un gran sistema e procesamiento distribuido cuyas posibilidades, en tanto sistema dinámico, no pueden sino formalizarse mediante recursos computacionales. El uso y la reducción de la evolución de un sistema a términos computables es pues algo más profundo que el mero recurso instrumental de la simulación.

En muchas de las situaciones representadas, los comportamientos individuales esquemáticos dan lugar a comportamientos globales (”comportamientos emergentes“) del sistema como un todo que son de una gran riqueza y diversidad. En este sentido el todo es mucho más que la suma de sus partes. Los modelos de este tipo son útiles para comprender mejor la aparición y los alcances de los mecanismos de auto-organización.

Los enfoques que presentamos surgen de un panorama más abarcativo aun en el que se supone que el orden se genera a partir de situaciones de desequilibrio (el Premio Nobel Ilya Prigogine lo define como orden a partir de fluctuaciones). Este enfoque interpreta que el orden y la estabilidad pueden surgir en sistemas complejos adaptativos de modo dinámico merced a mecanismos de realimentación positiva que son posibles en situaciones lejanas al equilibrio. Los modelos que presentamos no pretenden indagar sobre todas las características de esta dinámica previa subyacente. Consecuentemente en los modelos se presupone cierto orden básico ya establecido y se analizan efectos adicionales de autoorganización.

En un capítulos inicial, se introduce al lector en los conceptos fundamentales de la teoría de los sistemas dinámicos; se realiza una clasificación de ellos y se analizan con especial énfasis sistemas representados en tiempo discreto. A modo de ejemplo se realiza un análisis de estabilidad lineal de un sistema que describe un conjunto de mercados acoplados. Utilizando algunos resultados de la teoría de matrices estocásticas se demuestra que cuando mayor es el número de mercados, mayor es la probabilidad de que el sistema sea inestable. Luego se definen y describen las características elementales de los sistemas complejos adaptativos, su relación con los sistemas económicos y se enumeran las posibles áreas de investigación en las que esta teoría puede resultar útil en futuros desarrollos.

Luego se propone una descripción detallada de los problemas derivados de la representación formal del comportamiento de los agentes económicos en la modelística tradicional.

Se describe un modelo económico simple en el que la conducta de los agentes puede ser heterogénea ya que coexisten diversos mecanismos de formación de expectativas cuyas proporciones respecto de la población total pueden modificarse como consecuencia de la evolución. Se supone que esta migración entre mecanismos está guiada por el principio de mínimo sesgo (también llamado principio de máxima entropía). El modelo presentado exhibe, bajo ciertas condiciones, evoluciones caóticas. Resulta interesante puesto que muestra una metodología para incorporar heterogeneidades en el comportamiento de agentes económicos.

No obstante, la existencia de dinámicas caóticas en modelos discretos es motivo de cuestionamiento. En las siguientes secciones del capítulo se analizan estas objeciones con mayor detalle. Luego se estudia la plausibilidad de que se puedan construir modelos económicos constructivos en los que los agentes económicos operan con racionalidad acotada a partir de una dotación incompleta de información. Se ponen de manifiesto los conflictos típicos que los agentes enfrentan en situaciones más realistas, se consideran los procesos de aprendizaje inherentes y la limitación de resolver “eficazmente” problemas de optimización combinatoria. Se realiza luego una crítica a los modelos con expectativas racionales, presentando como una alternativa válida, la construcción de modelos computacionales que describan el comportamiento de los agentes económicos algorítmicamente. Una manera de formular los procesos de aprendizaje inherentes es a través de algoritmos genéticos o redes neuronales que son descriptos en el mismo capítulo."

Seguir leyendo/bajar contenidos de la tesis Auto-organizacion en sistemas economicos aqui

Enlaces relacionados:

Comisión Económica para América Latina y el Caribe (CEPAL)

¿Que son los sistemas complejos? Compilado de publicaciones 2007

Introducción a la Teoría de los Sistemas Complejos / John Earls

John Earls,la agricultura andina y el TLC : La agricultura andina ante una globalización en desplome

EE.UU recorta el presupuesto a la ciencia basica

… ¿Se imaginaran como sera con nosotros , entonces?

Noticia editada de Neofronteras

La administración Bush y el congreso de los EEUU han acordado recortar gran parte del presupuesto en ciencia básica.

Entre los proyectos que sufrirán recortes para el 2008 está el del Colisionador lineal Internacional (ILC). El nuevo presupuesto hará que muchos científicos del Fermi National Accelerator Laboratory (Fermilab) pierdan sus empleos.

Se calcula que 200 miembros del Fermilab serán despedidos en unos días y que otros tendrán que tomarse dos días mensuales de vacaciones obligatorios sin remunerar. Los directivos de este laboratorio pretenden mantener a toda costa en funcionamiento el Tevatron, que está buscando el bosón de Higgs y que dejará de estar en funcionamiento en 2009.
Pero la Física de altas energías no es la única en sufrir. La contribución de EEUU al ITER (International Thermonuclear Experimental Reactor) casi cae a cero. Pasa de los 160 millones presupuestados a sólo 10. Menos mal que el resto de los socios internacionales contribuirán con sus cuotas y éstos esperan que el proyecto no se retrase demasiado por culpa de EEUU. El ITER representa el futuro (a largo plazo) de las necesidades energéticas de la humanidad y contribuirá a la obtención de energía inagotable sin la creación de residuos nucleares de larga vida.
Estos recortes caen como un jarro de agua fría en la comunidad de físicos. El año, que empezó con grandes esperanzas de aumentar los presupuestos, termina con recortes. Esto se suma además al recorte del Reino Unido en el mismo campo que le impedirán financiar su parte del ILC.

Algunos científicos creen que este presupuesto es el peor presupuesto en ciencia básica que recuerdan y que es especialmente catastrófico en Física de altas energías

Entre los campos que se han salvado están la investigación en energías renovables, en eficiencia energética y en reprocesamiento de residuos nucleares. La investigación sobre sistemas energéticos “limpios” basados en combustibles fósiles sufre incluso un aumento. También la National Oceanic and Atmospheric Administration recibe un aumento de un 7,6% en sus presupuestos de investigación.
La NASA recibe un aumento del 5,7% pero la mayor parte del dinero está destinado a completar la estación espacial y el retorno a la Luna

. De los demás campos en los que trabaja la NASA sólo las ciencias de la Tierra reciben un aumento significativo, mientras que las ciencias planetarias sufren un recorte del 1,4%.
A todo esto se suma que desde hace un tiempo muchos departamentos de ciencia de las universidades norteamericanas languidecen por falta de presupuestos federales. Algunos investigadores decidieron dejar la investigación o jubilarse o están pensando hacerlo. Los demócratas culpan a las amenazas de veto presidencial de este desaguisado. Los republicanos dicen que el congreso simplemente quería mantener las prioridades domésticas. En definitiva, se echan la culpa unos a otros.¿Estará la guerra de Irak pasando factura?

Leer articulo completo en NeoFronteras: Fuertes recortes en ciencia básica en EEUU

Enlaces relacionados:

Nature: Budget blow to US science

Fermilab to cut 200 jobs, staff forced to take unpaid days off

Enlaces locales ( ¿y que se vendra para el 2008?)

El CONCYTEC y la producción de conocimiento a la deriva

La Technology Review del MIT propone los 10 avances tecnologicos que cambiarian el mundo

La Technology Review del MIT propone los 10 avances tecnologicos que cambiarian el mundo:

Euroresidentes lo cuenta asi:

"La biología (biotecnología), nanotecnología e infotecnología tienen y tendrán un protagonismo importante en los últimos progresos y adelantos alcanzados. En pocos años, la innovación tecnológica puede hacer posible hasta una segunda revolución industrial con la construcción de nanomáquinasm desde la mecatrónica a las redes de sensores:

Las diez tecnologías avanzadas que cambiarán el mundo (según el MIT)

  1. Redes de sensores sin cables (Wireless Sensor Networks)
  2. Ingeniería inyectable de tejidos (Injectable Tissue Engineering)
  3. Nano-células solares (Nano Solar Cells)
  4. Mecatrónica (Mechatronics)
  5. Sistemas informáticos Grid (Grid Computing)
  6. Imágenes moleculares (Molecular Imaging)
  7. Litografía Nano-impresión (Nanoimprint Lithography)
  8. Software fiable (Software Assurance)
  9. Glucomicas (Glycomics)
  10. Criptografía Quantum (Quantum Cryptography)

Enlaces:

Sematove