Los peligros del orden – The Perils Of Order

« Hay ventajas en el desorden – tanto en política interior como exterior » remarca David H. Freedman, un periodista al parecer interesado en fenómenos sociales y sistemas complejos, en un artículo que jamás pensé encontrar en Newsweek ( Ed. 5 de marzo de 2007) sobre los peligros de buscar la estabilidad en un mundo regido por la inestabilidad.


The Perils Of Order – Los peligros de orden

Being messy, both at home and in foreign policy, may have its own advantages
« In a small room at the University of British Columbia, students wearing headphones are listening to noise. No, it’s not an indie band’s shred solo blasting through an iPod. The students are participating in an experiment at the school’s Psychophysics and Cognitive Neuroscience Lab, and the noise consists of random static generated by a computer. The question at hand: how badly does a scratchy cacophony interfere with thought?

The researchers are finding, in fact, that the noise improves the workings of the students’ brains. And that’s a result backed up by dozens of studies. It may seem counterintuitive, but the human mind–and a lot of other things, as it turns out–often work better not when they’re neat and highly ordered, but rather when they operate in a messier fashion. That principle may apply not only to how we live and work, but also to how people around the world deal with regional instability, terrorism and natural disasters.

(…)Science backs up the notion that mess has gotten a bad rap, starting with something you learned in high-school physics: anything you do increases the universe’s entropy–that is, disorder. In other words, messiness isn’t the sorry wage of weak character or neglect, it’s the inseparable companion of constructive action. There are only two ways to minimize disorder: don’t do much, or spend lots of energy constantly restoring order instead of spending it on something potentially much more useful. »

Continuar leyendo:


The Perils Of Order

Derivación genética y no selección natural para comprender la evolución humana

Fuente Ciencia kanija

Una nueva investigación liderada por el antropólogo de la Universidad de California (UC) en Davis, Tim Weaver, se añade a las evidencias de que la casualidad, en lugar de la selección natural, explicar por qué los cráneos de los humanos modernos y los antiguos Neandertales evolucionaron de forma distinta. Los hallazgos pueden alterar la forma en que los antropólogos piensan en la evolución humana.

El estudio de Weaver aparece en el ejemplar del 17 de marzo de Proceedings of the National Academy of Sciences. Se basa en las conclusiones de un estudio que él y sus colegas publicaron el año pasado en Journal of Human Evolution, en el cual el equipo comparó las medidas craneales de 2524 humanos modernos y 20 especimenes 20 Neandertales. Los investigadores concluyeron que los cambios genéticos aleatorios, o deriva genética, es lo más probable para las diferencias craneales.

En su nuevo estudio, Weaver y sus colegas analizaron sus datos fósiles usando sofisticados modelos matemáticos – y calcularon que los Neandertales y los humanos modernos se dividieron hace aproximadamente 370 000 años. La estimación es muy aproximada a aquellas derivadas por otros investigadores que han fechado la división basándose en pistas de las secuencias de ADN de los humanos modernos y los Neandertales.

La estrecha correlación entre las dos estimaciones – una basada en los estudios de los huesos y otra en el estudio de los genes — demuestra que el registro fósil y los análisis de secuencias de ADN ofrecen una descripción consistente de la evolución humana durante este periodo de tiempo.

“El mensaje que extraemos puede ser que deberíamos reconsiderar la idea de que todos los cambios morfológicos (físicos) son debidos a la selección natural, y en lugar de esto considerar que algunos de ellos pueden ser debidos a la deriva genética”, dijo Weaver. “Esto puede tener interesantes implicaciones para comprender la evolución humana”.

Weaver llevó a cabo la investigación junto con Charles Roseman, astropólogo de la Universidad de Illinois en Urbana-Champaign, y Chris Stringer, paleontólogo en el Museo de Historia Natural de Londres.

Enlaces relacionados:

Las investigaciones sobre el “poderoso” gen Neandertal

Rompiendo mitos: Diferencia entre humanos y chimpacés sería mucho mayor que 1 % y aún impredecible en porcentaje

La división del trabajo de género en humanos habría hecho la supremacía sobre los neandertales

El “poderoso” gen Neandertal y el habla : biologia antropologia y evolucion

Ocho dudas razonables sobre la necesidad del voto electrónico / Josep M.ª Reniu Vilamala

Buen artículo de Josep M.ª Reniu Vilamala, politólogo miembro del Observatorio del Voto Electrónico (Universidad de Barcelona) , publicado en el último número de la Revista electrónica Internet, Derecho y Política impulsada por los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya.

Ocho dudas razonables sobre la necesidad del voto electrónico

Resumen:

En un momento en que se generaliza el uso de las diferentes soluciones de voto electrónico, parece razonable hacer balance sobre cuáles son los principales obstáculos que esta « última revolución electoral » debe superar. Antes, sin embargo, consideramos necesario discutir los principales malentendidos que se han creado en torno al voto electrónico, así como intentar aclarar cuáles son los motivos que se aducen para su implementación. A partir de aquí, se presentan ocho grandes dudas a las que todavía no se ha dado una respuesta satisfactoria en su conjunto, si bien una buena parte de estos aspectos han sido objeto de especial atención en algunas experiencias de voto electrónico.

Conclusiones

« En primer lugar, partimos de la asunción de que el voto electrónico, en cualquiera de sus diferentes modalidades,
no es en ningún caso una panacea política.

Su generalización no supondrá, per se, una mejora de los procesos electorales ni de la participación política, objetivos que van más allá de la introducción de un aditamento tecnológico.

En segundo lugar, l

a ausencia de políticas gubernamentales centradas en la potenciación y mejora de los valores
cívicos y democráticos así como inversiones en infraestructuras tecnológicas y procesos de alfabetización digital,
dará como resultado la persistencia estructural de la imposibilidad de superar los efectos negativos sobre la
democracia derivados de la brecha digital.

Además, como tercera reflexión,

el voto electrónico debe considerarse como una excelente herramienta complementaria
para la mejora estructural de los procesos electorales. Así, su implementación debería ser gradual, centrándose inicialmente en aquellos colectivos sociales con mayores dificultades para hacer efectivo su derecho de sufragio.

En cualquier caso, y para concluir, en el frontispicio de cualquier proceso de implementación del voto electrónico
debería estar presente la consideración de que,

aunque éste puede apoyar en la generación de una mayor legitimación
democrática del sistema político, en el fondo dicha legitimación deberá descansar en la profundización de los mecanismos de información ciudadana, la promoción de una sólida cultura política, el respeto a los derechos
fundamentales y, como corolario, en la rendición de cuentas por parte de los representantes. »

Enlaces relacionados:


Sobre el voto electrónico y Democracia en nuestro país ¿Idealismo o negocio?

¿Qué pasa con la Agenda Digital Digital Peruana?

¿Qué comentarios hay sobre la Firma de la Carta Iberoamericana de Egov?

El voto electrónico y el déficit democrático europeo:Lo que debemos tener en cuenta en Perú

Fundación Vía Libre “Lo que cuenta no es el voto, sino quien cuenta los votos”(*)

El voto electrónico, esnobismo de la era cibernética

Hacking Democracy

Ciencia 2.0: redes sociales y sistemas complejos

A falta de tiempo para escribir, hoy me toca reproducir una muy buena entrada del biólogo Juan Freire sobre la Ciencia 2.0.
Como dice Joze Luis, al leer el artículo te hace pensar que se esta volviendo a la semilla: Internet se desarrollo, precisamente, como una red de intercambio de investigadores y científicos.

Ciencia 2.0, ¿fuera de la “torre de marfil”?


El artículo Science 2.0 de Ben Shneiderman, publicado en el último número de Science, me llevó a plantear en Soitu.es | Piel digital si ¿Sacará la ‘Ciencia 2.0′ a la investigación de su torre de marfil? (en Wired Science han publicado un artículo sobre el mismo tema, The Internet Is Changing the Scientific Method). Al final, el artículo de Science fue una excusa para reflexionar sobre el concepto de “ciencia 2.0”. Paradójicamente, la ciencia, que explora nuevos territorios, va camino de convertirse en el último ámbito al que se incorporan los cambios de paradigma provocados por Internet y la web 2.0. Suelo publicar en este blog resúmenes e información complementaria de mis artículos aparecidos en otros sitios, pero en este caso, por el tema que trata, lo reproduzco aquí por completo.

Dentro de la ola de lo 2.0, pocos conceptos son tan ambigüos y llenos de dobles o triples interpretaciones como el de ciencia 2.0.

Al fin y al cabo, ¿no ha sido la ciencia siempre 2.0? la creación de conocimiento científico se ha basado en comunidades de pares colaborando en redes abiertas y compartiendo sus resultados. Lo cierto es que esta visión aún políticamente correcta hoy en día tiene poco que ver con lo en que se ha acabado por convertir la ciencia en las últimas décadas del siglo XX. La protección de la propiedad intelectual y las patentes dominan sobre el intercambio libre de conocimiento; este se limita en buena parte limita a los resultados finales en forma de artículos, pero rara vez a los datos originales o los detalles clave de los procedimientos. Pero aún aquí, el acceso abierto a las publicaciones científicas es un fenómeno incipiente que solo en los últimos años empieza a generar apoyos de instituciones relevantes, como es el caso de PubMedCentral de los National Institutes of Health de Estados Unidos o la reciente adopción por la Universidad de Harvard de una política de acceso abierto para los artículos publicados por sus investigadores. Proyectos editoriales exitosos fundados sobre el modelo de acceso abierto, como BioMedCentral y Public Library of Science, siguen siendo minoritarios y aún no han calado en los grandes grupos de editores científicos.

Por otra parte es evidente que las tecnologías de la información tienen que afectar al modo en que se “hace ciencia”. Esta cuestión se ha abordado en su mayor parte desde la perspectiva casi exclusiva de la necesidad de grandes “ciberinfraestructuras” para desarrollar lo que ha venido en llamarse e-ciencia, ámbitos de investigación que requieren grandes recursos computacionales y que se pueden beneficiar de los avances tecnológicos y del uso de Internet como plataforma de trabajo computacional intensivo. Pero, esta, siendo necesaria, no es más que una visión reduccionista e instrumental.

¿Cómo se ve afectada “el resto de la ciencia” que no tiene esas necesidades?, ¿existen cambios culturales y organizativos mediados por la tecnología (como está sucediendo como el resto de la sociedad y la economía)?, ¿es más lenta la transición a la ciencia 2.0 por las instituciones académicas son refractarias a la innovación?, ¿crea el mundo digital nuevos ámbitos de investigación científica que necesitan de cambios metodológicos? Todas estas preguntas pueden configurar el futuro de lo que podríamos denominar “ciencia 2.0”. El artículo Science 2.0 de Ben Shneiderman, profesor de computación en la Universidad de Maryland, aparecido en el número de 7 de Marzo de la revista Science, apunta algunas respuestas a varias de estas cuestiones.

El artículo adopta una interesante doble perspectiva consistente en aprender del “mundo exterior” (desde los negocios al activismo) y, al tiempo aplicar una aproximación científica para comprender el nuevo paradigma de la colaboración en red. Para Shneiderman, eBay, Amazon, Wikipedia, Flickr, MySpace o Facebook, entre otros, son ejemplos exitosos de los que deberían aprender los científicos. Para este objetivo, la metodología debe cambiar por que estos procesos no pueden ser estudiados en condiciones controladas, “de laboratorio”, y debe hacerse observando y estudiando casos en el mundo real. La existencia de enormes bases de datos y de una ciberinfraestructura suficiente para su “minería” mediante computación intensiva son los elementos claves para el éxito de este cambio metodológico.

El artículo de Shneiderman, siendo interesante, se queda en buena medida en una colección de ideas y no acaba por elaborar un modelo coherente de lo que podría ser la ciencia 2.0. Por otra parte, mientras los científicos descubren el mundo 2.0 y se preguntan como incorporarse, el resto de la sociedad les adelanta y empieza a desarrollar acciones tradicionalmente reservadas a las instituciones científicas. Finalmente, cabría preguntarse quien va a hacer la ciencia 2.0 y no tanto como la ciencia convencional se hace 2.0. Quizás valga la pena recordad dos ejemplos que demuestran que la innovación que dará lugar a la ciencia 2.0 está ya sucediendo fuera de las “torres de marfil”.

Hal Varian ha pasado de ser uno de los economistas académicos más reputados, trabajando en la School of Information de la University of California at Berkeley, a convertirse en el Google chief economist. En el número de Febrero de Fast Company, explica como su empresa aplica métodos propios de la investigación científica a una velocidad y escala impensables hasta hace poco (e impensables en el mundo académico):

At the university, you’d work on one problem for months at a time. Here, I have a dozen problems I’m working on–auctions; forecasting; ad hoc statistical, econometric analysis such as how the mortgage crisis affects Google–and I get two weeks to work on them…

You know how genius is described as 1% inspiration and 99% perspiration? Google has a new idea: cyber sweat. We make the computers do the 99% perspiration. I thought it was extremely clever and showed a lot of foresight to build the data collection and testing system into the basic functionality of the search and ad systems. At any one time, Google is running hundreds of experiments on its products and collecting all the results. They’re carefully designed experiments.

El mundo de las editoriales científicas, que ya citaba antes, también esta sufriendo convulsiones importantes. Es paradójico que el artículo Science 2.0 aparezca Science, dependiente de la American Association for the Advancement of Science, que hasta el momento carece de ningún tipo de estrategia coherente en Internet. Por el contrario, la otra revista científica de referencia a nivel internacional, Nature, forma parte del grupo editorial Nature Publishing Group que lleva ya un tiempo desarrollando una estrategia propia enormemente innovadora, situándose por delante de sus usuarios principales, los científicos integrados en las instituciones académicas convencionales. En Estrategia web 2.0 de Nature Publishing Group resumí los principales proyectos incluidos en esta estrategia y analizaba la naturaleza del conflicto entre los innovadores “comerciales” y los conservadores usuarios académicos:

Pero al tiempo, este proyecto se ha enfrentado a diversos problemas y, posiblemente, uno de los más difíciles ha sido el provocado por la apatía de sus propios usuarios (los científicos en este caso), como ha sucedido en su experimento sobre “open peer review” (más aquí). En este caso, los científicos han mostrado un muy escaso interés en poder revisar y criticar en público y en abierto los papers de sus colegas, un proceso que constituye la base fundamental de la evaluación de la calidad científica de los trabajos. Nature es un buen ejemplo de cómo la adaptación institucional puede verse frenada por los propios usuarios. En el informe final publicado en la revista se resume esta aparante paradoja: “Despite enthusiasm for the concept, open peer review was not widely popular, either among authors or by scientists invited to comment.”.

En realidad, en mi opinión, el resultado era previsible por dos razones. Primero, las comunidades científicas son bastante tradicionales en sus comportamientos y reglas de funcionamiento por lo que son reacias a cambiarlos de modo rápido ante la propuesta experimental de una editorial (por mucho que sea una de las más importantes). Segundo, el peer review significa un trabajo adicional que, en estos momentos, ninguna institución científica incentiva. De hecho, las revistas científicas tienen cada vez mayores dificultades para encontrar revisores para los artículos que reciben, y este experimento no ha podido escaparse a esta tendencia.

Lectura relacionada:Pierre Bourdieu El oficio de científico. Ciencia de la ciencia y reflexividad

Enlace relacionado: Sistemas complejos, dinámica del conocimiento y redes sociales / Albert Barabási

Sobre la falsedad de las creencias medicas mas populares

Sencillo articulo sobre  lo que debemos saber respecto a ciertas leyendas medicas que no debemos seguir por no tener absoluta utilidad.

Fuente: Ciencia Kanija

Muchas creencias médicas comunes no son ciertas

¿Deberíamos beber como mínimo ocho vasos de agua al día? ¿Afeitarse provoca que vuelva a crecer más rápido y más fuerte del pelo? ¿Leer con luz tenue estropea tu vista?

Estos son sólo algunos de los mitos médicos comunes que no están comprobados o no son ciertos, de acuerdo con un estudio del número de diciembre de 2007 del British Medical Journal.

Investigadores en los Estados Unidos eligieron siete creencias médicas, defendidas tanto por médicos como por miembros del público general, para el estudio crítico. Entonces buscaron evidencias para apoyar o refutar cada una de estas afirmaciones.

La calidad de las pruebas fue tomada en cuenta y los ejemplos en los cuales no había apoyo de las pruebas las reivindicaciones fueron anotadas.

Los resultados demuestran que todas estas creencias médicas variaban entre falsas y no comprobadas. Por ejemplo, no encontraron evidencias que apoyaran la necesidad de beber ocho vasos de agua al día. En realidad, los estudios aconsejan que la ingesta adecuada de líquidos a menudo se satisface con el consumo de zumos, leche, e incluso bebidas con cafeína. La evidencia clínica también señala los riesgos de beber cantidades excesivas de agua.

La creencia de que sólo usamos un diez por ciento de nuestro cerebro está refutada por estudios en pacientes con daños cerebrales, los cuales indican que el daño en casi cualquier área del cerebro tiene efectos específicos y duraderos tanto en procesos mentales, vegetativos y habilidades conductuales, dicen los autores. Además los estudios de imágenes cerebrales demuestran que ninguna área del cerebro está completamente muda o inactiva.

La creencia de que el pelo y las uñas continúan creciendo después de morir podría ser una ilusión óptica causada por la retracción de la piel tras la muerte, añaden. El crecimiento real del pelo y las uñas requiere una compleja interacción de regulación hormonal que no está presente tras la muerte.

De nuevo, se podría decir que es una ilusión la creencia de que afeitarse provoca que vuelva a crecer más rápido, más oscuro, y más fuerte, dicen. La barba incipiente tras afeitarse crece sin el estrechamiento en el extremo que vemos en el cabello sin cortar, dando la impresión de grosor y aspereza.

Por último, la opinión experta es que leer con luz tenue no daña nuestros ojos, y hay pocas evidencias que apoyen creencias tales como la prohibición de los teléfonos móviles en los hospitales por las interferencias electromagnéticas.

A pesar de su popularidad, todas estas creencias médicas oscilan entre no probadas o falsas, dicen los autores. Sugieren que los médicos podrían evaluar constantemente la validez de sus conocimientos.


Leer traduccion original en Ciencia Kanija

Involúcrate + GNOME Internacional tiene a Lima como sede este 7 y 8 de marzo

Nota de prensa tomada de involucrate.org

Este próximo 7 y 8 de marzo, en el marco del proyecto involucrate.org, Lima será sede un evento internacional de software libre que por primera vez congrega a los verdaderos actores de su desarrollo.

involucrate+GNOME es el nombre de este evento, y aunque el nombre indica la temática, también habrá participación de desarrolladores de otros proyectos de software libre.

Gracias al apoyo de la Fundación GNOME y nuestros generosos auspiciadores, en esta ocasión contaremos con la participación de desarrolladores de GNOME de Chile y Colombia, Dokeos de Bélgica, y peruanos que participan como desarrolladores de proyectos como Debian, Ubuntu, PHP, FreeBSD, GNOME, entre otros.

El sitio web del evento detalla el programa y los ponentes, quienes estarán dispuestos a compartir sus experiencias y conocimientos con los asistentes. Habrá espacio para BoFs y sesiones de programación libres.

El evento se realizará en la Facultad de Ingenieria de Sistemas, Computo y Telecomunicaciones de la Universidad Inca Garcilaso de la Vega (Lima – Perú).

El ingreso es libre previo registro.

gnoem.png

Enlaces relacionados:

Debian Perú

Linux Chix Perú

Invazor C Involucrate + GNOME

Obama invoca a Lawrence Lessig para la renovación de la administración norteamericana

Obama propone abrir el Gobierno y para ello ha acudido a nada menos que Lawrence Lessig para su asesoramiento. Esto es un punto a favor de Obama y en contra de Clinton, quien aunque ésta última sea una candidata mujer a la presidencia, creo que no está apelando a las buenas herramientas para su campaña.

Fuente: Tecnocidanos -Escrito por Antonio Lafuente
Obama, la democracia y las nuevas tecnologías


Obama cree que los ciudadanos deben hacer un seguimiento en tiempo real de las cuentas del estado y de los procesos de toma de decisión para ello Obama ha buscado la ayuda de Lawrence Lessig, fundador de Creative Commons y un defensor del copyleft para formular un plan de cómo aplicar las nuevas tecnologías a la renovación de la política y la administración norteamericana.


Antonio Lafuente comenta que

« Lessig ha quedado, como yo, impresionado con la lectura de Connecting and empowering all americans through technology and innovation, el documento de compromisos que Obama dirige a sus electores. Tiene 9 páginas y está lleno de propuestas con sentido. Como botón de muestra y para abrir el apetito he seleccionado un resumen de las principales medidas que aplicará para conseguir el objetivo de Abrir el gobierno a los ciudadanos (Open Up Government to its Citizens).

Tras un párrafo introductorio en el que se califica a la administración Bush de ser una de las más secretistas y cerradas de la historia, se acusa a los lobbies que actúan en Washington de haber corrompido el normal curso de las cosas públicas. Luego, Obama promete crear un nuevo nivel de transparencia, fiabilidad y participación para los ciudadanos, mediante un paquete de ocho medidas:

  • Hacer accesibles los datos gubernamentales a todo el mundo en un formato estándar.

  • Establecer programas piloto para ensayar formas de participación de los públicos en la toma de decisiones gubernamentales.

  • Exigir a los organismos y agencias públicas que las reuniones y deliberaciones de sus distintos comités o comisiones sean públicos y accesibles por la red.

  • Restaurar el principio básico de que las decisiones del gobierno se basen en la mejor información científica disponible y no en cualquier otra consideración ideológica de los funcionarios.

  • Suprimir la práctica que impide a los ciudadanos controlar los gastos, contratos, ayudas o contactos con cualquier lobby, ya sea a través de las web oficiales, ya lo sea mediante buscadores o de cualquier otra herramienta.

  • Ofrecer la posibilidad a todos los ciudadanos de que durante cinco días puedan comentar o criticar en la web de la Casa Blanca cualquier ley no urgente antes de su aprobación definitiva.

  • Traer la democracia deliberativa directa al Gabinete exigiendo encuentros on-line para responder y discutir cualquier asunto antes de que esté resuelto.

  • Utilizar las nuevas tecnologías, incluyendo blogs, wikis y redes sociales, para modernizar las políticas de comunicación entre las agencias o con el público, y así mejorar el proceso de toma de decisiones.

Las propuestas son más que urgentes. Hasta no hace mucho eran impensables, no sólo porque no disponíamos de las tecnologías necesarias para asegurar la eficacia de todos los procesos que se pondrán en marcha, sino sobre todo porque a la clase política tradicional y dominante (supongo que aquí hay que incluir a la señora Clinton) le debe parecer una locura extender la transparencia desde el poder legislativo al ejecutivo. .

Enlaces relacionados:

La cultura y la propiedad intelectual en la Era digital: Las Licencias Creatives Commons

Elecciones en EE. UU. : ¿Por qué votar o no votar por una mujer ? Las opiniones de dos jóvenes feministas

Blog de Lawrence Lessig  

Globalizado: Los blogs peruanos y las elecciones norteamericanas

Mujeres y pensamiento biológico : del androcentrismo en el conocimiento científico