Midiendo los frutos de la ideología de felicidad

Fuente: Tendencias 21

Cuantificación de la felicidad en el trabajo: El informe PricewaterhouseCoopers


Un informe de la consultora PricewaterhouseCoopers sobre gestión de recursos humanos destaca la importancia que para las empresas tiene “medir” la felicidad de sus empleados. La consultora considera que cuantificar su bienestar puede tener ventajas competitivas para las organizaciones. Esta mediciones se hacen analizando datos sobre resignación, absentismo o formación. El estudio también analiza en profundidad otros aspectos, como el comportamiento financiero, la productividad, la externalización o la gestión del talento.

Así, destaca la tendencia cada vez mayor de las empresas de llevar a terceros países procesos basados en el conocimiento (investigación o ventas) y la importancia de una nueva figura dentro de la gestión del talento, a la que llaman “empleado pivote”, especializado en crear valor para la empresa."

Enlaces relacionados:
La publicidad y la ideología de la felicidad

Hace 70.000 años la especie humana estuvo al borde de la extinción por el cambio climático

Fuente: Perfil.com , Emol y Ciencia Barrapunto

"Los seres humanos habrían corrido peligro de quedar extinguidos hace unos 70.000 años, indicó un vasto estudio de antropología que usó marcadores genéticos.

La cifra de seres humanos habría quedado reducida a apenas 2.000 hace unos 70.000 años, antes de que una vigorosa reproducción volvió a expandir su cifra a principios de la Edad de Piedra, según un análisis divulgado el jueves.

“Este estudio muestra el extraordinario poder de la genética para revelar algunos de los datos claves (en la evolución) de nuestra especie”, dijo en un comunicado Spencer Wells, un explorador que trabaja para la National Geographic Society.

“Pequeñas bandas de seres humanos primitivos, obligados a vivir apartados entre sí debido a duras condiciones ambientales, se apartaron del umbral de la extinción, se reunieron y volvieron a poblar el mundo”, dijo Wells. Se trata, añadió “de un drama épico, que quedó inscripto en nuestro ADN”.

Wells es el director del Proyecto Genográfico , lanzado en el 2005 para estudiar la antropología usando la genética. El informe fue publicado en la revista especializada American Journal of Human Genetics.

Previos estudios han trazado el surgimiento de los seres humanos modernos a una sola “Eva”, que vivió en Africa hace unos 200.000 años.

Las emigraciones de los seres humanos desde Africa, cuna de la civilización, para poblar el resto del mundo, parecen haber comenzado hace unos 60.000 años, pero poco se sabía de los seres humanos entre Eva y su dispersión por el mundo.

De acuerdo al nuevo estudio, el Africa oriental experimentó graves sequías hace entre 135.000 y 90.000 años, y los investigadores indicaron que los cambios de clima habrían contribuido a reducir drásticamente la población.

El paleontólogo Meave Leakey, asesor del proyecto, dijo que “Resulta difícil pensar que hace apenas 70.000 años” drásticos cambios climáticos “redujeron nuestra población a cifras tan pequeñas, que estuvimos al borde de la extinción”.

Estudios precedentes habían mostrado que la población humana, que actualmente es de 6.600 millones, no totalizaba probablemente más de 2.000 individuos hace 70.000 años."

Compilado de curiosidades científicas para el colegio

El Rincón de la Ciencia del Centro de Nacional Información y Educación Comunicativa España ofrece una serie de enlaces a artículos sobre Curiosidades Científicas sobre temas como El proyecto genoma humano y sus repercusiones en biotecnología, el clásico El perro de Paulov, el gato de Schrödinger y la carabina de Ambrosio, El caos y la física, El tratamiento del caos, Simulación del caos, El efecto mariposa, la inteligencia en los animales , qué y cuáles son los peligros de los alimentos transgénicos así como una interesante polémica a raíz del artículo Ellos las prefieren … ¡Ciencias! y la respuesta de Mª Puy Pérez Ellos las prefieren … ¡Ciencias! … pero se casan con las morenas

El El Rincón de la Ciencia del CNIEC ofrece también las secciones de:

Experimentos
Ciencia e Historia
Ciencia y Arte
Ciencia y Literatura
Los alumnos hablan de ciencia
Simulaciones
Citas científicas
Noticias breves
Preguntas y respuestas
Lecturas recomendadas
Enlaces de interés

Pasatiempos

En fin los enlaces de curiosidades científicas están abajo, provecho a los escolares.

¿Cómo funciona?

Trucos de magia
¿Cómo funciona un frigorífico?
La pizarra mágica
Físico química de la heladera tradicional
El efecto botijo
Calentador químico de biberones
Dispositivos que generan frio y calor
Calientamanos por oxidación del hierro
¿Cómo funciona un pañal?
¿Ya no se construyen acueductos?
¿Cómo funciona un tubo fluorescente?
Reutilizador de bombillas de bajo consumo

Ciencia truculenta

La química de los vampiros
La química, el mal aliento y el olor a pies
Heridas llenas de gusanos
El funeral de las ratas y el mecanismo de transmisión de la peste
¿Qué pasa con los empastes de los muertos?

Física

Presión atmosférica en Venus
Los hemisferios de Magdeburgo
La Luna y el sistema métrico decimal
La curva cicloide en física
La clepsidra y Galileo Galilei
¿Cuántos planetas tiene el Sistema Solar?
Neveras magnéticas un frío prometedor
El rebote de una bola de billar
El rock de la carcel y la impesantez
Movimiento circular y gravitación
Einstein, un legado para la historia
Einstein, Ciudadano del mundo
1905, Annus mirabilis
La explicación del efecto fotoeléctrico
El láser
Einstein no es sólo teoría
Sobre el movimiento browniano
Espejos parabólicos
La elipse y la parábola en física
Antenas parabólicas y hornos solares
El nacimiento de la nueva física
Energía eólica
La piedra imán y el magnetismo
Imanes
Energía hidroeléctrica
Movimientos armónicos
El caos y la física
El tratamiento del caos
Simulación del caos
El efecto mariposa
Fundamentos físicos de las células solares
Las auroras boreales
La paradoja Einstein-Podolsky-Rosen y el teorema de Bell
¿Es "realmente" el tiempo relativo?
El fundamento del espectroscopio
El gato de Schrödinger

Solo de cuerda
La medida de G
¿Es el universo plano?

Levitación por rotación
Los extraterrestres, las ondas electromagnéticas y el proyecto SETI
¿Qué pesa más una tonelada de hierro o una de madera?
La sonda espacial Mars Climate se estrella en Marte. ¿Son importantes las unidades de medida?
El péndulo de Foucault y los eclipses de Sol

Química

Desde la raíz a las hojas. El fascinante viaje de una molécula de agua por el tejido vegetal
El problema de los CFC
Pajitas de polipropileno
Triboluminiscencia
Los remedios caseros para eliminar las manchas
Algunas curiosidades sobre los antiácidos
Mezcla frigorífica: el papel de la sal
¿Qué es el almidón?
¿Qué es un líquido sobreenfriado?
El vidrio es un líquido

La química del amor
Reflexiones sobre el modelo de Bóhr
Jabones y detergentes
Propiedades de la papilla de maíz
¿Qué es la gelatina?
El poliestireno
Plásticos solubles en agua
¿Qué es el ozono?
La lucha contra la corrosión: ¿cómo mantener la naturaleza a raya?
El funcionamiento de las lámparas halógenas
SABÍAS QUE …. La gasolina no es igual en invierno y en verano?
Díamagnetismo
Futboleno
La Química a la palestra. Una aproximación a los orígenes de la ciencia química en España

Matemáticas

Las matemáticas en "La Biblioteca de Babel"
Los problemas del milenio

¿Por qué sólo hay cinco poliedros regulares?
Diagramas de Venn
¿Por qué se llaman cónicas?
Las cónicas como lugares geométricos
Elipses y parábolas a nuestro alrededor
Año Internacional de las Matemáticas
La razón áurea
Aquiles, la tortuga y la flecha
Pixeleen: Imágenes finitas
Cómo cuentan los ordenadores. El sistema binario
Listas de números naturales, enteros y fracciones

Medio ambiente

La contaminación y la guerra
¿Tiene que ver el ser humano con el calentamiento global?
El ozono troposférico: un agente contaminante
Ozono: ¿beneficioso o perjudicial?

Ciencias de la vida

El esqueleto está vivo
Arthur Guyton y la fisiología cardiovascular

La inteligencia de los animales

Alimentos transgénicos
Protocolo sobre bioseguridad de alimentos transgénicos
Alimentos transgénicos. ¿La comida del futuro? 1ª parte
Alimentos transgénicos. ¿La comida del futuro? 2ª parte
Karl Landsteiner y los grupos sanguíneos
Excipientes y formas en las que se presenta un medicamento
Diccionario farmacéutico para el artículo sobre excipientes
El proyecto genoma humano y sus aplicaciones en biotecnología
Diccionario para el proyecto genoma

Karl Landsteiner y los grupos sanguíneos
Excipientes y formas en las que se presenta un medicamento
Diccionario farmacéutico para el artículo sobre excipientes
El proyecto genoma humano y sus aplicaciones en biotecnología
Diccionario para el proyecto genoma

Varios

La psicología en "La Biblioteca de Babel" o ¿puede la mente humana ser sólo un sistema de información?

Trucos de magia para aprender ciencias
Tecnología de identificación por radiofrecuencia
Radiofrecuencia, ¿adios al código de barras?
La actuación circunstancial de la fauna en los conflictos armados
Aristóteles, el vacío, o de cuando amarga un dulce …
Formas no verbales en la comunicación científica
El uso del hipertexto en las clases de Física y Química
El valor integrador de la ciencia y tecnología europea
Tras la pista: aproximación a la identificación de personas: Identificación de huellas dactilares; Identificación de suelos; Identificación de cenizas; Identificación de fibras y tejidos
La Ciencia como Humanidades
Cesar Milstein, in memoriam
Ciencia y tecnología en nuestra sociedad
Más sobre la Ciencia
Ellos las prefieren… ¡Ciencias!
Hay prestigios que matan
Ellos las prefieren ¡Ciencias! …. pero se casan con las morenas
El perro de Paulov, el gato de Schrödinger y la carabina de Ambrosio
El perro de Paulov

Sobre la revolución copernicana. O de si las teorías científicas describen fielmente los fenómenos o sólo los explican
¿Cómo resolvemos problemas?
El origen de la teoría atómica

La capacidad innata de los organismos para la Evolución frente a diseño inteligente

Encuentro este nota en Neofronteras la cual reproduzco:

Evolución frente a diseño inteligente

La reconexión total de las redes de genes de un organismo es posible, hecho que da lugar a nuevas propiedades y aporta pruebas claras que demuestran que la evolución tiene pocas barreras para generar nuevas propiedades.

Existe un acalorado debate sobre si los organismos son resultado del diseño inteligente o de la evolución. Los defensores del diseño inteligente creen que el azar y la selección son demasiado casuales y lentos para permitir la aparición de nuevas y complejas propiedades. En concreto, argumentan que los pasos intermedios existentes al modificar los genes para crear algo nuevo posiblemente desorganicen el sistema existente y sean malos para el organismo (a nadie le gustaría tener sólo medio ojo).

El estudio, dirigido por Mark Isalan, jefe del grupo de Ingeniería de Red Génica y Luis Serrano, coordinador del programa de Biología de Sistemas y jefe del grupo de Diseño de Sistemas Biológicos, del Centro de Regulación Genómica en Barcelona, se publica mañana en la prestigiosa revista Nature.

Si bien es cierto que parece increíble que los organismos sean capaces de hacer frente a procesos extremos de mutación y reorganización de genes, en Isalan et al. se muestra precisamente eso.

Este trabajo describe un nuevo método que conecta artificialmente las redes de información del genoma de la bacteria Escherichia coli que normalmente no están en contacto. La mayoría de las bacterias no sólo sobreviven con las nuevas redes de transcripción, sino que algunas adquieren nuevas propiedades que las hacen mejores que las bacterias originales en condiciones extremas. Por ejemplo, algunas sobreviven mejor a 50ºC o tienen una media de vida superior después de llegar a la madurez. Parece pues que los organismos tienen una capacidad innata para permitir la evolución. Esta nueva y revolucionaria metodología abre las puertas a una evolución mucho más rápida que ofrece multitud de nuevos fenotipos o propiedades. Esto se traducirá en aplicaciones útiles en biotecnología, como por ejemplo, en la producción de biofuel a partir de microorganismos más eficientes. Finalmente, la evolución celular de las redes de genes podría permitir la producción de nuevas propiedades en una amplia variedad de células y esto tendría profundas implicaciones para la salud humana.

Fuente: Nota de prensa de CRG Artículo original: Isalan M, Lemerle C, Michalodimitrakis K, Beltrao P, Horn C, Raineri E, Garriga-Canut M and Serrano L. “Evolvability and hierarchy in rewired bacterial gene networks”. Nature, doi:10.1038/nature06847 (2008). Enlaces relacionados:

Murió Edward Lorenz el padre de la Teoría del caos

Fuente: Ciencia Kanija y Ciencia Barrapunto

"Ha muerto hoy a la edad de 90 años Edward Lorenz, pionero de la teoría del caos. Lorenz, matemático del MIT dedicado a la meteorología, introdujo el concepto de "atractor extraño" y acuñó el posteriormente manido término "efecto mariposa" (lo de la polilla en Singapur provocando un tornado en Texas). Lleva su nombre el atractor de Lorenz, el conocido y hermoso bucle tridimensional –la dinámica convectiva, madre del clima–, gracias a que Lorenz tuvo la idea de introducir sus ecuaciones en el ordenador allá por 1960."
Edward Lorenz, padre de la Teoría del Caos y el efecto mariposa, fallece a los 90 años

Traducción: Manuel Herman Kanijo Enlace Original

Edward Lorenz, meteorólogo del MIT que intentó explicar por qué es tan difícil hacer buenas predicciones del clima y que concluyó desencadenando una revolución científica conocida como Teoría del Caos, murió el 16 de abril de cáncer en su casa en Cambridge a los 90 años.

Profesor en el MIT, Lorenz fue el primero en darse cuenta de lo que ahora conocemos como comportamiento caótico en el modelado matemático de sistemas climáticos. A principios de los 60, Lorenz observó que pequeñas diferencias en un sistema dinámico como es la atmósfera – o un modelo de la atmósfera – podría disparar unos vastos y a menudo insospechados resultados.
Estas observaciones finalmente le llevaron a lo que llegó a convertirse en el efecto mariposa — un término que surgió de un artículo científico que presentó en 1972 titulado: “Predictability: Does the Flap of a Butterfly’s Wings in Brazil Set Off a Tornado in Texas? (Predictibilidad: ¿El aleteo de una mariposa en Brasil genera un tornado en Texas?

Las primeras visiones de Lorenz marcaron el inicio de un nuevo campo que impactó no sólo en las matemáticas sino virtualmente en cada rama de la ciencia – biológica, física y social. En la meteorología, llevó a la conclusión de que puede ser básicamente imposible predecir el clima más allá de dos o tres semanas con un grado razonable de precisión.

Algunos científicos desde entonces han afirmado que el siglo XX será recordado por tres revoluciones científicas – la relatividad, la mecánica cuántica y el caos.

“Demostrado que ciertos sistemas deterministas tenían límites formales de predictibilidad,

Ed puso el último clavo en el ataúd del universo cartesiano y fomentó lo que se ha dado en conocer como la tercera revolución científica del siglo XX, siguiendo los pasos de la relatividad de la física cuántica”, dijo Kerry Emanuel profesor de ciencias atmosféricas en el MIT.

Enlaces relacionados:

Teoría del Caos y Ciencias Sociales

Caos y Fractales en Sistemas Físicos Sencillos en tres “Youtube Lecciones”

Festival Latinoamericano de Software Libre 2008 – 26 de abril

El próximo sábado 26 de abril se llevará a cabo el Festival Latinoamericano de Software Libre – FLISOL 2008 que desde el año 2005 se realiza de forma simultánea en más de 100 ciudades de 17 países de América Latina de forma gratuita con el único fin de colaborar y compartir conocimiento.

"Para tal fin, las diversas comunidades locales de software libre (en cada país, en cada ciudad/localidad), organizan simultáneamente eventos en los que se instala, de manera gratuita y totalmente legal, software libre en las computadoras que llevan los asistentes. Además, en forma paralela, se ofrecen charlas, ponencias y talleres, sobre temáticas locales, nacionales y latinoamericanas en torno al Software Libre, en toda su gama de expresiones: artística, académica, empresarial y social."

Las sedes en Perú serán en la siguientes ciudades:

Para los que estén en Lima no deben dejar de asistir a las dos sedes participantes Universidad Tecnológica del Perú y Universidad Nacional de Ingeniería

En Ecuador, el Evento se realizará en las siguientes ciudades:

Países participantes:

Página Oficial : FLISOL

El LHC del CERN pondrá en marcha "The Grid": la nueva Internet nos espera

El Gran Colisionador de Hadrones del CERN (LHC) y el Tevatron a la búsqueda del bosón de Higgs ( y del gravitón )
Preparación del Gran Colisionador de Hadrones del CERN (LHC) el cual podría arrojar una prueba para la Teoría de las cuerdas

El colisionador de partículas LHC del CERN no solo nos dará respuestas sobre la existencia de los bosones de higg o gravitones. También pondrá en marcha una Internet paralela que permitirá enviar datos a una velocidad 10.000 veces superior a la de hoy dando lugar a la transmitisión de datos holográficos, que permitirá el almacenamiento de datos online. Toda inversión, tanto privada como estatal debe estar atenta a lo que pasará cuando se ponga en marcha The Grid. Esta Internet paralela planteará también nuevas visiones y nuevas problemáticas no solo en los negocios respecto a las NTIC, sino a su utilización para la sociedad .

Fuente: Pinguxero

"El CERN, situado en Suiza cerca de Ginebra, dio inicio al proyecto Grid siete años atras cuando sus investigadores cayeron en la cuenta que el LHC generaría al año datos suficientes como para llenar una pila de CDs de 65 kilómetros de alto.

Esto implicaría que los científicos del CERN -donde Sir Tim Berners Lee inventó la web en 1989- no podrían hacer uso de su creación por no causar un colapso global, dado que la internet ha ido evolucionando interconectando un maremagnum de cables y equipamiento de ruteo, gran parte de los cuales fueron diseñados originalmente para comunicaciones telefónicas de voz y, por ello, carece de la capacidad para transmisión de datos de alta velocidad.

Contrastando esto, The Grid fue construída con cables de fibra óptica dedicados y centros de ruteo modernos, lo cual implica que no hay componentes obsoletos que pudieran demorar el flujo de datos. Se espera que los 55.000 servidores ya instalados aumenten a 200.000 dentro de los próximos dos años.

El profesor Tony Doyle, director técnico del proyecto Grid, dijo: "Necesitamos tanto poder de procesamiento, que inclusive sería un problema obtener el suficiente suministro de electricidad para alimentar las computadoras si todas ellas estuvieran en el CERN. La única respuesta fue una nueva red lo suficientemente poderosa para enviar los datos instantáneamente a los centros de investigación en otros países".

Ian Bird, líder del proyecto, afirma por otra parte que la tecnología Grid podría hacer la internet tan rápida que la gente podría dejar de almacenar localmente su información en computadoras de escritorio para confiarla en su totalidad a la Internet, de donde la podrían acceder desde cualquier lugar.

The Grid permitiría a investigadores con una gran necesidad de procesamiento de datos repartir la tarea entre miles de computadoras de todo el mundo. Sin embargo, su objetivo real es trabajar con el LHC en la búsqueda de la partícula mas escurridiza de la naturaleza, el bosón Higgs.

De acuerdo con John Ellis, uno de los científicos del CERN que trabaja en su búsqueda, esta partícula o campo es lo que le da masa a las partículas fundamentales. Suponiendo que las diferentes partículas fundamentales son como un grupo de gente corriendo a través de barro, algunas partículas como los quarks tendrían grandes botas cubriéndose generosamente de barro; otras, como los electrones, pequeños zapatos que apenas se mancharían. Los fotones no necesitarían zapatos, ya que se deslizarían sobre el barro sin ensuciarse. Y el bosón Higgs sería el barro.

Grid está disponible para muchos otros investigadores académicos, tales como astrónomos y biólogos moleculares. Ha sido utilizada para ayudar a diseñar nuevas drogas contra la malaria, la enfermedad transmitida por los mosquitos que mata un millón de personas cada año.

Los investigadores la usaron para analizar 140 millones de compuestos, una tarea que habría tomado a una PC estándard conectada a Internet unos 420 años. Con las posibilidades brindadas se abren nuevas oportunidades para promover proyectos llamados de "e-ciencia", que es hacer investigación sin importar las distancias, y de "e-salud", que ayuda a realizar diagnósticos y seguimientos del paciente de manera remota.

Aunque es poco probable que The Grid esté directamente disponible para usuarios de internet hogareños, muchos negocios y proveedores de telecomunicaciones están introduciendo sus tecnologías pioneras. Una de las mas potentes es conocida como "dynamic switching", la cual crea un canal dedicado para usuarios de internet que pretenden descargar grandes volúmenes de datos, como podrían ser películas. Y lo podrían hacer en 5 segundos en lugar de las 3 o 4 horas actuales.

En el aspecto comercial, la web evoluciona en dirección a la distribución de contenidos multimediales, lo que le falta es velocidad. Ahora el CERN se despacha con esto. Cuando la relación abaratamiento/masividad llegue a un punto aceptable, podríamos estar en presencia de una segunda revolución."

Enlaces relacionados:
El Gran Colisionador de Hadrones del CERN (LHC) y el Tevatron a la búsqueda del bosón de Higgs ( y del gravitón )


Preparación del Gran Colisionador de Hadrones del CERN (LHC) el cual podría arrojar una prueba para la Teoría de las cuerdas


Historia de la Internet – José Antonio Millán

Historia de la Internet - Wikipedia

THE GRID, la nueva Internet

Internet ha muerto, bienvenidos a “The Grid”

The Grid, la nueva super red de redes

Memes como el gen de la evolución cultural

Creative Commons License
Memes como el gen de la evolución cultural by Andrea Naranjo is licensed under a Creative Commons Reconocimiento-Sin obras derivadas 3.0 Unported License.
Based on a work at andreanaranjo.wordpress.com.
Permissions beyond the scope of this license may be available at http://insights-qualitativos.blog


[2] La posesión del conocimiento y sus medios de producción, a saber, las nuevas tecnologías de la información, se han convertido hoy en día en uno de los bienes mejor cotizados y más comercializables, un patrimonio que al pasar al mercado, convierte su distribución en preciados circuitos de información y en una jugosa transacción comercial para quien esté capacitado de producirlo y claro está, distribuirlo, por medio de las innovaciones tecnológicas contemporáneas, siendo éstas resultado de la acumulación y acceso al conocimiento. La cultura y la propiedad intelectual en la era digital A N. http://www.cibersociedad.net/recursos/art_div.php?id=148

[3]La integración de la antropología a la mercadotecnia proporciona muchos resultados a los clientes, ya que ésta aplicación le brinda al usuario una perspectiva viviencial sobre el consumidor que integra la perspectiva antropológica y sociocultural a la planeación estratégica con la tendencia de unir los resultados de los planner con la de los investigadores” David Carballo, director general de Grado 7 de JWT jefe de la unidad de marketing antropológico. “ Revista Merca2.0

[5] Lluis Guiu, Autonomía Situada 

Las 10 conquistas imposibles de la ciencia

Fuente: Ciencia Barrapunto

«¿Qué es verdaderamente imposible? En este artículo se enumeran 10 paradigmas que se pensaba que eran imposibles científicamente. Algunos fueron desmentidos hace siglos, pero otros han comenzado a entrar en el reino de la posibilidad recientemente: 1) Analizar las estrellas; 2) Llegada de meteoritos desde el espacio; 3) Más pesados que el aire
4. Vuelo espacial; 5) Aprovechamiento de la energía nuclear; 6) Superconductores cálidos; 7) Agujeros negros; 8) La creación de campos de fuerza; 9) Invisibilidad. 10) Teletransporte.»

Enlace directo:  NewScientistTech

Habilidades colectivas, trabajo colaborativo = ciberciencia ciudadana

Aquí otro artículo de Antonio La Fuente que vale la pena reproducir en su totalidad sobre el trabajo colaborativo y voluntario para una ciencia ciudadana: el voluntariado cognitivo.
Más abajo Lafuente nos ilustra de proyectos como BOSSA, AfricaMap, SETI y el radiotelescopio de Arecibo en Costa Rica que se están llevando a cabo confirmando que la gente puede organizarse al margen del estado para producir conocimiento de alto nivel y a continuación orientarlo hacia nuevas prioridades.
"El fascinante mundo de los amateurs, ensanchado vertiginosamente por las nuevas tecnologías, asiste en nuestro días a otro proceso espectacular de expansión.

Entre los muchos sueños que nos legaron los hackers que visualizaron el futuro de internet en los aledaños de 1970 siempre aparecían multitudes conectadas entre sí, sin el obligado tránsito por un ordenador central, intercambiando experiencias, ideas o capacidad de computación. Los gurú de la red siguen teniendo el mismo sueño, aún cuando sus declaraciones sean menos entusiastas a la vista de que los señores del aire, como felizmente los nombró Javier Echeverría, han impuesto en muchos sectores de la cultura digital procesos de privatización, censura u otros mecanismos de control de flujos.

Tim Berners-Lee, la persona a quién asignamos la invención de Internet, viene explicado en los últimos años que la red acabará integrando todos los PC en una inmensa plataforma de computación que nos convertirá a todos en una comunidad global de base tecnológica. Y, de alguna manera, se trata de ideas que ya está funcionando en los múltiples proyectos de computación distribuida (Amazon, eBay o Google, por sólo citar tres ejemplos sorprendentes mencionados en LinuxInsider o en los de computación voluntaria.

Nuestra sociedad produce ingentes cantidades de información, cuyo procesamiento, archivado y distribución requiere de potentes y costosos centros de cálculo. Y, desde luego, no todos los países se los pueden permitir. En la práctica son pocos los superordenadores que están en funcionamiento. El más grande de todos, sin embargo, no es propiedad de nadie, ni está radicado en ningún sitio. Al contrario, funciona con software libre y con un sistema de gestión capaz de agregar en paralelo los microprocesadores que contienen los ordenadores domésticos de millones de usuarios. Mucha gente, incluidos los lectores de tecnocidanos, ya ha oído hablar de SETI, una iniciativa de la Universidad de Berkeley para buscar vida extraterrestre en algún lugar del universo.

La idea es muy simple. En el Centro Nacional de Astronomía Arecibo, Costa Rica se encunetra un radiotelescopio que no para de recibir imágenes del espacio que registran y después digitalizan cualquier radiación que provenga del exterior. El problema es que para analizarlas y encontrar alguna recurrencia en las señales recibidas, algún patrón regular, que pueda ser interpretada como signo inequívoco de la existencia de una civilización superior, hace falta una máquina cuyo coste es difícil de justificar ante los contribuyentes.

David Anderson, director de SETI, encontró en 2002 otra solución menos cara y más apasionante. Su proyecto consistía en solicitar de la gente que cediera ese tiempo muerto que, aún cuando esté encendido nuestro PC, no usamos mientras hablamos por teléfono o realizamos cualquier otra actividad. Lo que hace SETI es proporcionar a los voluntarios un hermoso y singular protector de pantalla que, cuando se activa, recibe paquetes de información que son procesados y finalmente devueltos de forma automática a Berkeley con los resultados logrados por nuestra máquina.

Todavía nadie ha tenido el privilegio de encontrar la señal histórica del primer encuentro, pero ya hay unas 2 mil millones de señales candidatas que volverán a computarse por si los indicios son ruido o, en otros términos, falsas alarmas. Aunque no hay resultados concluyentes el proyecto, tal como se explicaba en The Economist, es un éxito indiscutible, aunque sólo sea porque ya han participado de forma espontánea y gratuita más de cinco millones de SETInitas, aportando el equivalente a unos dos millones de años de computación. En la actualidad se sabe que hay 170.000 usuarios activos y unos 320 mil PC conectados.

SETI no es el único proyecto vigente. Su excelente acogida ha sido el motor para poner en marcha otras iniciativas, ver el excelente informe en Extreme Tech, quizás menos mediáticas pero sí más útiles.

Los ingenieros de SETI tuvieron la idea de crear el software necesario para desarrollar BOINC (Berkeley Open Infrastructure for Network Computing), una plataforma que aloja proyectos de computación voluntaria dirigidos a las más diversas finalidades, desde descubrir fármacos contra el SIDA o el cáncer, hasta tratar de desencriptar códigos imposibles o reproducir modelos matemáticos de cambio climático. En su conjunto, los datos de BOINC muestran que federa 40 proyectos y cerca de tres millones de ordenadores pertenecientes a 271 países que, en su conjunto, tienen una capacidad de computación del orden de 400 Teraflops por segundo. Una potencia que supera los 280,6 Tflop/s del mayor superordenador del mundo hasta no hace mucho, el Blue Gene/L de IBM, que monta unos 131 mil microprocesadores.

Hay otros proyectos que tiene fines lucrativos. Algunos son promovidos por empresas privadas y que esperan patentar a su nombre los descubrimientos que se hacen con la aportación de todos. Pero no vamos a detenernos en la descripción de otras iniciativas. Todas son parecidas, desde el punto de visto de la tecnología y la potencia de computación movilizada. SETI es la prueba de que el altruismo, la tecnología y las buenas ideas pueden resonar positivamente para demostrar que la cooperación es posible y que el universo es la morada de toda la humanidad.

Es cierto que se trata de comunidades de muy alto valor simbólico, aunque de escaso compromiso personal. Una circunstancia, sin embargo, que ha rondado la cabeza de muchos observadores. Y, por fin, parece que desde BOINC se ha desarrollado la tecnología necesaria para que en los procesos de computación masiva puedan intervenir los propietarios de los PC y no sólo sus procesadores.

La nueva iniciativa, miembro de la familia BOINC, se llama BOSSA y su finalidad es aprovechar las habilidades de los individuos, como por ejemplo su agudeza visual o el conocimiento local de un territorio, para desarrollar tareas que un computador no sabe hacer y que un voluntario con una preparación o ayuda mínima puede desempeñar con casi una total precisión. BOSSA creará una ciberciencia ciudadana. Así, lo que ahora se demanda de la gente es su participación activa y para ponerla a prueba se lanzó en agosto de 2006 el proyecto Stardust@home, una iniciativa que aspira a identificar los restos de polvo interestelar que capturó la nave Stardust. y que tiene mucha relación con ClickWorkers, el proyecto de la NASA destinada a identificar cráteres en Marte con el concurso de voluntarios.

El polvo interestelar, como se cuenta en Astroseti, fue recogido por colector de gel circular de unos 36,8 cms. de diámetro y un espesor de 3,6 cms. Se calcula que en total habrá unos 45 microgranos de polvo y para detectarlos se pixelizará el gel en 1,6 millones de fragmentos que serán fotografiados 40 veces cada uno. La colosal cantidad de imágenes reunidas serán distribuidas entre voluntarios, quienes podrán repasar pacientemente los resultados de este microscopio virtual. Cuando cuatro voluntarios detecten un rastro sospechoso en alguna imagen, entonces le será enviada a otros cien voluntarios más para que comprueben el signo que, si es confirmado por al menos 20, entonces será enviada a un colectivo de estudiantes capacitados de Berkeley para que confirmen el hallazgo. Si su dictamen es positivo entonces la muestra pasará al laboratorio en donde los expertos extraerán y analizarán el grano de polvo.

Aunque Bossa está todavía en fase de desarrollo ya tiene a punto el lanzamiento del proyecto AfricaMap, cuya finalidad es lograr una cartografía de precisión de los lugares más remotos del continente africano, combinando fotos de satélite de alta resolución con el conocimiento local que de cada lugar tengan los habitantes de la zona. Hay más ideas que están buscando su acoplamiento, como por ejemplo involucrar masivamente a la población en la búsqueda de los orígenes de la vida. La idea se explica fácilmente. Durante la estación de las lluvias, el agua arrastra la tierra y deja al vista multitud de restos paleontológicos que volverán a ser enterrados o arrastrados a otras localizaciones cuando regresen las lluvias. Para evitar la pérdida de información se hará fotografías de precisión que revisarán de urgencia los voluntarios que se presten y, cuando crean estar delante de algún resto de interés, avisarán a los paleontólogos que verificarán la calidad de los indicios detectados.

Todavía es pronto para hacer una evaluación de estas iniciativas, pero por lo que vamos conociendo podrían inaugurar una nueva era de colaboración ciudadana en ciencia. El nuevo voluntariado cognitivo no sería ya un elemento pasivo de la cadena de procesos que conducen al conocimiento, sino que podrían involucrarse con el mismo nivel de compromiso eficiencia que hoy tienen los becarios o ayudantes de laboratorio. Y si es así, nada les impedirá dar un paso más, con o sin permiso, y diseñar sus propios proyectos, ya sea para cualificar los atentados contra la biodiversidad, ya sea para vigilar las políticas de exterminio o limpieza étnica.

En todo caso, lo que estos proyectos confirman es que la gente puede organizarse al margen del estado para producir conocimiento de alto nivel y a continuación orientarlo hacia nuevas prioridades. Mucha gente manifiesta su admiración por los SETInitas y conecta la nueva capacidad descentralizada de generar potencia de cómputo a una cierta noción de popular power, un concepto con muy amplias resonancias políticas y que alimenta la esperanzas de democratización del conocimiento y la tecnología.

El Gran Colisionador de Hadrones del CERN (LHC) y el Tevatron a la búsqueda del bosón de Higgs ( y del gravitón )

Nota editada de Ciencia kanija wikipedia y El Tamiz

Hace algunos meses habíamos habaldo sobre la preparación del Gran Colisionador de Hadrones del CERN (LHC) el cual podría arrojar una prueba para la Teoría de las cuerdas

Específicamente el LCH del CERN está a la búsqueda del bosón de higg particula teórica que expplicaría el origen de la masa y que de ser observada podría unificar en una solo teoría las cuatro interacciones fundamentales de la naturaleza. Debido a la manía del homo sapiens en divinizar todo lo que aún no conoce el bosón de Higgs es conocida también como la partícula de dios pues es aún no se ha visto.

Pero el LCH no es el único colisionador en intentar encontrar el bosón de higgs Fermilab en EE. UU. también está en carrera a usando al colisionador de partículas llamado tevatron

E l Modelo Estándar de física de partículas es una teoría cuántica de campos que da cuenta de la composición del universo en base a tres de las cuatro interacciones fundamentales a saber interacción nuclear fuerte, interacción nuclear débil, interacción electromagnética e interacción gravitatoria, llamadas partículas elementales las cuales componen toda materia.

Estas cuatro interacciones fundamentales rigen los estudios de física actual y que dan lugar a la teoría de la gran unificación y a la teoría del todo que involucra la interacción electronuclear con la gravedad.

Según este modelo las partículas que interaccionan con las partículas materiales, fermiones, son los bosones . Esta interacción se daría en un campo gravitatorio (llamado campo escalar o de higgs ) a través del bosón de higgs partícula hipotética que daría origen a la masa de otras partículas elementales, en particular la diferencia entre el fotón (sin masa) y los bosones W y Z (relativamente pesados).

El bosón de higgs estaría en todo el universo la cual daría lugar a la materia y haría que su interacción haga adquirir masa ( una forma particularmente condensada de energía) a dicho campo.

Higgs y la larga espera Fuente: ciencia kanija

Peter Higgs espera que un vasto experimento en los túneles de las profundidades del laboratorio del CERN de la frontera franco-suiza podría finalmente demostrar la existencia de una esquiva e inestable partícula a la que ha prestado su nombre.

La conocida como “Bosón de Higgs” ha sido apodada la “Partícula Dios” debido a que muchos la han buscado pero ninguno la ha visto, a pesar de que Higgs usando sus deducciones científicas afirmase su existencia en el año 1964.

Ahora el anciano científico espera ser reivindicado a tiempo para su 80 cumpleaños el 19 de mayo de 2009.

“Le he pedido a mi Partícula Dios que me mantenga vivo un poco más”, bromeó en su visita al CERN.

Los miles de científicos que trabajan allí han pasado años preparando el experimento que desplegará en Gran Colisionador de Hadrones (LHC) – básicamente el mayor colisionador de átomos del mundo — en un intento de recrear las condiciones del ‘Big Bang’ cuando se estima que se creó el universo.

El LHC lanzará protones a un 99,9999 por ciento de la velocidad de la luz en dos rayos paralelos en un túnel en forma de anillo de 27 kilómetros de largo y a 175 metros bajo la superficie.

A toda máquina, el LHC generará casi mil millones de colisiones por segundo. Sobre el terreno, una granja de 3000 ordenadores, una de las mayores del mundo, instantáneamente rebajarán este número hasta aproximadamente las 100 colisiones de mayor interés.

Si el LHC descubre el Higgs, llenará un enorme hueco en el conocido como Modelo Estándar, la teoría que resume nuestro actual conocimiento de la física de partículas. El Higgs ayudaría a explicar los orígenes de la masa y por qué algunas partículas del Modelo Estándar la tienen pero otras, extrañamente, no.

El equipo del CERN no es el único que está a la caza del Bosón de Higgs, no obstante. Un equipo rival con sede en el Fermilab en Chicago están en una acalorada persecución, usando el viejo acelerador conocido como Tevatron, el cual está previsto para su desmantelamiento en 2010.

“Hay una posibilidad de que los encuentren primero”, concede Higgs.

“Es difícil para ellos encontrarlo pero ya podría estar en sus datos pero no aún en sus análisis”, añade.

La competición es feroz pero no despiadada – los Estados Unidos y el propio Fermilab son entusiastas compañeros del LHC.

Aunque Higgs espera que el LHC revelará los secretos del universo, otros temen un final apocalíptico escenario sacado de una película de ciencia-ficción – que el experimento creará, en efecto, agujeros negros masivos los cuales reducirían la Tierra a un trozo de materia caliente extraña.

Higgs descarta tales miedos como producto de imaginaciones demasiado activas.

“Este tema de los agujeros negros se ha inflado debido a que incluso los teóricos sugieren que podrían producirse muchos agujeros negros pero no predicen grandes agujeros negros que se tragarían grandes trozos del universo”, dijo.

“Creo que la publicidad sobre eso se les ha ido de las manos y alguna gente lo ha malinterpretado”, añade."

¿ Está el LCH en búsqueda de la causa la gravedad? Fuente : ciencia Kanija

Los duendes de la gravedad

Los números puede que no hablen, pero los físicos tienen la corazonada sobre los duendes invisibles de la gravedad: diminutas partículas sin masa llamadas gravitones que emanan de los campos gravitatorios.

Gravitatoria Relatividad general gravitones - bosón de espín par (hipotéticos) 1 \frac{1}{r^2} infinito


Cada hipotético trocito tira sobre cada pedazo de materia del universo, a tanta velocidad como permita la velocidad de la luz. Entonces, si son tan comunes en el universo, ¿por qué los científicos aún no los han descubierto?

“Podemos detectar partículas sin masa como los fotones con bastante precisión, pero los gravitones nos evitan debido a que interactúan muy débilmente con la materia”, dijo Michael Turner, cosmólogo de la Universidad de Chicago. “Simplemente no sabemos cómo detectarlos”.

Turner, no obstante, no se abate en la búsqueda de la humanidad de los gravitones. Piensa que finalmente atraparemos un puñado de estas molestas partículas que se ocultan en las sombras de las partículas más fácilmente detectables.

“Lo que verdaderamente nos los traerán será la tecnología”, dijo Turner.

Los físicos no están usando magia mecánica para descubrir los gravitones, sin embargo. Los esfuerzos están centrados actualmente en confirmar la existencia del bosón de Higgs, que es una prima lejana del gravitón responsable de dar masa a la materia.

Encontrar el “retrete”

Sheldon Glashow, ganador del Premio Nobel de Física de 1979, en una ocasión llamó al bosón de Higgs el “retrete” del Modelo Estándar de física de partículas.

Turner explicó que Glashow acuñó el término debido a que el bosón de Higgs realiza una función esencial: Mantienen en funcionamiento en Modelo Estándar, al menos de una forma intelectual.

“En realidad, el bosón de Higgs es como un fontanero con cinta adhesiva, que mantiene unido el Modelo Estándar”, dijo Turner. “Gran parte de la falta de elegancia se debe a que está envuelto por el bosón de Higgs”.

Y con toda la razón, apunta, ya que se requiere para que las otras fuerzas que involucran la masa — tales como la gravedad — tengan sentido.

“Al mismo tiempo, el bosón de Higgs puede ser frustrante debido a que puede que no arroje mucha luz sobre la gravedad”, dijo Turner, suponiendo que la partícula se descubra finalmente.

Acelerando las respuestas

Descubrir estas esquivas partículas tales como el bosón de Higgs es como viajar en el tiempo. Usando enormes máquinas para lanzar partículas cerca de la velocidad de la luz, y luego hacer que choquen entre sí, los ingenieros pueden simular las increíbles energías presentes durante los inicios del universo.

En los inicios de la existencia del universo, las partículas eran demasiado energéticas para unirse y formar los más comunes protones, neutrones y demás.

El Tevatron, el acelerador de partículas de 6,3 kilómetros de circunferencia del Fermilab, puede ya haber atisbado el bosón de Higgs en los datos del acelerador, de acuerdo con los blogs de los físicos. Pero Turner dijo que el nuevo Gran Colisionador de Hadrones (LHC) con una circunferencia de 27 kilómetros bajo Francia y Suiza debería confirmarlo con claridad en pocos años.

“Creo que será un alivio cuando se descubra el bosón de Higgs”, dijo. Sin embargo, ¿descubrirán finalmente los aceleradores de partículas un gravitón?

Xavier Siemens, teórico gravitatorio de la Universidad de Wisconsin Milwaukee, que para demostrar que la gravedad actúa como una onda primero tiene que tener lugar.

“Clásicamente, opdemos medir una onda, y las ondas están compuestas de partículas”, dijo Siemens, que también es miembro del Observatorio de Ondas Gravitatorias del Interferómetro Láser (LIGO) que busca pruebas de ondas para la gravedad. Detectando ondas gravitatorias, tendríamos una base para sugerir que los gravitones existen de verdad — y comenzar a buscarlos.

“En este punto parece ciencia-ficción. Teóricamente, sin embargo, deberíamos ser capaces de detectar gravitones individuales”, dijo Siemens. “Pero cómo es la gran pregunta”.

Enlaces relacionados:

Modelo Estándar de física de partículas

LHC

Bosón de Higgs

Gravitón

La publicidad y la ideología de la felicidad

Creative Commons License
La publicidad y la ideología de la felicidad by Andrea Naranjo is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Based on a work at andreanaranjo.wordpress.com.
Este artículo está inspirado en la discusión sobre el trabajo y la felicidad en El otro tambor y sobre publicidad en Puente aéreo, así como en el estudio del año 2006   sobre Construcción de identidades de género a través de la publicidad A.N. G.B.


Partimos sobre todo de la reflexiones del filósofo italiano Franco Birardi vertidas en su obra La fábrica de la infelicidad, sobre la ideología de la felicidad en el discurso público a partir del nacimiento de la New Economy Utilizaremos dichas reflexiones para analizar el discurso publicitario en nuestro medio periférico, el peruano.

"Cada nueva mentira de la publicidad es también la confesión de su mentira precedente." Guy Debord, "La Sociedad del Espectáculo", 1967

La publicidad es parte de la disciplina de Mercadeo o marketing. La comercialización busca identificar el mercado apropiado para un producto, siendo ésta, la comunicación por la cual la información sobre el producto es transmitida a esos individuos[1]. El origen de la publicidad surgió con el comercio y la conformación de grandes las antiguas civilizaciones[2], hasta llegar a los primeros carteles propiamente dichos de la mano de la imprenta siendo la Modernidad y las revoluciones industriales de los siglos XVIII y XIX determinantes para el desarrollo de la publicidad. Luego de la Segunda Guerra Mundial, el objetivo de la publicidad devino en estimular la demanda de un producto (bienes o servicios) convirtiendo dicha demanda en estandarte de un estilo de vida, en una necesidad y una “marca de origen” cultural, bajo la supervisión de profundos estudios de mercado y socioculturales. Uno de los movimientos sociales conformado desde la intelectualidad que teorizaron sobre el significado de la publicidad y sus efectos en la sociedad contemporánea fue la Internacional Situacionista[3] .

La publicidad, apuntaba Debord, es el discurso efímero y volátil de los objetos con fines mercantiles, colocándose en el umbral de las apariencias y de las máscaras sociales[4] que moldean nuestras mentes, cuerpos, deseos, sentimientos y aspiraciones según las necesidades espectaculares del Mercado, convirtiendo a los sujetos en publicidades ambulantes, en reproducciones de reproducciones de lo que deberíamos ser, cual felices perfecciones inalcanzables y codiciadas que solo podrán ser logradas a través de la compra/consumo de los productos necesarios para crear un estilo de vida feliz y confortable a costa de trabajar toda la vida para mantenerlo.

Su crítica se basa en que la publicidad constituye la mayor arma del Mercado y el sistema económico para la dominación de las multitudes a través del consumo de fracciones de “felicidad”, imágenes impuestas y accesorios culturales innecesarios para nuestra vida cotidiana urbana, influyendo la publicidad, progresivamente en los criterios de creación cultural el que era un proceso antiguo, eliminando así todo proceso de voluntad reflexiva dejándonos sin juicio critico[5] Desde este movimiento se hicieron las primeras críticas a la publicidad (tanto política – rechazaban el totalitarismo partidista – como mercantil) pues veían en ella un peligro para la libertad de voluntad necesaria para crear cultura humana.

La publicidad, entonces, es aquél espectáculo efímero y en eterna reproducción que mediatiza las relaciones sociales, siendo todo lo vivido directamente apartado en una representación, en una relación social entre personas mediatizada por imágenes[6].

Desde la década de los setenta del siglo XX la publicidad pasa a ser realmente parte del sistema económico contemporáneo cuyo objetivo homogeneizante y consumista nos convierte en compradores de posturas, identidades y tecnología funcional.

La publicidad como teoría y práctica utiliza prototipos sociales étnicos, culturales y de género que dentro de nuestro contexto social, pretende representar mediante una marca el modelo presente de la vida económica socialmente dominante, así como la afirmación de una elección ya hecha en la producción de los objetos a consumir[7], no importando si económica o étnicamente, dichos objetos son opuestos a nuestras identidades reales, no a las socialmente construidas -pues éstas están construidas en parte, precisamente por la publicidad- sino a las que nos vienen dadas como parte de la estructura profunda de nuestra cultura y que queremos ocultar por no ser rentables socialmente.

Aparece entonces la “publicidad feliz”, la cual en términos del filósofo italiano Franco Berardi[8] es una representación ambigua en la que el trabajador es descrito como un empresario de sí mismo y la competición es elevada a regla universal de la existencia humana (…) la cual se apoya en una auténtica ideología de la felicidad que, sin embargo, esconde o, más bien, deja de lado efectos de infelicidad crecientes que se manifiestan fuera del circuito virtualizado pero también en su interior, en el trabajo, en la vida y en el psiquismo.

Para Berardi, en el discurso público circulan flujos de comunicación construidos en torno a una idea de felicidad. El discurso público se funda sobre la idea de que ser feliz no sólo es posible, sino casi obligatorio y que si se quiere alcanzar ese objetivo es necesario atenerse a algunas reglas, seguir ciertos modelos de comportamiento. La felicidad, entonces, no es un objeto científico, sino un objeto ideológico[9], venido desde el nacimiento de la Modernidad, el pensamiento ilustrado, el positivismo, y la noción de progreso que presupone el predominio de la Razón por sobre la “tradición” a través de la historia, entendido este triunfo como un “cambio hacia arriba y adelante…” sobre las antiguas estructuras de organización y mentalidad social en beneficio de un prometido futuro superior de mejoramiento de la vida humana y mejor que el contenido en los anteriores mitos, renovables cada cierto tiempo en sus contenidos específicos a través del discurso Público que maneja. Berardi apunta que el actual discurso público se traduce en el proceso de globalización y triunfo de la economía liberal, el cual está empapado de la ideología de la felicidad[10].

Dicho discurso afirma que el libre juego del mercado crea el máximo de felicidad para la humanidad en general, una felicidad vista desde la publicidad, la cual ha sido convertida en una especie de paradigma del pensamiento económico y la acción política[11] que oferta cierto estilo de vida plagado de felicidades efímeras que pueden ser adquiridas, en nuestro contexto, para esconder la realidad étnica y cultural poco cómoda que no nos permiten ser “felices”. Como sucede en toda cultura, las características que conforman la nuestra están en constante cambio, la publicidad es dentro de este contexto una pieza clave para la reproducción y variación; coge los estereotipos dominantes y los extiende a toda la sociedad, a partir de la idiosincrasia actual de un grupo hegemónico local/mundial.

Volviendo a Berardi y la ideología de la felicidad transmitida por cierta publicidad en nuestro medio, éste apunta que el mecanismo comunicativo de la publicidad se funda sobre la producción de un sentido de inadecuación y sobre la llamada a un consumo que permitirá volverse adecuados y hacer real por fin aquella felicidad que se escapa, la cuestión de la felicidad ha salido del recinto de los persuasores publicitarios y ha saltado al centro del discurso económico."[12]

En nuestro medio podemos ver que los consumidores construyen sus identidades en base a los estereotipos "felices" determinados en la nueva publicidad optimista. Mas los consumidores no se reconocen incluidos dentro del modelo cultural que ofrece la publicidad, por lo que construyen sus identidades a partir de estos estereotipos; no solo en cuestión de lo que “debería ser”, sino a qué apariencia étnica y a qué estrato social debería acercarse la identidad a adquirir por medio de la publicidad, ya sea de una universidad, un festival de cine, una cerveza o un poco de ropa.


[3] La Internacional Situacionista (1957-1972) Guy Debord Raoul Vaneigem – Movimiento social urbano que nació en Francia en plena posguerra y reconstrucción económica de Europa. Este movimiento criticó el uso espectacular de la publicidad y de las arquitectura urbana, así como la educación, teniendo gran acogida en los centros educativos como los colegios y las universidades. Proponían apropiarse mediante el collage y el reciclaje, de los productos culturales del capitalismo tardío, es decir la publicidad para reconvertirla en beneficio de la gente dentro del contexto urbano, siendo su propuesta una clara crítica a la construcción de identidades mercantiles dentro de las ciudades. Pinto Iván Guy Debord: arte, espectáculo, sociedad En Bifurcaciones Revista de estudio sculturales urbanos http://www.bifurcaciones.cl/005/Debord.htm

[4] Colón Zayas , Eliseo Publicidad, modernidad y hegemonía Universidad de Puerto Rico 1996

[6] Debord Guy La sociedad del espectáculo Pre-textos Valencia, 1999

[7] Ibíd.

[8] Berardi Franco , Bifo La fábrica de la infelicidad. Nuevas formas de trabajo y movimiento global.- Editorial Traficantes de Sueños 2003 Berardi da estos conceptos sobre el discurso publicitario de la new economy ( término difundido por la revista Wired en la década de los 90 del s.XX respecto a la economía surgida a raíz de la popularización de la Internet,

[9] Berardi Franco , Bifo La fábrica de la infelicidad. Nuevas formas de trabajo y movimiento global.-

[10] Ibíd.p 49

[11] Ibíd. p 50

[12] Ibíd.p 50

Creative Commons License
La publicidad y la ideología de la felicidad by Andrea Naranjo is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Based on a work at andreanaranjo.wordpress.com.
Permissions beyond the scope of this license may be available at http://grancomboclub.blogspot.com/.

La filosofía de la música libre

El investigador en biología computacional del Departamento de microbiología de la Universidad de , SeattleRam Samudrala ha escrito un interesante documento a manera de preguntas, sobre la filosofía de la música libre.

Fuente: C-O-D-E-X lab Traducción Juan Carlos Gentile Hipatia

¿Qué quiere decir usar el termino "Musica Libre"?

La idea es similar a la nocion del Software Libre, y como el Software Libre[1], es referida a la libertad. Especificamente, Musica Libre quiere decir que el individuo tiene la libertad de copiar, distribuir y modificar la musica con fines personales, no comerciales. Musica Libre no quiere decir que los musicos no pueden cobrar por sus discos, cintas, CDs o DATs.

La definicion encima de Libre implica que cualquier objeto tangible no puede ser Libre. De todos modos, algo que puede ser copiado arbitrariamente muchas veces, como la musica, sebe ser libre. Cuando digo musica, quiero decir expresion de ideas (en forma de una composicion musical o una grabacion de sonido) en algun medio, y no el medio en si mismo. Asi usted tiene la libertad de hacer una copia del CD que yo cree, la libertad de descargar archivos de sonido de canciones que yo cree desde mi servidor en Internet, la libertad de cubrir, mejorar una cancion que yo escribi, pero usted no tiene el derecho de liberar CDs.
¿Por qué debemos liberar la musica?
La musica es un proceso creativo. Hoy, cuando un musico publica musica, la expone al mundo externo, solo un grupo privilegiado de individuos podran usar esa musica como les guste. De todos modos, el artista quien basado en la creatividad de muchos otros musicos y hay una responsabilidad existencial con respecto a ellos de devolver esto como retorno incondicionalmente, asi la creatividad quedara entre la gente. Como un punto de disidencia en el caso de Vanna White con Samsung[2], el juez Kozinski escribe:

  • "Todos los creadores crean en parte sobre el trabajo de aquellos que vinieron antes, referenciandose a ellos, construyendo sobre ellos, poniendo diversion sobre ello: nosotros llamamos a esto creatividad, no pirateria.

Más sobre Ram Samudrala

La materia oscura podría tener explicación contradiciendo la Teoría del Big Bang

Fuente: Ciencia Kanija

Enlaces sobre materia oscura relacionados en este blog:

Existe la energia oscura?: Einstein y Newton a prueba


Vientos estelares y el gas interestelar expulsaria materia oscura segun investigacion


¿Hubo un universo anterior antes del Big Bang del universo actual?: Big Bang y Big Bounce, entre la Relatividad general y la Gravedad Cuántica de bucles


Explicar la materia oscura contradiciendo el Big Bang

"Es bien sabido que el “Big Bang” fue un nombre peyorativo dado a la teoría cosmológica de la expansión (no explosión) del universo en un intento de desacreditar la idea. Pero el nombre pegó y con el descubrimiento del fondo de microondas cósmico (CMB) en 1964, la teoría también tuvo éxito. No obstante, cada cierto tiempo, aparece una nueva idea que afirma contradecir la Teoría del Big Bang.

La última procede de los investigadores Robert K. Soberman y Maurice Dubin quienes dicen que saben de qué está formada la materia oscura, y sus nuevas ideas proporcionan una mejor explicación para el CMB, así como para el desplazamiento al rojo galáctico, dos observaciones que apoyan actualmente la Teoría del Big Bang.

Soberman y Dubin creen que la materia oscura está realmente hecha de meteoroides cósmicos — agrupaciones de átomos de hidrógeno y helio, a los que llaman “cosmoides”. Los dos investigadores dicen que los cosmoides se encontraron en una nueva evaluación de datos detectados por Pioneer 10 y 11. Esta materia oscura y frágil existe “casi en el cero absoluto y en el espacio casi sin fuerzas entre las galaxias formado a partir de material expulsado por los vientos estelares. Poca, si es que alguna radiación es emitida a esta temperatura, de aquí su invisibilidad”, dicen Soberman y Dubin en un artículo que publicaron el 25 de marzo de 2008.


Mientras el fondo de microondas cósmico parece cubrir el cielo de forma igual en todas las direcciones, esto es contrario a la materia visible que vemos agrupada en las galaxias. Los dos investigadores teorizan que los cosmoides fueron atraídos gravitatoriamente a nuestra galaxia, Sistema solar y la vecindad inmediata de la Tierra e irradia a 2,735 K lo cual es “erróneamente interpretado como el fondo de microondas cósmico del Big Bang”. De aquí, que esta distribución localmente igualitaria de los cosmoides hace que la radiación parezca igual en todas las direcciones.

Soberman y Dubin dicen que incluso las variaciones descubiertas por los satélites como COBE y WMAP no explican la distribución de materia visible, y que los cosmoides proporcionan una mejor explicación alternativa.

La propuesta de los cosmoides también explicar el desplazamiento al rojo galáctico, de acuerdo con Soberman y Dubin. Los cosmoides absorben y reemiten la luz de galaxias lejanas, y eso debería desplazar al rojo la luz de una forma que es sutilmente distinta de un desplazamiento al rojo Doppler generado por un universo en expansión. Dicen que la sutil diferencia debería ser relativamente fácil de observar con unas pocas observaciones.

Llevarán a cabo varias pruebas que esperan que contradigan las predicciones del Big Bang. La prueba incluye mezclar hidrógeno con una pequeña cantidad de helio y enfriarlo a 2,735 K para ver si se forman cosmoides, y medir el desplazamiento al rojo de los cosmoides (materia oscura) que están a menos de 1 UA del sol.

“Despojado de las dos pruebas que son sus piezas de apoyo, la hipótesis del Big Bang calapsaría. Cualquier hipótesis que merezca la pena considerar debería ofrecer predicciones que permitan elegir entre ella y sus competidoras. Este modelo concluye con predicciones analíticas y experimentales, los resultados de los cuales deberían contradecir la hipótesis del Big Bang”, dicen Soberman y Dubin.

Soberman y Dubin no mencionan nada sobre el tercer “pilar” de la Teoría del Big Bang, que es la distribución del hidrógeno y helio por el cosmos, el cual encaja con precisión en las predicciones de la Teoría del Big Bang.

Aunque esta nueva teoría es seguro que hará que más de uno enarque las cejas, demuestra lo grande que es la ciencia. Todas las teorías — sean ideas mantenidas por la mayoría y de gran recorrido, o nuevas ideas que surgen – pasarán por un continuo escrutinio y prueba. Será interesante ver qué revelan las pruebas de Soberman y Dubin.

La teoría de redes sociales y análisis de redes políticas públicas: a propósito del estudio sobre "El poder económico en el Perú"

Creative Commons License
La teoría de redes sociales y análisis de redes políticas públicas: a propósito del estudio sobre “El poder económico en el Perú” by Andrea Naranjo is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Unported License.
Based on a work at andreanaranjo.wordpress.com.

(entrada inspirada en A propósito de El poder económico en el Perú y El poder económico en el Perú – Comentario)

La Teoría social ha tenido una tradición dedicada en resolver oposiciones hasta ahora difíciles de superar en Ciencias Sociales como son los pares micro-macro, cualitativo cuantitativo o acción-estructura (Molina 2004), de la mano del estructural funcionalismo, escuela que creyó lograr una teoría científica de la cultura, basada en el método clásico de la ciencia desde donde se daría cuenta de los usos sociales y las normas que se producen en la estructura social los cuáles descansarían en ella de manera diádica.

La Teoría de redes toma esta base conceptual no solo para limitarse a describir la estructura social como un todo ya dado que sostendría el sistema normativo/cultural, como lo hizo la escuela estructural funcionalista, sino para tomar la estructura social como "producto/consecuencia de " varios sistemas en interacción rédica, estructura que se basaría no en atomismo esencialista (Borgatti 2003) de la relación social como unidad de estudio, sino en la interdependencia de las unidades de relaciones que se entretejen en una red. Una red, entonces, es un conjunto de relaciones o lazos diádicos (líneas, vínculos, lazos) entre una serie definida de elementos (nodos), donde cada relación o lazo equivale a una red diferente.

Dicha interacción rédica genera en cada relación diádica un cúmulo de información que se manifiesta como una propiedad emergente de una red a la que pertenece cada individuo cuando interacciona con otros y de la posición de éste en la estructura.

El análisis estructural hecho de este modo estudia de manera directa la forma en que los patrones de vinculación asignan los recursos en un sistema social y su fuerza radica en la aplicación integrada de conceptos teóricos, técnicas de obtención de datos así como la acumulación de hallazgos interdisciplinarios desde la economía, ciencia política, sociología, ciencias de la información etc.

Análisis de Redes Sociales

Molina (2001) sostiene que el Análisis de Redes Sociales (ARS) puede concebirse como un intento de analizar formalmente la estructura social. Para ello centra su estudio en las relaciones existentes entre una serie definida de elementos. Una relación se define como el vínculo existente entre un par de elementos (individuos, organizaciones, países) (Wasserman y Faust, 1994).

Por su parte Barry Wellman, define el ARS como una forma comprehensiva y paradigmática de considerar la estructura social de una manera seria, a partir del estudio directo de la forma en que los patrones de vinculación asignan los recursos en un sistema social.

La concepción primaria del ARS es que aunque las personas tienden a ver el mundo en términos de grupos independientes, ellos forman parte de las redes relacionales que conforman el sistema social. (Freeman, 1992).

El ARS ha evolucionado a partir de 3 enfoques, el primero plantea a las redes como mecanismo de integración de las personas en el sistema social. El segundo enfoque proviene de la teoría matemática con el desarrollo de la teoría de graphos, esta base metodológica permite cuantificar y formalizar las relaciones sociales y segundo al teorizar las propiedades de las redes como grafos. El tercer enfoque es la aplicación del análisis de redes sociales al proceso político (Porras, J. 2005)

Las diferencias entre los actores son interpretadas en base a las limitaciones y oportunidades que surgen de la forma en que éstos están inmersos en las redes; la estructura y el comportamiento de las redes están basados y activados por las interacciones locales entre los actores. Las diferencias en cómo los individuos están conectados, por medio de lazos fuertes ligados al núcleo egocéntrico y a lazos débiles que conectan organizaciones lejanas, lo que puede ser extremadamente útil para entender sus atributos y comportamiento (Hanneman, R.).

Capital social y poder

De acuerdo con la explicación de Borgatti, el concepto de capital social tiene su base en que las redes y los vínculos le otorgan un valor añadido a los grupos o individuos, ya que las relaciones le permiten a estos acceder a recursos. Es decir a mayor número de relaciones mayor capital social, por lo que los individuos se relacionan por medio de lazos fuertes y débiles tendiendo puentes que conformarían el Capital social forjado en cada individuo a través de sus relaciones.

Análisis de redes sociales y políticas públicas

En la entrada titulada: El poder económico en Perú un lector hizo una interesante aportación desde el ARS para visualizar y analizar las redes del poder económico local en el Perú.

Luego hubo una aportación sobre dicha entrada en donde Carlos del Carpio remarcó que la colusión[1] sería la hipótesis surgida a partir del gráfico y no la conclusión pues se debe tomar en cuenta el poder político y el poder económico en el Perú tomando en cuenta la naturaleza diferente de ambos. Solo así podríamos responder hasta qué punto la corrupción, el mercantilismo (privatización de Estado) se debe a que hay gente muy rica o a que tenemos instituciones débiles y corrompibles.

En mi humilde opinión creo que el aporte te de ambas entradas son excelentes para partir hacia un estudio más completo sobre las redes políticas en el Perú en un contexto en donde nuestra estructura económica local está atravesada por importantes redes transnacionales a partir de la firma de acuerdos económicos basados en instituciones mundiales y convenios bilaterales sujetas a ésta últimas. En estas redes los actores locales (mírese cuadro) podrían tener importantes papeles en la toma de decisiones en dichos acuerdos bilaterales, como negociadores o consultores.

Para ahondar en el estudio deberemos tomar el tercer enfoque apuntado más arriba sobre la aplicación del análisis de redes sociales a los procesos políticos. (Porras, J. 2005) Clasificados por Emmanuelle Barozet de la siguiente forma:

1. Análisis de los procesos electorales: respecto a los vínculos entre vecinos para la explicación del voto y sus tendencias (el voto escondido).

2. Aporte al estudio de élites nacionales: donde se pone de manifiesto los estudios de los mecanismos de socialización y también en la reconstrucción de la toma de decisión, además de aplicar el estudio de élites a la explicación e identificación de la corrupción y el clientelismo en el espacio informal político.

3. La teoría de la dependencia de recursos ( resource dependence theory): este es el campo de la Teoría de redes aplicada las relaciones intra- organizacionales. Así, el poder equivale a la centralidad de la posición estructural del actor en el sistema. La posición del actor o actores dentro de las estructuras intra -organizacionales de comunicación y las redes de intercambio, da cuenta del involucramiento diferencial de los actores en los procesos de decisión colectiva.”Así como comprender cómo las estructuras intra-organizacionales de comunicación y las redes de intercambio dan cuenta del involucramiento diferencial de los actores en los procesos de decisión colectiva”. Por ello, el enfoque de redes es un complemento a la visión institucional y una buena herramienta para entender la estructuración del poder local.

4. Redes y relaciones internacionales: la sociedad civil global: se establecen aquí, redes de actores para intercambiar y potenciar su posición más allá de las fronteras nacionales, a saber, ONG, empresas transnacionales.

5. Redes y análisis estratégico: en este campo de identifican las relaciones formales institucionalizadas, así como las informales que conforman la estructura social, y los diferentes roles que cumplen los actores reforzando los lazos débiles que puede haber entre las relaciones formales y las informales, las que pueden llevar a un paralelismo interdependiente.

6. Redes sociales y políticas públicas: las políticas públicas se diseñan en el Estado y son producto de las interacciones de una gran cantidad de actores cuyas interacciones se dan desde la sociedad civil y sus múltiples organizaciones, el Estado y el Mercado. Para entender entonces las políticas públicas, es imposible explicarlas a través del estudio de las organizaciones por separado sino por medio de la información creadas a partir de los vínculos fuertes y débiles y su funcionalidad dentro de la red.

Tomando el sexto punto de aplicación, las políticas públicas se diseñan en el Estado y son producto de las interacciones de una gran cantidad de actores cuyas interacciones se dan desde la sociedad civil y sus múltiples organizaciones, el Estado y el Mercado. Para entender entonces las políticas públicas, es imposible explicarlas a través del estudio de las organizaciones por separado sino por medio, como hemos mencionado, de la información creada a partir de los vínculos fuertes y débiles y su funcionalidad dentro de la red.

El estudio de las redes de políticas públicas tienen una utilidad explicativa para comprender los vínculos que dan lugar a ciertas políticas como producto de las interacciones de una gran cantidad de actores locales e internacionales y en muchos caso, ambos a la vez.

Si los procesos políticos tienen lugar en ciertos contextos institucionalizados, entender el contexto institucional es importante porque, desde una perspectiva de red de políticas públicas, los acuerdos organizacionales son necesarios para coordinar interacciones complejas entre varios actores involucrados en procesos políticos.

Para E. H. Klijn (1998) la teoría de la inter organización subraya el hecho que los actores son dependientes de los demás en tanto que necesitan los recursos de los otros para realizar sus metas, por lo que las interdependencias generan interacciones no estáticas entre los actores, las cuales a pesar de ser impredecibles-puesto que forman parte de procesos políticos coyunturales, crean y sustentan los patrones de relaciones – frecuencia, intensidad y centralidad-, que asegurarán los recursos financieros y legales del sistema político.

En este modelo también importan las estrategias utilizadas por las organizaciones para hacer frente a la interdependencia y controlar el flujo de recursos, por ello, en este modelo el poder es un recurso central y está conectado con la posesión de recursos o con la asimetría de las relaciones de dependencia entre los actores.

Debemos poner acá énfasis que Klijn tiene muy claro el importante papel que juega el factor de incertidumbre, el cual es una característica fundamental de todo sistema complejo, es decir de una red compleja como lo son las redes de políticas públicas. Traduciendo esto , quiere decir que los actores de las redes de políticas públicas vistos como subsistemas, no van a predecir que va a ocurrir dentro de ella, sino que al depender de un sistema mayor con diversos niveles ( el Mercado mundial, política exterior, representantes u organizaciones de la sociedad civil, etc) pueden crear en el camino de aprendizaje del mismo proceso, patrones más o menos duraderos que ayudarán a entender el contexto cambiante de la gobernanza institucional, adaptándose ésta, con una buena estrategia de coordinación de interacciones complejas entre los actores, a los cambios a la que dicha gobernanza está expuesta respecto a los procesos políticos.

En nuestro caso sería interesante identificar bajo un estudio de élites, cómo logran éstas, interrelacionarse con las redes políticas públicas, las que les otorgarían poder para la continuidad de las élites y el clientelaje a nivel transnacional, así como nos daría luz para analizar las redes de organizaciones no estatales pero representantes de la Sociedad Civil.


[1] En economía se denomina al acuerdo en que dos o más empresas de un mercado determinado definen que cada una actuará de manera concertada respecto del resto de las demás empresas. El fin de este tipo de acuerdos es que cada una de las empresas participantes en la colusión tome control de una determinada porción del mercado en el cual operan, y actuar de manera monopólica, impidiendo a otras empresas entrar. http://es.wikipedia.org/wiki/Colusi%C3%B3n


Si eres científico: publica en copyleft

Interesante artículo de Adolfo Estalella que llevaba un tiempo "guardado" en los favoritos de mi Backup 2006 que viene perfecto a raíz de una pregunta en la lista de
antropología de Lima, la cual demandaba dónde se podía publicar electrónicamente libros en PDF y recomendé ir por Bubok un proyecto de publicación abierta que será lanzado el 23 de abril Día Internacional del
Libro

Si eres científico: publica en abierto (copyleft)

Si trabajas en la investigación, más vale que te tomes muy en serio Internet para la difusión de tus resultados, y muy importante: que te tomes en serio lo de publicar en revistas abiertas que permiten la libre difusión de sus contenidos.

Un trabajo realizado por Gunther Eysenbach y titulado Citation Advantage of Open Access Articles (en la PLoS Biology) compara las ventajas de publicar en revistas con las restricciones del copyright y en otras abiertas que permiten la copia y distribución de sus contenidos. Los resultados son abrumadores:

  • Pasados entre 4-10 meses de la publicación, los artículos publicados en una revista abierta (copyleft) son citados el doble de veces, por término medio, que los otros (publicados en revistas cerradas con que mantienen las restricciones del copyright)
  • Pasados entre 10-16 meses de la publicación, los artículos publicados en una revista abierta (copyleft) son citados tres veces más, por término medio, que los otros (publicados en revistas cerradas con que mantienen las restricciones del copyright)

Yo escribí en su momento en el Ciberpaís sobre estos modos de publicación que Creative Commons está promoviendo con Science Commons su y de los que la Public Library of Science (PLoS) se ha convertido en referencia ineludible.