Facebook manipuló las informaciones de unos 700.000 usuarios anglófonos para un estudio científico sobre el “contagio emocional” de los grupos, suscitando preocupación en los internautas este fin de semana.
.
Científicos de las universidades de Cornell y de California investigaron si el número de mensajes positivos o negativos leídos por los miembros de Facebook tenía influencia sobre lo que publican.
.
Durante una semana, del 11 al 18 de enero de 2012, la empresa y los investigadores modificaron en secreto el sistema de algoritmos de la red para manipular los contenidos. El resultado de la investigación, publicado el 17 de junio en la revista de la Academia Nacional de las Ciencias de Estados Unidos (PNAS), muestra que los usuarios utilizan más palabras negativas o positivas según el alcance de los contenidos a los que sean expuestos.
.
“Los estados emocionales son comunicativos y pueden transmitirse por un efecto de contagio, lo que conduce a las personas a sentir las mismas emociones sin ser conscientes de ello”, escribieron los autores, quienes dan por demostrada
“la realidad de un contagio emocional de masas por medio de las redes sociales”.
.
El estudio pasó inicialmente desapercibido en los principales medios de Estados Unidos; sin embargo, creció la atención tras los artículos publicados el sábado en la revista en línea de Slate y en las páginas web de The Atlantic y Forbes.
.
“Es sin duda legal pero ¿es ético?”, se preguntaba The Atlantic en un artículo. Algunos internautas expresaron su “profunda pena” y describieron el método utilizado como “alarmante” o “demoníaco”.
.
“Facebook ha manejado su ‘suministro de noticias’ para un experimento psicológico. Llegó el momento de cerrar tu cuenta de Facebook”, se irritó un usuario en Twitter.
.
Susan Fiske, de la Universidad de Princeton (editora de la PNAS), explicó a The Atlantic que contactó con los autores del estudio para hacerles partícipes de la preocupación respecto a sus trabajos.
.
Ellos le dijeron que los responsables de sus universidades habían aprobado estos trabajos “porque Facebook, al parecer, manipula sistemáticamente el contenido de las informaciones difundidas”.
Requerida por la AFP, Fiske reconoció que las cuestiones éticas levantadas por este estudio “tocaron sin lugar a dudas una fibra sensible”. “Pero creo que es Facebook el que debe aportar una respuesta al desasosiego” de sus usuarios.
.
En un mail enviado a la AFP, la portavoz de la red social, Isabel Hernández, aseguró que “la investigación se realizó solamente durante una semana y ningún dato utilizado estaba ligado a una persona en particular”. “Realizamos investigaciones para mejorar nuestros servicios (...) y una gran parte consiste en comprender cómo responde la gente a diferentes contenidos positivos o negativos”, prosiguió. “Nosotros examinamos cuidadosamente los estudios que hacemos y tenemos un proceso interno de evaluación muy estricto”.
.
.
FUENTE: Eltiempo
.
Científicos de las universidades de Cornell y de California investigaron si el número de mensajes positivos o negativos leídos por los miembros de Facebook tenía influencia sobre lo que publican.
.
Durante una semana, del 11 al 18 de enero de 2012, la empresa y los investigadores modificaron en secreto el sistema de algoritmos de la red para manipular los contenidos. El resultado de la investigación, publicado el 17 de junio en la revista de la Academia Nacional de las Ciencias de Estados Unidos (PNAS), muestra que los usuarios utilizan más palabras negativas o positivas según el alcance de los contenidos a los que sean expuestos.
.
“Los estados emocionales son comunicativos y pueden transmitirse por un efecto de contagio, lo que conduce a las personas a sentir las mismas emociones sin ser conscientes de ello”, escribieron los autores, quienes dan por demostrada
“la realidad de un contagio emocional de masas por medio de las redes sociales”.
.
El estudio pasó inicialmente desapercibido en los principales medios de Estados Unidos; sin embargo, creció la atención tras los artículos publicados el sábado en la revista en línea de Slate y en las páginas web de The Atlantic y Forbes.
.
“Es sin duda legal pero ¿es ético?”, se preguntaba The Atlantic en un artículo. Algunos internautas expresaron su “profunda pena” y describieron el método utilizado como “alarmante” o “demoníaco”.
.
“Facebook ha manejado su ‘suministro de noticias’ para un experimento psicológico. Llegó el momento de cerrar tu cuenta de Facebook”, se irritó un usuario en Twitter.
.
Susan Fiske, de la Universidad de Princeton (editora de la PNAS), explicó a The Atlantic que contactó con los autores del estudio para hacerles partícipes de la preocupación respecto a sus trabajos.
.
Ellos le dijeron que los responsables de sus universidades habían aprobado estos trabajos “porque Facebook, al parecer, manipula sistemáticamente el contenido de las informaciones difundidas”.
Requerida por la AFP, Fiske reconoció que las cuestiones éticas levantadas por este estudio “tocaron sin lugar a dudas una fibra sensible”. “Pero creo que es Facebook el que debe aportar una respuesta al desasosiego” de sus usuarios.
.
En un mail enviado a la AFP, la portavoz de la red social, Isabel Hernández, aseguró que “la investigación se realizó solamente durante una semana y ningún dato utilizado estaba ligado a una persona en particular”. “Realizamos investigaciones para mejorar nuestros servicios (...) y una gran parte consiste en comprender cómo responde la gente a diferentes contenidos positivos o negativos”, prosiguió. “Nosotros examinamos cuidadosamente los estudios que hacemos y tenemos un proceso interno de evaluación muy estricto”.
.
.
FUENTE: Eltiempo