Sáb. Nov 23rd, 2024

La red social Facebook realizó un experimento con unos 700.000 usuarios y sin el consentimiento de estos, según reveló un estudio publicado en la revista de la Academia Nacional de las Ciencias de Estados Unidos.

El objetivo del experimento, que se realizó del 11 al 18 de enero del 2012, era determinar el «contagio emocional» entre individuos. Así, Facebook, en cooperación con científicos de las universidades Cornell y California (San Francisco, EE.UU.), concluyó que los estados emocionales se pueden comunicar entre individuos sin necesidad de que interactúen en persona.

Concretamente, la compañía cambió en secreto su algoritmo de difusión de noticias. Dicha alteración le permitió modificar el contenido de las informaciones recibidas por estos 700.000 usuarios, para conocer el impacto que los mensajes recibidos tenían sobre sus emociones. Los científicos querían saber si el número de mensajes positivos o negativos que leían los usuarios les influían a la hora de colgar mensajes en su muro.

Y constataron que, efectivamente, los usuarios colgaban mensajes positivos o negativos en función de los contenidos a los que habían sido «expuestos».

«Los estados emocionales pueden transmitirse por un fenómeno de contagio, llevando a otras personas a sentir las mismas emociones sin que sean conscientes de ellos», señalaron los autores del estudio. Tras analizar casi tres millones de comentarios, determinaron que «los resultados muestran la realidad de un contagio emocional masivo a través de las redes sociales».

¿Capacidad para manipular?

La investigación ha despertado de nuevo dudas y generado críticas sobre la posible interferencia de Facebook y otras redes en la privacidad de sus usuarios.

Los científicos constataron que los usuarios colgaban mensajes positivos o negativos en función de los contenidos a los que habían sido "expuestos".

El estudio constata la existencia de un «contagio emocional masivo» entre usuarios.

«Llamemos al experimento de Facebook por su nombre: el síntoma de un fracaso mucho más amplio con respecto a la ética, el poder y el consentimiento en estas plataformas», apuntó Kate Crawford, la investigadora principal de Microsoft Research y miembro del Information Law Institute de la New York University, en Twitter.

La activista estadounidense Lauren Weinstein, por su lado, twiteó: «Facebook experimenta en secreto con sus usuarios para hacerlos entristecer. ¿Qué podría salir mal?».

«El estudio es síntoma de un fracaso mucho más amplio con respecto a la ética, el poder y el consentimiento en estas plataformas«

Kate Crawford, miembro del Information Law Institute de la NYU

El diputado laborista Jim Sheridan, miembro del comité de medios de la Cámara de los Comunes del Reino Unido – cámara baja del parlamento británico-, solicitó una investigación para aclarar lo ocurrido.

«Ésta es una cuestión de extraordinaria importancia, y si no existe ya una legislación sobre este tema, debe haberla para proteger a la gente», le cita el diario británico The Guardian. «Están manipulando material de la vida privada de la gente, y estoy preocupado por la capacidad de Facebook y de otros para manipular los pensamientos de la gente sobre política y otras áreas». A lo que añadió: «Si los pensamientos de las personas están siendo manipuladas de esta forma, éstas deberían estar protegidas, al menos deberían tener conocimiento de ello».

Sin embargo, Katherine Sledge Moore, profesora de psicología del Elmhurst College de Illinois, EE.UU., dijo: «Sobre la base de lo que Facebook hace todo el tiempo con su suministro de noticias, y teniendo en cuenta lo que hemos acordado al unirnos a la red social, estudio no es tan extraordinario». Y añadió: «Los resultados ni siquiera son alarmantes o emocionantes».

Disculpas de Facebook

Frente a las críticas recibidas por la supuesta manipulación, la empresa se ha defendido diciendo que no se recogió «información innecesaria» de los usuarios, y que «ninguno de los datos utilizados se asoció con una cuenta personal específica de Facebook».

Facebook se ha defendido diciendo que no se recogió "información innecesaria" de los usuarios.

Facebook se ha defendido diciendo que no se recogió «información innecesaria» de los usuarios.

Adam Kramer, miembro de Facebook y coautor del estudio, explicó en esa línea: «Sentimos que era importante investigar la preocupación común de que ver a los amigos publicar contenido positivo hace que la gente tenga sentimientos negativos o se sienta excluída». A lo que añadió: «Al mismo tiempo, nos inquietaba que la exposición a la negatividad de los amigos pudiera conducir a la gente a evitar visitar Facebook».

Asimismo, admitió que la empresa no estableció estas «motivaciones con claridad» en el documento del estudio. «Puedo entender que alguna gente esté preocupada, y los otros autores del estudio y yo sentimos mucho la manera en la que el documento describe la investigación, y la ansiedad que hayamos podido causar».

 

Fuente: BBC Mundo